دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 2
نویسندگان: Giuseppe Bonaccorso,
سری:
ISBN (شابک) : 9781789347999
ناشر:
سال نشر: 2018
تعداد صفحات: 514
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 65 مگابایت
در صورت تبدیل فایل کتاب Machine Learning Algorithms به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب الگوریتم های یادگیری ماشین نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
راهنمای گام به گام ساده و آسان برای دستیابی به کاربرد واقعی الگوریتم های یادگیری ماشین ویژگی های کلیدی آمار و ریاضیات پیچیده را برای برنامه های کاربردی داده فشرده کشف کنید پیشرفت های جدید در الگوریتم EM، PCA، و بیزی را کشف کنید. رگرسیون الگوها را مطالعه کنید و در مجموعه دادههای مختلف پیشبینی کنید. با این حال، نیروهای واقعی پشت خروجی قدرتمند آن، الگوریتمهای پیچیدهای هستند که شامل تحلیلهای آماری قابلتوجهی است که مجموعههای داده بزرگ را به هم میریزد و بینش قابلتوجهی ایجاد میکند. این ویرایش دوم الگوریتمهای یادگیری ماشین شما را از طریق نتایج توسعه برجستهای که در رابطه با الگوریتمهای یادگیری ماشین رخ داده است، راهنمایی میکند، که سهم عمدهای در فرآیند یادگیری ماشین دارند و به شما کمک میکنند تا تفسیر آماری را در حوزههای تحت نظارت و نیمهنظارت تقویت کنید و بر آن مسلط شوید. ، و یادگیری تقویتی. هنگامی که مفاهیم اصلی یک الگوریتم پوشش داده شد، نمونه های دنیای واقعی را بر اساس پرکاربردترین کتابخانه ها، مانند scikit-learn، NLTK، TensorFlow و Keras کاوش خواهید کرد. شما موضوعات جدیدی مانند تجزیه و تحلیل مؤلفه های اصلی (PCA)، تجزیه و تحلیل مؤلفه های مستقل (ICA)، رگرسیون بیزی، تجزیه و تحلیل متمایز، خوشه بندی پیشرفته، و مخلوط گاوسی را کشف خواهید کرد. در پایان این کتاب، شما الگوریتمهای یادگیری ماشین را مطالعه کردهاید و میتوانید آنها را در تولید قرار دهید تا برنامههای یادگیری ماشینی خود را خلاقانهتر کنید. آنچه خواهید آموخت مطالعه انتخاب ویژگی و فرآیند مهندسی ویژگی ارزیابی عملکرد و معاوضه خطا برای رگرسیون خطی یک مدل داده بسازید و نحوه کار آن را با استفاده از انواع مختلف الگوریتم یاد بگیرید تنظیم پارامترهای ماشینهای بردار پشتیبانی (SVM) را کاوش کنید. مفهوم پردازش زبان طبیعی (NLP) و سیستمهای توصیه ایجاد یک معماری یادگیری ماشین از ابتدا. زمینه تجزیه و تحلیل پیش بینی و یادگیری ماشین. آشنایی با R و Python یک مزیت اضافی برای دریافت بهترین ها از این کتاب خواهد بود.
An easy-to-follow, step-by-step guide for getting to grips with the real-world application of machine learning algorithms Key Features Explore statistics and complex mathematics for data-intensive applications Discover new developments in EM algorithm, PCA, and bayesian regression Study patterns and make predictions across various datasets Book Description Machine learning has gained tremendous popularity for its powerful and fast predictions with large datasets. However, the true forces behind its powerful output are the complex algorithms involving substantial statistical analysis that churn large datasets and generate substantial insight. This second edition of Machine Learning Algorithms walks you through prominent development outcomes that have taken place relating to machine learning algorithms, which constitute major contributions to the machine learning process and help you to strengthen and master statistical interpretation across the areas of supervised, semi-supervised, and reinforcement learning. Once the core concepts of an algorithm have been covered, you'll explore real-world examples based on the most diffused libraries, such as scikit-learn, NLTK, TensorFlow, and Keras. You will discover new topics such as principal component analysis (PCA), independent component analysis (ICA), Bayesian regression, discriminant analysis, advanced clustering, and gaussian mixture. By the end of this book, you will have studied machine learning algorithms and be able to put them into production to make your machine learning applications more innovative. What you will learn Study feature selection and the feature engineering process Assess performance and error trade-offs for linear regression Build a data model and understand how it works by using different types of algorithm Learn to tune the parameters of Support Vector Machines (SVM) Explore the concept of natural language processing (NLP) and recommendation systems Create a machine learning architecture from scratch Who this book is for Machine Learning Algorithms is for you if you are a machine learning engineer, data engineer, or junior data scientist who wants to advance in the field of predictive analytics and machine learning. Familiarity with R and Python will be an added advantage for getting the best from this book.
Cover Title Page Copyright and Credits Dedication Packt Upsell Contributors Table of Contents Preface Chapter 1: A Gentle Introduction to Machine Learning Introduction – classic and adaptive machines Descriptive analysis Predictive analysis Only learning matters Supervised learning Unsupervised learning Semi-supervised learning Reinforcement learning Computational neuroscience Beyond machine learning – deep learning and bio-inspired adaptive systems Machine learning and big data Summary Chapter 2: Important Elements in Machine Learning Data formats Multiclass strategies One-vs-all One-vs-one Learnability Underfitting and overfitting Error measures and cost functions PAC learning Introduction to statistical learning concepts MAP learning Maximum likelihood learning Class balancing Resampling with replacement SMOTE resampling Elements of information theory Entropy Cross-entropy and mutual information Divergence measures between two probability distributions Summary Chapter 3: Feature Selection and Feature Engineering scikit-learn toy datasets Creating training and test sets Managing categorical data Managing missing features Data scaling and normalization Whitening Feature selection and filtering Principal Component Analysis Non-Negative Matrix Factorization Sparse PCA Kernel PCA Independent Component Analysis Atom extraction and dictionary learning Visualizing high-dimensional datasets using t-SNE Summary Chapter 4: Regression Algorithms Linear models for regression A bidimensional example Linear regression with scikit-learn and higher dimensionality R2 score Explained variance Regressor analytic expression Ridge, Lasso, and ElasticNet Ridge Lasso ElasticNet Robust regression RANSAC Huber regression Bayesian regression Polynomial regression Isotonic regression Summary Chapter 5: Linear Classification Algorithms Linear classification Logistic regression Implementation and optimizations Stochastic gradient descent algorithms Passive-aggressive algorithms Passive-aggressive regression Finding the optimal hyperparameters through a grid search Classification metrics Confusion matrix Precision Recall F-Beta Cohen's Kappa Global classification report Learning curve ROC curve Summary Chapter 6: Naive Bayes and Discriminant Analysis Bayes' theorem Naive Bayes classifiers Naive Bayes in scikit-learn Bernoulli Naive Bayes Multinomial Naive Bayes An example of Multinomial Naive Bayes for text classification Gaussian Naive Bayes Discriminant analysis Summary Chapter 7: Support Vector Machines Linear SVM SVMs with scikit-learn Linear classification Kernel-based classification Radial Basis Function Polynomial kernel Sigmoid kernel Custom kernels Non-linear examples ν-Support Vector Machines Support Vector Regression An example of SVR with the Airfoil Self-Noise dataset Introducing semi-supervised Support Vector Machines (S3VM) Summary Chapter 8: Decision Trees and Ensemble Learning Binary Decision Trees Binary decisions Impurity measures Gini impurity index Cross-entropy impurity index Misclassification impurity index Feature importance Decision Tree classification with scikit-learn Decision Tree regression Example of Decision Tree regression with the Concrete Compressive Strength dataset Introduction to Ensemble Learning Random Forests Feature importance in Random Forests AdaBoost Gradient Tree Boosting Voting classifier Summary Chapter 9: Clustering Fundamentals Clustering basics k-NN Gaussian mixture Finding the optimal number of components K-means Finding the optimal number of clusters Optimizing the inertia Silhouette score Calinski-Harabasz index Cluster instability Evaluation methods based on the ground truth Homogeneity Completeness Adjusted Rand Index Summary Chapter 10: Advanced Clustering DBSCAN Spectral Clustering Online Clustering Mini-batch K-means BIRCH Biclustering Summary Chapter 11: Hierarchical Clustering Hierarchical strategies Agglomerative Clustering Dendrograms Agglomerative Clustering in scikit-learn Connectivity constraints Summary Chapter 12: Introducing Recommendation Systems Naive user-based systems Implementing a user-based system with scikit-learn Content-based systems Model-free (or memory-based) collaborative filtering Model-based collaborative filtering Singular value decomposition strategy Alternating least squares strategy ALS with Apache Spark MLlib Summary Chapter 13: Introducing Natural Language Processing NLTK and built-in corpora Corpora examples The Bag-of-Words strategy Tokenizing Sentence tokenizing Word tokenizing Stopword removal Language detection Stemming Vectorizing Count vectorizing N-grams TF-IDF vectorizing Part-of-Speech Named Entity Recognition A sample text classifier based on the Reuters corpus Summary Chapter 14: Topic Modeling and Sentiment Analysis in NLP Topic modeling Latent Semantic Analysis Probabilistic Latent Semantic Analysis Latent Dirichlet Allocation Introducing Word2vec with Gensim Sentiment analysis VADER sentiment analysis with NLTK Summary Chapter 15: Introducing Neural Networks Deep learning at a glance Artificial neural networks MLPs with Keras Interfacing Keras to scikit-learn Summary Chapter 16: Advanced Deep Learning Models Deep model layers Fully connected layers Convolutional layers Dropout layers Batch normalization layers Recurrent Neural Networks An example of a deep convolutional network with Keras An example of an LSTM network with Keras A brief introduction to TensorFlow Computing gradients Logistic regression Classification with a multilayer perceptron Image convolution Summary Chapter 17: Creating a Machine Learning Architecture Machine learning architectures Data collection Normalization and regularization Dimensionality reduction Data augmentation Data conversion Modeling/grid search/cross-validation Visualization GPU support A brief introduction to distributed architectures Scikit-learn tools for machine learning architectures Pipelines Feature unions Summary Other Books You May Enjoy Index