ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Machine Learning: The Basics (Machine Learning: Foundations, Methodologies, and Applications)

دانلود کتاب یادگیری ماشینی: مبانی (یادگیری ماشین: مبانی، روش ها و کاربردها)

Machine Learning: The Basics (Machine Learning: Foundations, Methodologies, and Applications)

مشخصات کتاب

Machine Learning: The Basics (Machine Learning: Foundations, Methodologies, and Applications)

ویرایش: [1st ed. 2022] 
نویسندگان:   
سری:  
ISBN (شابک) : 9811681929, 9789811681929 
ناشر: Springer 
سال نشر: 2022 
تعداد صفحات: 229
[225] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 Mb 

قیمت کتاب (تومان) : 49,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Machine Learning: The Basics (Machine Learning: Foundations, Methodologies, and Applications) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری ماشینی: مبانی (یادگیری ماشین: مبانی، روش ها و کاربردها) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری ماشینی: مبانی (یادگیری ماشین: مبانی، روش ها و کاربردها)


یادگیری ماشین (ML) به عنصری رایج در زندگی روزمره ما و ابزاری استاندارد برای بسیاری از زمینه‌های علوم و مهندسی تبدیل شده است. برای استفاده بهینه از ML، درک اصول اساسی آن ضروری است.

این کتاب به ML به عنوان اجرای محاسباتی اصل علمی می پردازد. این اصل شامل انطباق مداوم یک مدل از یک پدیده داده‌ای معین با به حداقل رساندن نوعی از ضرر ناشی از پیش‌بینی‌های آن است.

این کتاب به خوانندگان آموزش می‌دهد تا برنامه‌ها و روش‌های مختلف ML را از نظر داده‌ها، مدل‌ها و از دست دادن تجزیه و تحلیل کنند، بنابراین به آن‌ها کمک می‌کند تا از طیف وسیعی از ابزارهای آماده انتخاب کنند. -روش‌های ML ساخته شده.

رویکرد سه جزئی کتاب به ML پوشش یکنواختی از طیف وسیعی از مفاهیم و تکنیک‌ها را ارائه می‌کند. به عنوان مثال، تکنیک‌های منظم‌سازی، حفظ حریم خصوصی و همچنین قابلیت توضیح، انتخاب‌های طراحی خاص برای مدل، داده‌ها و از دست دادن روش ML است.


توضیحاتی درمورد کتاب به خارجی

Machine learning (ML) has become a commonplace element in our everyday lives and a standard tool for many fields of science and engineering. To make optimal use of ML, it is essential to understand its underlying principles. 

This book approaches ML as the computational implementation of the scientific principle. This principle consists of continuously adapting a model of a given data-generating phenomenon by minimizing some form of loss incurred by its predictions. 

The book trains readers to break down various ML applications and methods in terms of data, model, and loss, thus helping them to choose from the vast range of ready-made ML methods.

The book’s three-component approach to ML provides uniform coverage of a wide range of concepts and techniques. As a case in point, techniques for regularization, privacy-preservation as well as explainability amount to specific design choices for the model, data, and loss of a ML method. 



فهرست مطالب

Preface
Acknowledgements
Contents
Symbols
	Sets
	Matrices and Vectors
	Machine Learning
	References
1 Introduction
	1.1 Relation to Other Fields
		1.1.1 Linear Algebra
		1.1.2 Optimization
		1.1.3 Theoretical Computer Science
		1.1.4 Information Theory
		1.1.5 Probability Theory and Statistics
		1.1.6 Artificial Intelligence
	1.2 Flavours of Machine Learning
		1.2.1 Supervised Learning
		1.2.2 Unsupervised Learning
		1.2.3 Reinforcement Learning
	1.3 Organization of this Book
	References
2 Components of ML
	2.1 The Data
		2.1.1 Features
		2.1.2 Labels
		2.1.3 Scatterplot
		2.1.4 Probabilistic Models for Data
	2.2 The Model
		2.2.1 Parametrized hypospaces
		2.2.2 The Size of a Hypothesis Space
	2.3 The Loss
		2.3.1 Loss Functions for Numeric Labels
		2.3.2 Loss Functions for Categorical Labels
		2.3.3 Loss Functions for Ordinal Label Values
		2.3.4 Empirical Risk
		2.3.5 Regret
		2.3.6 Rewards as Partial Feedback
	2.4 Putting Together the Pieces
	2.5 Exercises
	References
3 The Landscape of ML
	3.1 Linear Regression
	3.2 Polynomial Regression
	3.3 Least Absolute Deviation Regression
	3.4 The Lasso
	3.5 Gaussian Basis Regression
	3.6 Logistic Regression
	3.7 Support Vector Machines
	3.8 Bayes Classifier
	3.9 Kernel Methods
	3.10 Decision Trees
	3.11 Deep Learning
	3.12 Maximum Likelihood
	3.13 Nearest Neighbour Methods
	3.14 Deep Reinforcement Learning
	3.15 LinUCB
	3.16 Exercises
	References
4 Empirical Risk Minimization
	4.1 The Basic Idea of Empirical Risk Minimization
	4.2 Computational and Statistical Aspects of ERM
	4.3 ERM for Linear Regression
	4.4 ERM for Decision Trees
	4.5 ERM for Bayes Classifiers
	4.6 Training and Inference Periods
	4.7 Online Learning
	4.8 Exercise
	References
5 Gradient-Based Learning
	5.1 The GD Step
	5.2 Choosing Step Size
	5.3 When to Stop?
	5.4 GD for Linear Regression
	5.5 GD for Logistic Regression
	5.6 Data Normalization
	5.7 Stochastic GD
	5.8 Exercises
	References
6 Model Validation and Selection
	6.1 Overfitting
	6.2 Validation
		6.2.1 The Size of the Validation Set
		6.2.2 k-Fold Cross Validation
		6.2.3 Imbalanced Data
	6.3 Model Selection
	6.4 A Probabilistic Analysis of Generalization
	6.5 The Bootstrap
	6.6 Diagnosing ML
	6.7 Exercises
	References
7 Regularization
	7.1 Structural Risk Minimization
	7.2 Robustness
	7.3 Data Augmentation
	7.4 Statistical and Computational Aspects  of Regularization
	7.5 Semi-Supervised Learning
	7.6 Multitask Learning
	7.7 Transfer Learning
	7.8 Exercises
	References
8 Clustering
	8.1 Hard Clustering with k-Means
	8.2 Soft Clustering with Gaussian Mixture Models
	8.3 Connectivity-Based Clustering
	8.4 Clustering as Preprocessing
	8.5 Exercises
	References
9 Feature Learning
	9.1 Basic Principle of Dimensionality Reduction
	9.2 Principal Component Analysis
		9.2.1 Combining PCA with Linear Regression
		9.2.2 How to Choose Number of PC?
		9.2.3 Data Visualisation
		9.2.4 Extensions of PCA
	9.3 Feature Learning for Non-numeric Data
	9.4 Feature Learning for Labeled Data
	9.5 Privacy-Preserving Feature Learning
	9.6 Random Projections
	9.7 Dimensionality Increase
	9.8 Exercises
	References
10 Transparent and Explainable ML
	10.1 A Model Agnostic Method
		10.1.1 Probabilistic Data Model for XML
		10.1.2 Computing Optimal Explanations
	10.2 Explainable Empirical Risk Minimization
	10.3 Exercises
	References
Appendix  Glossary
	References
Index




نظرات کاربران