ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Mathematics for Machine Learning

دانلود کتاب ریاضیات برای یادگیری ماشین

Mathematics for Machine Learning

مشخصات کتاب

Mathematics for Machine Learning

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 1108679935, 9781108679930 
ناشر: Cambridge University Press 
سال نشر: 2020 
تعداد صفحات: [417] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 16 Mb 

قیمت کتاب (تومان) : 37,000

در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 8


در صورت تبدیل فایل کتاب Mathematics for Machine Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب ریاضیات برای یادگیری ماشین نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب ریاضیات برای یادگیری ماشین

ابزارهای اساسی ریاضی مورد نیاز برای درک یادگیری ماشین عبارتند از جبر خطی، هندسه تحلیلی، تجزیه ماتریس، حساب برداری، بهینه سازی، احتمال و آمار. این موضوعات به طور سنتی در دوره‌های متفاوت تدریس می‌شوند و یادگیری مؤثر ریاضیات را برای دانش‌آموزان علوم داده یا علوم رایانه یا متخصصان سخت می‌کند. این کتاب درسی مستقل، شکاف بین متون ریاضی و یادگیری ماشین را پر می کند و مفاهیم ریاضی را با حداقل پیش نیازها معرفی می کند. از این مفاهیم برای استخراج چهار روش یادگیری ماشین مرکزی استفاده می‌کند: رگرسیون خطی، تحلیل مؤلفه‌های اصلی، مدل‌های مخلوط گاوسی و ماشین‌های بردار پشتیبان. برای دانش‌آموزان و سایرین با پیش‌زمینه ریاضی، این اشتقاق‌ها نقطه شروعی برای متون یادگیری ماشینی است. برای کسانی که برای اولین بار ریاضیات را یاد می گیرند، این روش ها به ایجاد شهود و تجربه عملی با استفاده از مفاهیم ریاضی کمک می کند. هر فصل شامل مثال های کار شده و تمرین هایی برای تست درک است. آموزش های برنامه نویسی در وب سایت کتاب ارائه شده است.


توضیحاتی درمورد کتاب به خارجی

The fundamental mathematical tools needed to understand machine learning include linear algebra, analytic geometry, matrix decompositions, vector calculus, optimization, probability and statistics. These topics are traditionally taught in disparate courses, making it hard for data science or computer science students, or professionals, to efficiently learn the mathematics. This self-contained textbook bridges the gap between mathematical and machine learning texts, introducing the mathematical concepts with a minimum of prerequisites. It uses these concepts to derive four central machine learning methods: linear regression, principal component analysis, Gaussian mixture models and support vector machines. For students and others with a mathematical background, these derivations provide a starting point to machine learning texts. For those learning the mathematics for the first time, the methods help build intuition and practical experience with applying mathematical concepts. Every chapter includes worked examples and exercises to test understanding. Programming tutorials are offered on the book's web site.



فهرست مطالب

Foreword
Part I Mathematical Foundations
	1 Introduction and Motivation
		1.1 Finding Words for Intuitions
		1.2 Two Ways to Read This Book
		1.3 Exercises and Feedback
	2 Linear Algebra
		2.1 Systems of Linear Equations
		2.2 Matrices
		2.3 Solving Systems of Linear Equations
		2.4 Vector Spaces
		2.5 Linear Independence
		2.6 Basis and Rank
		2.7 Linear Mappings
		2.8 Affine Spaces
		2.9 Further Reading
	Exercises
	3 Analytic Geometry
		3.1 Norms
		3.2 Inner Products
		3.3 Lengths and Distances
		3.4 Angles and Orthogonality
		3.5 Orthonormal Basis
		3.6 Orthogonal Complement
		3.7 Inner Product of Functions
		3.8 Orthogonal Projections
		3.9 Rotations
		3.10 Further Reading
	Exercises
	4 Matrix Decompositions
		4.1 Determinant and Trace
		4.2 Eigenvalues and Eigenvectors
		4.3 Cholesky Decomposition
		4.4 Eigendecomposition and Diagonalization
		4.5 Singular Value Decomposition
		4.6 Matrix Approximation
		4.7 Matrix Phylogeny
		4.8 Further Reading
	Exercises
	5 Vector Calculus
		5.1 Differentiation of Univariate Functions
		5.2 Partial Differentiation and Gradients
		5.3 Gradients of Vector-Valued Functions
		5.4 Gradients of Matrices
		5.5 Useful Identities for Computing Gradients
		5.6 Backpropagation and Automatic Differentiation
		5.7 Higher-Order Derivatives
		5.8 Linearization and Multivariate Taylor Series
		5.9 Further Reading
	Exercises
	6 Probability and Distributions
		6.1 Construction of a Probability Space
		6.2 Discrete and Continuous Probabilities
		6.3 Sum Rule, Product Rule, and Bayes' Theorem
		6.4 Summary Statistics and Independence
		6.5 Gaussian Distribution
		6.6 Conjugacy and the Exponential Family
		6.7 Change of Variables/Inverse Transform
		6.8 Further Reading
	Exercises
	7 Continuous Optimization
		7.1 Optimization Using Gradient Descent
		7.2 Constrained Optimization and Lagrange Multipliers
		7.3 Convex Optimization
		7.4 Further Reading
	Exercises
Part II Central Machine Learning Problems
	8 When Models Meet Data
		8.1 Data, Models, and Learning
		8.2 Empirical Risk Minimization
		8.3 Parameter Estimation
		8.4 Probabilistic Modeling and Inference
		8.5 Directed Graphical Models
		8.6 Model Selection
	9 Linear Regression
		9.1 Problem Formulation
		9.2 Parameter Estimation
		9.3 Bayesian Linear Regression
		9.4 Maximum Likelihood as Orthogonal Projection
		9.5 Further Reading
	10 Dimensionality Reduction with Principal Component Analysis
		10.1 Problem Setting
		10.2 Maximum Variance Perspective
		10.3 Projection Perspective
		10.4 Eigenvector Computation and Low-Rank Approximations
		10.5 PCA in High Dimensions
		10.6 Key Steps of PCA in Practice
		10.7 Latent Variable Perspective
		10.8 Further Reading
	11 Density Estimation with Gaussian Mixture Models
		11.1 Gaussian Mixture Model
		11.2 Parameter Learning via Maximum Likelihood
		11.3 EM Algorithm
		11.4 Latent-Variable Perspective
		11.5 Further Reading
	12 Classification with Support Vector Machines
		12.1 Separating Hyperplanes
		12.2 Primal Support Vector Machine
		12.3 Dual Support Vector Machine
		12.4 Kernels
		12.5 Numerical Solution
		12.6 Further Reading
	References
	Index




نظرات کاربران