ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Math for Deep Learning: What You Need to Know to Understand Neural Networks

دانلود کتاب ریاضی برای یادگیری عمیق: آنچه برای درک شبکه های عصبی باید بدانید

Math for Deep Learning: What You Need to Know to Understand Neural Networks

مشخصات کتاب

Math for Deep Learning: What You Need to Know to Understand Neural Networks

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1718501900, 9781718501904 
ناشر: No Starch Press 
سال نشر: 2021 
تعداد صفحات: 344 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 10 Mb 

قیمت کتاب (تومان) : 31,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Math for Deep Learning: What You Need to Know to Understand Neural Networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب ریاضی برای یادگیری عمیق: آنچه برای درک شبکه های عصبی باید بدانید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب ریاضی برای یادگیری عمیق: آنچه برای درک شبکه های عصبی باید بدانید

ریاضی برای یادگیری عمیق ریاضیات ضروری را برای درک بحث های یادگیری عمیق، کشف پیاده سازی های پیچیده تر و استفاده بهتر از ابزارهای یادگیری عمیق فراهم می کند. با ریاضی برای یادگیری عمیق، ریاضیات ضروری را که توسط و به عنوان پیش زمینه برای یادگیری عمیق استفاده می شود، یاد خواهید گرفت. شما از طریق مثال‌های پایتون برای یادگیری موضوعات کلیدی مرتبط با یادگیری عمیق در احتمال، آمار، جبر خطی، حساب دیفرانسیل، و محاسبات ماتریس و همچنین نحوه پیاده‌سازی جریان داده در شبکه عصبی، انتشار پس‌زمینه، و نزول گرادیان کار خواهید کرد. شما همچنین از پایتون برای کار با ریاضیاتی که زیربنای آن الگوریتم‌ها هستند و حتی ساخت یک شبکه عصبی کاملاً کاربردی استفاده خواهید کرد. علاوه بر این، پوشش شیب نزول را خواهید یافت که شامل تغییراتی است که معمولاً توسط جامعه یادگیری عمیق استفاده می شود: SGD، Adam، RMSprop، و Adagrad/Adadelta.


توضیحاتی درمورد کتاب به خارجی

Math for Deep Learning provides the essential math you need to understand deep learning discussions, explore more complex implementations, and better use the deep learning toolkits. With Math for Deep Learning, you'll learn the essential mathematics used by and as a background for deep learning.  You’ll work through Python examples to learn key deep learning related topics in probability, statistics, linear algebra, differential calculus, and matrix calculus as well as how to implement data flow in a neural network, backpropagation, and gradient descent. You’ll also use Python to work through the mathematics that underlies those algorithms and even build a fully-functional neural network. In addition you’ll find coverage of gradient descent including variations commonly used by the deep learning community: SGD, Adam, RMSprop, and Adagrad/Adadelta.  



فهرست مطالب

Brief Contents
Contents in Detail
Foreword
Acknowledgments
Introduction
	Who Is This Book For?
	About This Book
Chapter 1: Setting the Stage
	Installing the Toolkits
		Linux
		macOS
		Windows
	NumPy
		Defining Arrays
		Data Types
		2D Arrays
		Zeros and Ones
		Advanced Indexing
		Reading and Writing to Disk
	SciPy
	Matplotlib
	Scikit-Learn
	Summary
Chapter 2: Probability
	Basic Concepts
		Sample Space and Events
		Random Variables
		Humans Are Bad at Probability
	The Rules of Probability
		Probability of an Event
		Sum Rule
		Product Rule
		Sum Rule Revisited
		The Birthday Paradox
		Conditional Probability
		Total Probability
	Joint and Marginal Probability
		Joint Probability Tables
		Chain Rule for Probability
	Summary
Chapter 3: More Probability
	Probability Distributions
		Histograms and Probabilities
		Discrete Probability Distributions
		Continuous Probability Distributions
		Central Limit Theorem
		The Law of Large Numbers
	Bayes' Theorem
		Cancer or Not Redux
		Updating the Prior
		Bayes' Theorem in Machine Learning
	Summary
Chapter 4: Statistics
	Types of Data
		Nominal Data
		Ordinal Data
		Interval Data
		Ratio Data
		Using Nominal Data in Deep Learning
	Summary Statistics
		Means and Median
		Measures of Variation
	Quantiles and Box Plots
	Missing Data
	Correlation
		Pearson Correlation
		Spearman Correlation
	Hypothesis Testing
		Hypotheses
		The t-test
		The Mann-Whitney U Test
	Summary
Chapter 5: Linear Algebra
	Scalars, Vectors, Matrices, and Tensors
		Scalars
		Vectors
		Matrices
		Tensors
	Arithmetic with Tensors
		Array Operations
		Vector Operations
		Matrix Multiplication
		Kronecker Product
	Summary
Chapter 6: More Linear Algebra
	Square Matrices
		Why Square Matrices?
		Transpose, Trace, and Powers
		Special Square Matrices
		The Identity Matrix
		Determinants
		Inverses
		Symmetric, Orthogonal, and Unitary Matrices
		Definiteness of a Symmetric Matrix
	Eigenvectors and Eigenvalues
		Finding Eigenvalues and Eigenvectors
	Vector Norms and Distance Metrics
		L-Norms and Distance Metrics
		Covariance Matrices
		Mahalanobis Distance
		Kullback-Leibler Divergence
	Principal Component Analysis
	Singular Value Decomposition and Pseudoinverse
		SVD in Action
		Two Applications
	Summary
Chapter 7: Differential Calculus
	Slope
	Derivatives
		A Formal Definition
		Basic Rules
		Rules for Trigonometric Functions
		Rules for Exponentials and Logarithms
	Minima and Maxima of Functions
	Partial Derivatives
		Mixed Partial Derivatives
		The Chain Rule for Partial Derivatives
	Gradients
		Calculating the Gradient
		Visualizing the Gradient
	Summary
Chapter 8: Matrix Calculus
	The Formulas
		A Vector Function by a Scalar Argument
		A Scalar Function by a Vector Argument
		A Vector Function by a Vector
		A Matrix Function by a Scalar
		A Scalar Function by a Matrix
	The Identities
		A Scalar Function by a Vector
		A Vector Function by a Scalar
		A Vector Function by a Vector
		A Scalar Function by a Matrix
	Jacobians and Hessians
		Concerning Jacobians
		Concerning Hessians
	Some Examples of Matrix Calculus Derivatives
		Derivative of Element-Wise Operations
		Derivative of the Activation Function
	Summary
Chapter 9: Data Flow in Neural Networks
	Representing Data
		Traditional Neural Networks
		Deep Convolutional Networks
	Data Flow in Traditional Neural Networks
	Data Flow in Convolutional Neural Networks
		Convolution
		Convolutional Layers
		Pooling Layers
		Fully Connected Layers
		Data Flow Through a Convolutional Neural Network
	Summary
Chapter 10: Backpropagation
	What Is Backpropagation?
	Backpropagation by Hand
		Calculating the Partial Derivatives
		Translating into Python
		Training and Testing the Model
	Backpropagation for Fully Connected Networks
		Backpropagating the Error
		Calculating Partial Derivatives of the Weights and Biases
		A Python Implementation
		Using the Implementation
	Computational Graphs
	Summary
Chapter 11: Gradient Descent
	The Basic Idea
		Gradient Descent in One Dimension
		Gradient Descent in Two Dimensions
	Stochastic Gradient Descent
	Momentum
		What Is Momentum?
		Momentum in 1D
		Momentum in 2D
		Training Models with Momentum
		Nesterov Momentum
	Adaptive Gradient Descent
		RMSprop
		Adagrad and Adadelta
		Adam
		Some Thoughts About Optimizers
	Summary
	Epilogue
Appendix: Going Further
	Probability and Statistics
	Linear Algebra
	Calculus
	Deep Learning
Index




نظرات کاربران