ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Linear Algebra. Theory, Intuition, Code

دانلود کتاب جبر خطی. نظریه، شهود، کد

Linear Algebra. Theory, Intuition, Code

مشخصات کتاب

Linear Algebra. Theory, Intuition, Code

ویرایش: 1 
 
سری:  
ISBN (شابک) : 9789083136608 
ناشر:  
سال نشر: 2021 
تعداد صفحات: 581 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 5 مگابایت 

قیمت کتاب (تومان) : 42,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 26


در صورت تبدیل فایل کتاب Linear Algebra. Theory, Intuition, Code به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب جبر خطی. نظریه، شهود، کد نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب جبر خطی. نظریه، شهود، کد

جبر خطی شاید مهمترین شاخه ریاضیات برای علوم محاسباتی از جمله یادگیری ماشین، هوش مصنوعی، علم داده، آمار، شبیه سازی، گرافیک کامپیوتری، تجزیه و تحلیل چند متغیره، تجزیه ماتریس، پردازش سیگنال و غیره باشد. روش جبر خطی در ارائه شده است. کتاب‌های درسی سنتی با نحوه استفاده متخصصان از جبر خطی در رایانه برای حل برنامه‌های کاربردی دنیای واقعی در یادگیری ماشین، علم داده، آمار و پردازش سیگنال متفاوت است. به عنوان مثال، "معین" یک ماتریس برای نظریه جبر خطی مهم است، اما آیا واقعاً باید از تعیین کننده در کاربردهای عملی استفاده کرد؟ پاسخ ممکن است شما را شگفت زده کند! اگر به یادگیری مفاهیم ریاضی جبر خطی و تجزیه و تحلیل ماتریس علاقه دارید، اما همچنین می خواهید آن مفاهیم را در تجزیه و تحلیل داده ها در رایانه (به عنوان مثال، آمار یا پردازش سیگنال) به کار ببرید، پس این کتاب برای شما مناسب است. شما تمام مفاهیم ریاضی پیاده سازی شده در MATLAB و Python را مشاهده خواهید کرد. جنبه های منحصر به فرد این کتاب: - توضیحات واضح و قابل فهم مفاهیم و نظریه ها در جبر خطی. - چندین توضیح متمایز از یک ایده، که یک تکنیک اثبات شده برای یادگیری است. - تجسم با استفاده از نمودارها، که شهود هندسی جبر خطی را تقویت می کند. - پیاده سازی در متلب و پایتون. بیا، در دنیای واقعی، شما هرگز مسائل ریاضی را با دست حل نمی کنید! شما باید بدانید که چگونه ریاضی را در نرم افزار پیاده سازی کنید! - موضوعات مبتدی تا میانی، از جمله بردارها، ضرب ماتریس، پیش بینی حداقل مربعات، تجزیه ویژه، و تجزیه ارزش منفرد. - تمرکز قوی بر جنبه های کاربردی مدرن جبر خطی و تجزیه و تحلیل ماتریس. - توضیحات بصری بصری از قطر، مقادیر ویژه و بردارهای ویژه، و تجزیه ارزش منفرد. - کدهایی (MATLAB و Python) برای کمک به درک و به کارگیری مفاهیم جبر خطی در رایانه ارائه شده است. - ترکیبی از تمرینات حل شده با دست و چالش های کد پیشرفته تر. ریاضی ورزش تماشاچی نیست!


توضیحاتی درمورد کتاب به خارجی

Linear algebra is perhaps the most important branch of mathematics for computational sciences, including machine learning, AI, data science, statistics, simulations, computer graphics, multivariate analyses, matrix decompositions, signal processing, and so on.The way linear algebra is presented in traditional textbooks is different from how professionals use linear algebra in computers to solve real-world applications in machine learning, data science, statistics, and signal processing. For example, the "determinant" of a matrix is important for linear algebra theory, but should you actually use the determinant in practical applications? The answer may surprise you!If you are interested in learning the mathematical concepts linear algebra and matrix analysis, but also want to apply those concepts to data analyses on computers (e.g., statistics or signal processing), then this book is for you. You'll see all the math concepts implemented in MATLAB and in Python.Unique aspects of this book: - Clear and comprehensible explanations of concepts and theories in linear algebra. - Several distinct explanations of the same ideas, which is a proven technique for learning. - Visualization using graphs, which strengthens the geometric intuition of linear algebra. - Implementations in MATLAB and Python. Com'on, in the real world, you never solve math problems by hand! You need to know how to implement math in software! - Beginner to intermediate topics, including vectors, matrix multiplications, least-squares projections, eigendecomposition, and singular-value decomposition. - Strong focus on modern applications-oriented aspects of linear algebra and matrix analysis. - Intuitive visual explanations of diagonalization, eigenvalues and eigenvectors, and singular value decomposition. - Codes (MATLAB and Python) are provided to help you understand and apply linear algebra concepts on computers. - A combination of hand-solved exercises and more advanced code challenges. Math is not a spectator sport!



فهرست مطالب

Cover 1
0 Front Matter
	0.1 Front matter
	0.2 Dedication
	0.3 Forward
1 Introduction
	1.1 What is linear algebra and why learn it?
	1.2 About this book
	1.3 Prerequisites
	1.4 Exercises and code challenges
	1.5 Online and other resources
2 Vectors
	2.1 Scalars
	2.2 Vectors: geometry and algebra
	2.3 Transpose operation
	2.4 Vector addition and subtraction
	2.5 Vector-scalar multiplication
	2.6 Exercises
	2.7 Answers
	2.8 Code challenges
	2.9 Code solutions
3 Vector multiplication
	3.1 Vector dot product: Algebra
	3.2 Dot product properties
	3.3 Vector dot product: Geometry
	3.4 Algebra and geometry
	3.5 Linear weighted combination
	3.6 The outer product
	3.7 Hadamard multiplication
	3.8 Cross product
	3.9 Unit vectors
	3.10 Exercises
	3.11 Answers
	3.12 Code challenges
	3.13 Code solutions
4 Vector spaces
	4.1 Dimensions and fields
	4.2 Vector spaces
	4.3 Subspaces and ambient spaces
	4.4 Subsets
	4.5 Span
	4.6 Linear independence
	4.7 Basis
	4.8 Exercises
	4.9 Answers
5 Matrices
	5.1 Interpretations and uses of matrices
	5.2 Matrix terms and notation
	5.3 Matrix dimensionalities
	5.4 The transpose operation
	5.5 Matrix zoology
	5.6 Matrix addition and subtraction
	5.7 Scalar-matrix mult.
	5.8 "Shifting" a matrix
	5.9 Diagonal and trace
	5.10 Exercises
	5.11 Answers
	5.12 Code challenges
	5.13 Code solutions
6 Matrix multiplication
	6.1 "Standard" multiplication
	6.2 Multiplication and eqns.
	6.3 Multiplication with diagonals
	6.4 LIVE EVIL
	6.5 Matrix-vector multiplication
	6.6 Creating symmetric matrices
	6.7 Multiply symmetric matrices
	6.8 Hadamard multiplication
	6.9 Frobenius dot product
	6.10 Matrix norms
	6.11 What about matrix division?
	6.12 Exercises
	6.13 Answers
	6.14 Code challenges
	6.15 Code solutions
7 Rank
	7.1 Six things about matrix rank
	7.2 Interpretations of matrix rank
	7.3 Computing matrix rank
	7.4 Rank and scalar multiplication
	7.5 Rank of added matrices
	7.6 Rank of multiplied matrices
	7.7 Rank of A, AT, ATA, and AAT
	7.8 Rank of random matrices
	7.9 Boosting rank by "shifting"
	7.10 Rank difficulties
	7.11 Rank and span
	7.12 Exercises
	7.13 Answers
	7.14 Code challenges
	7.15 Code solutions
8 Matrix spaces
	8.1 Column space of a matrix
	8.2 Column space: A and AAT
	8.3 Determining whether v ∈ C(A)
	8.4 Row space of a matrix
	8.5 Row spaces of A and ATA
	8.6 Null space of a matrix
	8.7 Geometry of the null space
	8.8 Orthogonal subspaces
	8.9 Matrix space orthogonalities
	8.10 Dimensionalities of matrix spaces
	8.11 More on Ax = b and Ay = 0
	8.12 Exercises
	8.13 Answers
	8.14 Code challenges
	8.15 Code solutions
9 Complex numbers 239
	9.1 Complex numbers and C
	9.2 What are complex numbers?
	9.3 The complex conjugate
	9.4 Complex arithmetic
	9.5 Complex dot product
	9.6 Special complex matrices
	9.7 Exercises
	9.8 Answers
	9.9 Code challenges
	9.10 Code solutions
10 Systems of equations
	10.1 Algebra and geometry of eqns.
	10.2 From systems to matrices
	10.3 Row reduction
	10.4 Gaussian elimination
	10.5 Row-reduced echelon form
	10.6 Gauss-Jordan elimination
	10.7 Possibilities for solutions
	10.8 Matrix spaces, row reduction
	10.9 Exercises
	10.10 Answers
	10.11 Coding challenges
	10.12 Code solutions
11 Determinant
	11.1 Features of determinants
	11.2 Determinant of a 2×2 matrix
	11.3 The characteristic polynomial
	11.4 3×3 matrix determinant
	11.5 The full procedure
	11.6 ∆ of triangles
	11.7 Determinant and row reduction
	11.8 ∆ and scalar multiplication
	11.9 Theory vs practice
	11.10 Exercises
	11.11 Answers
	11.12 Code challenges
	11.13 Code solutions
12 Matrix inverse
	12.1 Concepts and applications
	12.2 Inverse of a diagonal matrix
	12.3 Inverse of a 2×2 matrix
	12.4 The MCA algorithm
	12.5 Inverse via row reduction
	12.6 Left inverse
	12.7 Right inverse
	12.8 The pseudoinverse, part 1
	12.9 Exercises
	12.10 Answers
	12.11 Code challenges
	12.12 Code solutions
13 Projections
	13.1 Projections in R2
	13.2 Projections in RN
	13.3 Orth and par vect comps
	13.4 Orthogonal matrices
	13.5 Orthogonalization via GS
	13.6 QR decomposition
	13.7 Inverse via QR
	13.8 Exercises
	13.9 Answers
	13.10 Code challenges
	13.11 Code solutions
14 Least-squares
	14.1 Introduction
	14.2 5 steps of model-fitting
	14.3 Terminology
	14.4 Least-squares via left inverse
	14.5 Least-squares via projection
	14.6 Least-squares via row-reduction
	14.7 Predictions and residuals
	14.8 Least-squares example
	14.9 Code challenges
	14.10 Code solutions
15 Eigendecomposition
	15.1 Eigenwhatnow?
	15.2 Finding eigenvalues 421
	15.3 Finding eigenvectors
	15.4 Diagonalization
	15.5 Conditions for diagonalization
	15.6 Distinct, repeated eigenvalues
	15.7 Complex solutions
	15.8 Symmetric matrices
	15.9 Eigenvalues singular matrices
	15.10 Eigenlayers of a matrix
	15.11 Matrix powers and inverse
	15.12 Generalized eigendecomposition
	15.13 Exercises
	15.14 Answers
	15.15 Code challenges
	15.16 Code solutions
16 The SVD
	16.1 Singular value decomposition
	16.2 Computing the SVD
	16.3 Singular values and eigenvalues
	16.4 SVD of a symmetric matrix
	16.5 SVD and the four subspaces
	16.6 SVD and matrix rank
	16.7 SVD spectral theory
	16.8 Low-rank approximations
	16.9 Normalizing singular values
	16.10 Condition number of a matrix
	16.11 SVD and the matrix inverse
	16.12 MP Pseudoinverse, part 2
	16.13 Code challenges
	16.14 Code solutions
17 Quadratic form
	17.1 Algebraic perspective
	17.2 Geometric perspective
	17.3 The normalized quadratic form
	17.4 Evecs and the qf surface
	17.5 Matrix definiteness
	17.6 The definiteness of ATA
	17.7 λ and definiteness
	17.8 Code challenges
	17.9 Code solutions
18 Covariance matrices
	18.1 Correlation
	18.2 Variance and standard deviation
	18.3 Covariance
	18.4 Correlation coefficient
	18.5 Covariance matrices
	18.6 Correlation to covariance
	18.7 Code challenges
	18.8 Code solutions
19 PCA
	19.1 PCA: interps and apps
	19.2 How to perform a PCA
	19.3 The algebra of PCA
	19.4 Regularization
	19.5 Is PCA always the best?
	19.6 Code challenges
	19.7 Code solutions
20 The end.
	20.1 The end... of the beginning!
	20.2 Thanks!
Index




نظرات کاربران