ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Machine Learning With Python For Everyone

دانلود کتاب آموزش ماشین با پایتون برای همه

Machine Learning With Python For Everyone

مشخصات کتاب

Machine Learning With Python For Everyone

دسته بندی: سایبرنتیک: هوش مصنوعی
ویرایش: 1 
نویسندگان:   
سری: Addison Wesley Data & Analytics Series 
ISBN (شابک) : 0134845684, 9780134845623 
ناشر: Addison-Wesley Professional/Pearson education 
سال نشر: 2020 
تعداد صفحات: 588 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 9 مگابایت 

قیمت کتاب (تومان) : 57,000



کلمات کلیدی مربوط به کتاب آموزش ماشین با پایتون برای همه: یادگیری ماشینی، پایتون (زبان برنامه نویسی)



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Machine Learning With Python For Everyone به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب آموزش ماشین با پایتون برای همه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب آموزش ماشین با پایتون برای همه

راهنمای کامل مبتدیان برای درک و ساختن سیستم‌های یادگیری ماشین با یادگیری ماشین پایتون با پایتون برای همه به شما کمک می‌کند تا بر فرآیندها، الگوها و استراتژی‌هایی که برای ساختن سیستم‌های یادگیری مؤثر نیاز دارید، تسلط پیدا کنید، حتی اگر مبتدی مطلق باشید. اگر می توانید مقداری کد پایتون بنویسید، این کتاب برای شما مناسب است، مهم نیست که چقدر ریاضیات سطح دانشگاهی کمی می دانید. مربی اصلی Mark E. Fenner برای انتقال ایده‌های یادگیری ماشینی به داستان‌ها، تصاویر و نمونه‌های پایتون ساده انگلیسی تکیه می‌کند. مارک با بحث در مورد یادگیری ماشین و کارهایی که می تواند انجام دهد شروع می کند. معرفی موضوعات کلیدی ریاضی و محاسباتی به روشی قابل دسترس؛ و شما را در مراحل اولیه ساخت، آموزش و ارزیابی سیستم های یادگیری راهنمایی می کند. گام به گام، اجزای یک سیستم یادگیری عملی را تکمیل می‌کنید، جعبه ابزار خود را گسترش می‌دهید و برخی از پیچیده‌ترین و هیجان‌انگیزترین تکنیک‌های این حوزه را کشف می‌کنید. چه دانش آموز، تحلیلگر، دانشمند یا علاقه مند باشید، بینش این راهنما برای هر سیستم آموزشی که تا به حال ساخته یا استفاده می کنید قابل اجرا خواهد بود. درک الگوریتم‌ها، مدل‌ها و مفاهیم اصلی یادگیری ماشینی طبقه‌بندی مثال‌ها با طبقه‌بندی‌کننده‌ها و کمی کردن مثال‌ها با پس‌گرها ارزیابی واقعی عملکرد سیستم‌های یادگیری ماشین از مهندسی ویژگی برای صاف کردن داده‌های ناهموار به اشکال مفید استفاده کنید چندین مؤلفه را در یک سیستم زنجیره بزنید و عملکرد آن را تنظیم کنید. تکنیک‌های یادگیری ماشینی به تصاویر و متن مفاهیم اصلی را به شبکه‌های عصبی و مدل‌های گرافیکی وصل کنید از کتابخانه یادگیری اسکییت پایتون و سایر ابزارهای قدرتمند استفاده کنید، کتاب خود را برای دسترسی راحت به دانلودها، به‌روزرسانی‌ها و/یا اصلاحات در صورت در دسترس بودن ثبت کنید. برای جزئیات به داخل کتاب مراجعه کنید.


توضیحاتی درمورد کتاب به خارجی

The Complete Beginner’s Guide to Understanding and Building Machine Learning Systems with Python Machine Learning with Python for Everyone will help you master the processes, patterns, and strategies you need to build effective learning systems, even if you’re an absolute beginner. If you can write some Python code, this book is for you, no matter how little college-level math you know. Principal instructor Mark E. Fenner relies on plain-English stories, pictures, and Python examples to communicate the ideas of machine learning. Mark begins by discussing machine learning and what it can do; introducing key mathematical and computational topics in an approachable manner; and walking you through the first steps in building, training, and evaluating learning systems. Step by step, you’ll fill out the components of a practical learning system, broaden your toolbox, and explore some of the field’s most sophisticated and exciting techniques. Whether you’re a student, analyst, scientist, or hobbyist, this guide’s insights will be applicable to every learning system you ever build or use. Understand machine learning algorithms, models, and core machine learning concepts Classify examples with classifiers, and quantify examples with regressors Realistically assess performance of machine learning systems Use feature engineering to smooth rough data into useful forms Chain multiple components into one system and tune its performance Apply machine learning techniques to images and text Connect the core concepts to neural networks and graphical models Leverage the Python scikit-learn library and other powerful tools Register your book for convenient access to downloads, updates, and/or corrections as they become available. See inside book for details.



فهرست مطالب

Cover
Title Page
Copyright Page
Contents
Foreword
Preface
About the Author
Part I: First Steps
	1 Let’s Discuss Learning
		1.1 Welcome
		1.2 Scope, Terminology, Prediction, and Data
			1.2.1 Features
			1.2.2 Target Values and Predictions
		1.3 Putting the Machine in Machine Learning
		1.4 Examples of Learning Systems
			1.4.1 Predicting Categories: Examples of Classifiers
			1.4.2 Predicting Values: Examples of Regressors
		1.5 Evaluating Learning Systems
			1.5.1 Correctness
			1.5.2 Resource Consumption
		1.6 A Process for Building Learning Systems
		1.7 Assumptions and Reality of Learning
		1.8 End-of-Chapter Material
			1.8.1 The Road Ahead
			1.8.2 Notes
	2 Some Technical Background
		2.1 About Our Setup
		2.2 The Need for Mathematical Language
		2.3 Our Software for Tackling Machine Learning
		2.4 Probability
			2.4.1 Primitive Events
			2.4.2 Independence
			2.4.3 Conditional Probability
			2.4.4 Distributions
		2.5 Linear Combinations, Weighted Sums, and Dot Products
			2.5.1 Weighted Average
			2.5.2 Sums of Squares
			2.5.3 Sum of Squared Errors
		2.6 A Geometric View: Points in Space
			2.6.1 Lines
			2.6.2 Beyond Lines
		2.7 Notation and the Plus-One Trick
		2.8 Getting Groovy, Breaking the Straight-Jacket, and Nonlinearity
		2.9 NumPy versus “All the Maths”
			2.9.1 Back to 1D versus 2D
		2.10 Floating-Point Issues
		2.11 EOC 53
			2.11.1 Summary
			2.11.2 Notes
	3 Predicting Categories: Getting Started with Classification
		3.1 Classification Tasks
		3.2 A Simple Classification Dataset
		3.3 Training and Testing: Don’t Teach to the Test
		3.4 Evaluation: Grading the Exam
		3.5 Simple Classifier #1: Nearest Neighbors, Long Distance Relationships, and Assumptions
			3.5.1 Defining Similarity
			3.5.2 The k in k-NN
			3.5.3 Answer Combination
			3.5.4 k-NN, Parameters, and Nonparametric Methods
			3.5.5 Building a k-NN Classification Model
		3.6 Simple Classifier #2: Naive Bayes, Probability, and Broken Promises
		3.7 Simplistic Evaluation of Classifiers
			3.7.1 Learning Performance
			3.7.2 Resource Utilization in Classification
			3.7.3 Stand-Alone Resource Evaluation
		3.8 EOC
			3.8.1 Sophomore Warning: Limitations and Open Issues
			3.8.2 Summary
			3.8.3 Notes
			3.8.4 Exercises
	4 Predicting Numerical Values: Getting Started with Regression
		4.1 A Simple Regression Dataset
		4.2 Nearest-Neighbors Regression and Summary Statistics
			4.2.1 Measures of Center: Median and Mean
			4.2.2 Building a k-NN Regression Model
		4.3 Linear Regression and Errors
			4.3.1 No Flat Earth: Why We Need Slope
			4.3.2 Tilting the Field
			4.3.3 Performing Linear Regression
		4.4 Optimization: Picking the Best Answer
			4.4.1 Random Guess
			4.4.2 Random Step
			4.4.3 Smart Step
			4.4.4 Calculated Shortcuts
			4.4.5 Application to Linear Regression
		4.5 Simple Evaluation and Comparison of Regressors
			4.5.1 Root Mean Squared Error
			4.5.2 Learning Performance
			4.5.3 Resource Utilization in Regression
		4.6 EOC
			4.6.1 Limitations and Open Issues
			4.6.2 Summary
			4.6.3 Notes
			4.6.4 Exercises
Part II: Evaluation
	5 Evaluating and Comparing Learners
		5.1 Evaluation and Why Less Is More
		5.2 Terminology for Learning Phases
			5.2.1 Back to the Machines
			5.2.2 More Technically Speaking . . .
		5.3 Major Tom, There’s Something Wrong: Overfitting and Underfitting
			5.3.1 Synthetic Data and Linear Regression
			5.3.2 Manually Manipulating Model Complexity
			5.3.3 Goldilocks: Visualizing Overfitting, Underfitting, and “Just Right”
			5.3.4 Simplicity
			5.3.5 Take-Home Notes on Overfitting
		5.4 From Errors to Costs
			5.4.1 Loss
			5.4.2 Cost
			5.4.3 Score
		5.5 (Re)Sampling: Making More from Less
			5.5.1 Cross-Validation
			5.5.2 Stratification
			5.5.3 Repeated Train-Test Splits
			5.5.4 A Better Way and Shuffling
			5.5.5 Leave-One-Out Cross-Validation
		5.6 Break-It-Down: Deconstructing Error into Bias and Variance
			5.6.1 Variance of the Data
			5.6.2 Variance of the Model
			5.6.3 Bias of the Model
			5.6.4 All Together Now
			5.6.5 Examples of Bias-Variance Tradeoffs
		5.7 Graphical Evaluation and Comparison
			5.7.1 Learning Curves: How Much Data Do We Need?
			5.7.2 Complexity Curves
		5.8 Comparing Learners with Cross-Validation
		5.9 EOC
			5.9.1 Summary
			5.9.2 Notes
			5.9.3 Exercises
	6 Evaluating Classifiers
		6.1 Baseline Classifiers
		6.2 Beyond Accuracy: Metrics for Classification
			6.2.1 Eliminating Confusion from the Confusion Matrix
			6.2.2 Ways of Being Wrong
			6.2.3 Metrics from the Confusion Matrix
			6.2.4 Coding the Confusion Matrix
			6.2.5 Dealing with Multiple Classes: Multiclass Averaging
			6.2.6 F1
		6.3 ROC Curves
			6.3.1 Patterns in the ROC
			6.3.2 Binary ROC
			6.3.3 AUC: Area-Under-the-(ROC)-Curve
			6.3.4 Multiclass Learners, One-versus-Rest, and ROC
		6.4 Another Take on Multiclass: One-versus-One
			6.4.1 Multiclass AUC Part Two: The Quest for a Single Value
		6.5 Precision-Recall Curves
			6.5.1 A Note on Precision-Recall Tradeoff
			6.5.2 Constructing a Precision-Recall Curve
		6.6 Cumulative Response and Lift Curves
		6.7 More Sophisticated Evaluation of Classifiers: Take Two
			6.7.1 Binary
			6.7.2 A Novel Multiclass Problem
		6.8 EOC
			6.8.1 Summary
			6.8.2 Notes
			6.8.3 Exercises
	7 Evaluating Regressors
		7.1 Baseline Regressors
		7.2 Additional Measures for Regression
			7.2.1 Creating Our Own Evaluation Metric
			7.2.2 Other Built-in Regression Metrics
			7.2.3 R2
		7.3 Residual Plots
			7.3.1 Error Plots
			7.3.2 Residual Plots
		7.4 A First Look at Standardization
		7.5 Evaluating Regressors in a More Sophisticated Way: Take Two
			7.5.1 Cross-Validated Results on Multiple Metrics
			7.5.2 Summarizing Cross-Validated Results
			7.5.3 Residuals
		7.6 EOC
			7.6.1 Summary
			7.6.2 Notes
			7.6.3 Exercises
Part III: More Methods and Fundamentals
	8 More Classification Methods
		8.1 Revisiting Classification
		8.2 Decision Trees
			8.2.1 Tree-Building Algorithms
			8.2.2 Let’s Go: Decision Tree Time
			8.2.3 Bias and Variance in Decision Trees
		8.3 Support Vector Classifiers
			8.3.1 Performing SVC
			8.3.2 Bias and Variance in SVCs
		8.4 Logistic Regression
			8.4.1 Betting Odds
			8.4.2 Probabilities, Odds, and Log-Odds
			8.4.3 Just Do It: Logistic Regression Edition
			8.4.4 A Logistic Regression: A Space Oddity
		8.5 Discriminant Analysis
			8.5.1 Covariance
			8.5.2 The Methods
			8.5.3 Performing DA
		8.6 Assumptions, Biases, and Classifiers
		8.7 Comparison of Classifiers: Take Three
			8.7.1 Digits
		8.8 EOC
			8.8.1 Summary
			8.8.2 Notes
			8.8.3 Exercises
	9 More Regression Methods
		9.1 Linear Regression in the Penalty Box: Regularization
			9.1.1 Performing Regularized Regression
		9.2 Support Vector Regression
			9.2.1 Hinge Loss
			9.2.2 From Linear Regression to Regularized Regression to Support Vector Regression
			9.2.3 Just Do It — SVR Style
		9.3 Piecewise Constant Regression
			9.3.1 Implementing a Piecewise Constant Regressor
			9.3.2 General Notes on Implementing Models
		9.4 Regression Trees
			9.4.1 Performing Regression with Trees
		9.5 Comparison of Regressors: Take Three
		9.6 EOC
			9.6.1 Summary
			9.6.2 Notes
			9.6.3 Exercises
	10 Manual Feature Engineering: Manipulating Data for Fun and Profit
		10.1 Feature Engineering Terminology and Motivation
			10.1.1 Why Engineer Features?
			10.1.2 When Does Engineering Happen?
			10.1.3 How Does Feature Engineering Occur?
		10.2 Feature Selection and Data Reduction: Taking out the Trash
		10.3 Feature Scaling
		10.4 Discretization
		10.5 Categorical Coding
			10.5.1 Another Way to Code and the Curious Case of the Missing Intercept
		10.6 Relationships and Interactions
			10.6.1 Manual Feature Construction
			10.6.2 Interactions
			10.6.3 Adding Features with Transformers
		10.7 Target Manipulations
			10.7.1 Manipulating the Input Space
			10.7.2 Manipulating the Target
		10.8 EOC
			10.8.1 Summary
			10.8.2 Notes
			10.8.3 Exercises
	11 Tuning Hyperparameters and Pipelines
		11.1 Models, Parameters, Hyperparameters
		11.2 Tuning Hyperparameters
			11.2.1 A Note on Computer Science and Learning Terminology
			11.2.2 An Example of Complete Search
			11.2.3 Using Randomness to Search for a Needle in a Haystack
		11.3 Down the Recursive Rabbit Hole: Nested Cross-Validation
			11.3.1 Cross-Validation, Redux
			11.3.2 GridSearch as a Model
			11.3.3 Cross-Validation Nested within Cross-Validation
			11.3.4 Comments on Nested CV
		11.4 Pipelines
			11.4.1 A Simple Pipeline
			11.4.2 A More Complex Pipeline
		11.5 Pipelines and Tuning Together
		11.6 EOC
			11.6.1 Summary
			11.6.2 Notes
			11.6.3 Exercises
Part IV: Adding Complexity
	12 Combining Learners
		12.1 Ensembles
		12.2 Voting Ensembles
		12.3 Bagging and Random Forests
			12.3.1 Bootstrapping
			12.3.2 From Bootstrapping to Bagging
			12.3.3 Through the Random Forest
		12.4 Boosting
			12.4.1 Boosting Details
		12.5 Comparing the Tree-Ensemble Methods
		12.6 EOC
			12.6.1 Summary
			12.6.2 Notes
			12.6.3 Exercises
	13 Models That Engineer Features for Us
		13.1 Feature Selection
			13.1.1 Single-Step Filtering with Metric-Based Feature Selection
			13.1.2 Model-Based Feature Selection
			13.1.3 Integrating Feature Selection with a Learning Pipeline
		13.2 Feature Construction with Kernels
			13.2.1 A Kernel Motivator
			13.2.2 Manual Kernel Methods
			13.2.3 Kernel Methods and Kernel Options
			13.2.4 Kernelized SVCs: SVMs
			13.2.5 Take-Home Notes on SVM and an Example
		13.3 Principal Components Analysis: An Unsupervised Technique
			13.3.1 A Warm Up: Centering
			13.3.2 Finding a Different Best Line
			13.3.3 A First PCA
			13.3.4 Under the Hood of PCA
			13.3.5 A Finale: Comments on General PCA
			13.3.6 Kernel PCA and Manifold Methods
		13.4 EOC
			13.4.1 Summary
			13.4.2 Notes
			13.4.3 Exercises
	14 Feature Engineering for Domains: Domain-Specific Learning
		14.1 Working with Text
			14.1.1 Encoding Text
			14.1.2 Example of Text Learning
		14.2 Clustering
			14.2.1 k-Means Clustering
		14.3 Working with Images
			14.3.1 Bag of Visual Words
			14.3.2 Our Image Data
			14.3.3 An End-to-End System
			14.3.4 Complete Code of BoVW Transformer
		14.4 EOC
			14.4.1 Summary
			14.4.2 Notes
			14.4.3 Exercises
	15 Connections, Extensions, and Further Directions
		15.1 Optimization
		15.2 Linear Regression from Raw Materials
			15.2.1 A Graphical View of Linear Regression
		15.3 Building Logistic Regression from Raw Materials
			15.3.1 Logistic Regression with Zero-One Coding
			15.3.2 Logistic Regression with Plus-One Minus-One Coding
			15.3.3 A Graphical View of Logistic Regression
		15.4 SVM from Raw Materials
		15.5 Neural Networks
			15.5.1 A NN View of Linear Regression
			15.5.2 A NN View of Logistic Regression
			15.5.3 Beyond Basic Neural Networks
		15.6 Probabilistic Graphical Models
			15.6.1 Sampling
			15.6.2 A PGM View of Linear Regression
			15.6.3 A PGM View of Logistic Regression
		15.7 EOC
			15.7.1 Summary
			15.7.2 Notes
			15.7.3 Exercises
Appendix A: mlwpy.py Listing
Index
	A
	B
	C
	D
	E
	F
	G
	I
	H
	J
	K
	L
	M
	N
	P
	O
	Q
	R
	S
	T
	U
	V
	W
	X
	Y
	Z




نظرات کاربران