ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Practical Deep Learning: A Python-Based Introduction

دانلود کتاب یادگیری عمیق عملی: مقدمه ای مبتنی بر پایتون

Practical Deep Learning: A Python-Based Introduction

مشخصات کتاب

Practical Deep Learning: A Python-Based Introduction

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9781718500747, 2020035098 
ناشر: No Starch Press 
سال نشر: 2021 
تعداد صفحات: 0 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 7 مگابایت 

قیمت کتاب (تومان) : 53,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 13


در صورت تبدیل فایل کتاب Practical Deep Learning: A Python-Based Introduction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری عمیق عملی: مقدمه ای مبتنی بر پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری عمیق عملی: مقدمه ای مبتنی بر پایتون

یادگیری عمیق عملی به افراد مبتدی می آموزد که چگونه مجموعه داده ها و مدل های مورد نیاز برای آموزش شبکه های عصبی برای پروژه های DL خود را بسازند. اگر در مورد یادگیری ماشین کنجکاو بودید اما نمی دانستید از کجا شروع کنید، این کتابی است که منتظرش بودید. با تمرکز بر حوزه فرعی یادگیری ماشینی که به عنوان یادگیری عمیق شناخته می شود، مفاهیم اصلی را توضیح می دهد و پایه و اساس لازم برای شروع ساخت مدل های خود را در اختیار شما قرار می دهد. یادگیری عمیق عملی به‌جای تشریح دستور العمل‌هایی برای استفاده از جعبه‌ابزارهای موجود، دلیل یادگیری عمیق را به شما می‌آموزد و به شما انگیزه می‌دهد تا بیشتر کاوش کنید. تنها چیزی که نیاز دارید آشنایی اولیه با برنامه نویسی کامپیوتر و ریاضی دبیرستان است—کتاب بقیه موارد را پوشش خواهد داد. پس از مقدمه‌ای بر پایتون، موضوعات کلیدی مانند نحوه ایجاد یک مجموعه داده آموزشی خوب، کار با کتابخانه‌های scikit-learn و Keras و ارزیابی عملکرد مدل‌های خود را مرور خواهید کرد. همچنین می‌آموزید: چگونه از مدل‌های یادگیری ماشین کلاسیک مانند k-نزدیک‌ترین همسایه‌ها، جنگل‌های تصادفی، و ماشین‌های بردار پشتیبان استفاده کنیم چگونه شبکه‌های عصبی کار می‌کنند و چگونه آموزش می‌بینند چگونه از شبکه‌های عصبی کانولوشنال استفاده کنیم چگونه یک مدل یادگیری عمیق موفق ایجاد کنیم. از ابتدا آزمایش‌هایی را در طول مسیر انجام خواهید داد و به مطالعه موردی نهایی خواهید رسید که همه چیزهایی را که آموخته‌اید ترکیب می‌کند. مقدمه ای عالی برای این حوزه پویا و همیشه در حال گسترش، یادگیری عمیق عملی به شما مهارت و اعتماد به نفس می دهد تا در پروژه های یادگیری ماشینی خود فرو بروید.


توضیحاتی درمورد کتاب به خارجی

Practical Deep Learning teaches total beginners how to build the datasets and models needed to train neural networks for your own DL projects. If you’ve been curious about machine learning but didn’t know where to start, this is the book you’ve been waiting for. Focusing on the subfield of machine learning known as deep learning, it explains core concepts and gives you the foundation you need to start building your own models. Rather than simply outlining recipes for using existing toolkits, Practical Deep Learning teaches you the why of deep learning and will inspire you to explore further. All you need is basic familiarity with computer programming and high school math—the book will cover the rest. After an introduction to Python, you’ll move through key topics like how to build a good training dataset, work with the scikit-learn and Keras libraries, and evaluate your models’ performance. You’ll also learn: How to use classic machine learning models like k-Nearest Neighbors, Random Forests, and Support Vector Machines How neural networks work and how they’re trained How to use convolutional neural networks How to develop a successful deep learning model from scratch You’ll conduct experiments along the way, building to a final case study that incorporates everything you’ve learned. The perfect introduction to this dynamic, ever-expanding field, Practical Deep Learning will give you the skills and confidence to dive into your own machine learning projects.



فهرست مطالب

Brief Contents
Contents in Detail
Foreword
Acknowledgments
Introduction
	Who Is This Book For?
	What Can You Expect to Learn?
	About This Book
Chapter 1: Getting Started
	The Operating Environment
		NumPy
		scikit-learn
		Keras with TensorFlow
	Installing the Toolkits
	Basic Linear Algebra
		Vectors
		Matrices
		Multiplying Vectors and Matrices
	Statistics and Probability
		Descriptive Statistics
		Probability Distributions
		Statistical Tests
	Graphics Processing Units
	Summary
Chapter 2: Using Python
	The Python Interpreter
	Statements and Whitespace
	Variables and Basic Data Structures
		Representing Numbers
		Variables
		Strings
		Lists
		Dictionaries
	Control Structures
		if-elif-else Statements
		for Loops
		while Loops
		break and continue Statements
		with Statement
		Handling Errors with try-except Blocks
	Functions
	Modules
	Summary
Chapter 3: Using NumPy
	Why NumPy?
		Arrays vs. Lists
		Testing Array and List Speed
	Basic Arrays
		Defining an Array with np.array
		Defining Arrays with 0s and 1s
	Accessing Elements in an Array
		Indexing into an Array
		Slicing an Array
		The Ellipsis
	Operators and Broadcasting
	Array Input and Output
	Random Numbers
	NumPy and Images
	Summary
Chapter 4: Working with Data
	Classes and Labels
	Features and Feature Vectors
		Types of Features
		Feature Selection and the Curse of Dimensionality
	Features of a Good Dataset
		Interpolation and Extrapolation
		The Parent Distribution
		Prior Class Probabilities
		Confusers
		Dataset Size
	Data Preparation
		Scaling Features
		Missing Features
	Training, Validation, and Test Data
		The Three Subsets
		Partitioning the Dataset
		k-Fold Cross Validation
	Look at Your Data
		Searching for Problems in the Data
		Cautionary Tales
	Summary
Chapter 5: Building Datasets
	Irises
	Breast Cancer
	MNIST Digits
	CIFAR-10
	Data Augmentation
		Why Should You Augment Training Data?
		Ways to Augment Training Data
		Augmenting the Iris Dataset
		Augmenting the CIFAR-10 Dataset
	Summary
Chapter 6: Classical Machine Learning
	Nearest Centroid
	k-Nearest Neighbors
	Naïve Bayes
	Decision Trees and Random Forests
		Recursion Primer
		Building Decision Trees
		Random Forests
	Support Vector Machines
		Margins
		Support Vectors
		Optimization
		Kernels
	Summary
Chapter 7: Experiments with Classical Models
	Experiments with the Iris Dataset
		Testing the Classical Models
		Implementing a Nearest Centroid Classifier
	Experiments with the Breast Cancer Dataset
		Two Initial Test Runs
		The Effect of Random Splits
		Adding k-fold Validation
		Searching for Hyperparameters
	Experiments with the MNIST Dataset
		Testing the Classical Models
		Analyzing Runtimes
		Experimenting with PCA Components
		Scrambling Our Dataset
	Classical Model Summary
		Nearest Centroid
		k-Nearest Neighbors
		Naïve Bayes
		Decision Trees
		Random Forests
		Support Vector Machines
	When to Use Classical Models
		Handling Small Datasets
		Dealing with Reduced Computational Requirements
		Having Explainable Models
		Working with Vector Inputs
	Summary
Chapter 8: Introduction to Neural Networks
	Anatomy of a Neural Network
		The Neuron
		Activation Functions
		Architecture of a Network
		Output Layers
		Representing Weights and Biases
	Implementing a Simple Neural Network
		Building the Dataset
		Implementing the Neural Network
		Training and Testing the Neural Network
	Summary
Chapter 9: Training a Neural Network
	A High-Level Overview
	Gradient Descent
		Finding Minimums
		Updating the Weights
	Stochastic Gradient Descent
		Batches and Minibatches
		Convex vs. Nonconvex Functions
		Ending Training
		Updating the Learning Rate
		Momentum
	Backpropagation
		Backprop, Take 1
		Backprop, Take 2
	Loss Functions
		Absolute and Mean Squared Error Loss
		Cross-Entropy Loss
	Weight Initialization
	Overfitting and Regularization
		Understanding Overfitting
		Understanding Regularization
		L2 Regularization
		Dropout
	Summary
Chapter 10: Experiments with Neural Networks
	Our Dataset
	The MLPClassifier Class
	Architecture and Activation Functions
		The Code
		The Results
	Batch Size
	Base Learning Rate
	Training Set Size
	L2 Regularization
	Momentum
	Weight Initialization
	Feature Ordering
	Summary
Chapter 11: Evaluating Models
	Definitions and Assumptions
	Why Accuracy Is Not Enough
	The 2 x 2 Confusion Matrix
	Metrics Derived from the 2 x 2 Confusion Matrix
		Deriving Metrics from the 2 x 2 Table
		Using Our Metrics to Interpret Models
	More Advanced Metrics
		Informedness and Markedness
		F1 Score
		Cohen\'s Kappa
		Matthews Correlation Coefficient
		Implementing Our Metrics
	The Receiver Operating Characteristics Curve
		Gathering Our Models
		Plotting Our Metrics
		Exploring the ROC Curve
		Comparing Models with ROC Analysis
		Generating an ROC Curve
		The Precision–Recall Curve
	Handling Multiple Classes
		Extending the Confusion Matrix
		Calculating Weighted Accuracy
		Multiclass Matthews Correlation Coefficient
	Summary
Chapter 12: Introduction to Convolutional Neural Networks
	Why Convolutional Neural Networks?
	Convolution
		Scanning with the Kernel
		Convolution for Image Processing
	Anatomy of a Convolutional Neural Network
		Different Types of Layers
		Passing Data Through the CNN
	Convolutional Layers
		How a Convolution Layer Works
		Using a Convolutional Layer
		Multiple Convolutional Layers
		Initializing a Convolutional Layer
	Pooling Layers
	Fully Connected Layers
	Fully Convolutional Layers
	Step by Step
	Summary
Chapter 13: Experiments with Keras and MNIST
	Building CNNs in Keras
		Loading the MNIST Data
		Building Our Model
		Training and Evaluating the Model
		Plotting the Error
	Basic Experiments
		Architecture Experiments
		Training Set Size, Minibatches, and Epochs
		Optimizers
	Fully Convolutional Networks
		Building and Training the Model
		Making the Test Images
		Testing the Model
	Scrambled MNIST Digits
	Summary
Chapter 14: Experiments with CIFAR-10
	A CIFAR-10 Refresher
	Working with the Full CIFAR-10 Dataset
		Building the Models
		Analyzing the Models
	Animal or Vehicle?
	Binary or Multiclass?
	Transfer Learning
	Fine-Tuning a Model
		Building Our Datasets
		Adapting Our Model for Fine-Tuning
		Testing Our Model
	Summary
Chapter 15: A Case Study: Classifying Audio Samples
	Building the Dataset
		Augmenting the Dataset
		Preprocessing Our Data
	Classifying the Audio Features
		Using Classical Models
		Using a Traditional Neural Network
		Using a Convolutional Neural Network
	Spectrograms
	Classifying Spectrograms
		Initialization, Regularization, and Batch Normalization
		Examining the Confusion Matrix
	Ensembles
	Summary
Chapter 16: Going Further
	Going Further with CNNs
	Reinforcement Learning and Unsupervised Learning
	Generative Adversarial Networks
	Recurrent Neural Networks
	Online Resources
	Conferences
	The Book
	So Long and Thanks for All the Fish
Index




نظرات کاربران