ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Machine Learning with TensorFlow

دانلود کتاب یادگیری ماشین با TensorFlow

Machine Learning with TensorFlow

مشخصات کتاب

Machine Learning with TensorFlow

ویرایش: 2 
نویسندگان:   
سری:  
ISBN (شابک) : 9781617297717 
ناشر: Manning Publications Co. 
سال نشر: 2021 
تعداد صفحات: 0 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 15 مگابایت 

قیمت کتاب (تومان) : 36,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Machine Learning with TensorFlow به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری ماشین با TensorFlow نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری ماشین با TensorFlow

با کدهای جدید، پروژه‌های جدید و فصل‌های جدید، یادگیری ماشینی با TensorFlow، نسخه دوم به خوانندگان پایه محکمی در مفاهیم یادگیری ماشین و کتابخانه TensorFlow می‌دهد. خلاصه که با کدهای جدید، پروژه‌های جدید و فصل‌های جدید به‌روزرسانی شده است، یادگیری ماشین با تنسورفلو، نسخه دوم به خوانندگان پایه محکمی در مفاهیم یادگیری ماشین و کتابخانه TensorFlow می‌دهد. نوشته شده توسط معاون CTO ناسا JPL و دانشمند اصلی داده، کریس متمن، همه نمونه ها همراه با نوت بوک های قابل دانلود Jupyter برای تجربه عملی کدنویسی TensorFlow با پایتون هستند. محتوای جدید و اصلاح‌شده پوشش الگوریتم‌های اصلی یادگیری ماشین و پیشرفت‌ها در شبکه‌های عصبی مانند طبقه‌بندی‌کننده‌های شناسایی چهره VGG-Face و طبقه‌بندی‌کننده‌های گفتار عمیق را گسترش می‌دهد. خرید کتاب چاپی شامل یک کتاب الکترونیکی رایگان در قالب‌های PDF، Kindle و ePub از انتشارات منینگ است. درباره فناوری تجزیه و تحلیل داده های خود را با یادگیری ماشینی شارژ کنید! الگوریتم های ML به طور خودکار با پردازش داده ها بهبود می یابند، بنابراین نتایج به مرور زمان بهتر می شوند. برای استفاده از ML لازم نیست ریاضیدان باشید: ابزارهایی مانند کتابخانه TensorFlow Google در محاسبات پیچیده به شما کمک می کند تا بتوانید روی دریافت پاسخ های مورد نیاز خود تمرکز کنید. درباره کتاب Learning Machine with TensorFlow، نسخه دوم یک راهنمای کامل اصلاح شده برای ساخت مدل های یادگیری ماشین با استفاده از Python و TensorFlow است. شما مفاهیم اصلی ML را برای چالش‌های دنیای واقعی، مانند تجزیه و تحلیل احساسات، طبقه‌بندی متن و تشخیص تصویر، اعمال خواهید کرد. نمونه‌های عملی تکنیک‌های شبکه عصبی را برای پردازش گفتار عمیق، شناسایی چهره و رمزگذاری خودکار با CIFAR-10 نشان می‌دهند. یادگیری ماشین با TensorFlow چیست انتخاب بهترین رویکردهای ML تجسم الگوریتم‌ها با TensorBoard اشتراک‌گذاری نتایج با همکاران اجرای مدل‌ها در Docker درباره خواننده نیاز به مهارت‌های پایتون متوسط ​​و دانش مفاهیم کلی جبری مانند بردارها و ماتریس‌ها دارد. برای مثال از شاخه فوق پایدار 1.15.x TensorFlow و TensorFlow 2.x استفاده می شود. درباره نویسنده کریس متمن مدیر بخش هوش مصنوعی، تجزیه و تحلیل و سازمان نوآوری در آزمایشگاه پیشرانه جت ناسا است. چاپ اول این کتاب توسط نیشانت شوکلا با کنت فریکلاس نوشته شده است. فهرست مطالب بخش 1 - دکل یادگیری ماشینی شما 1 اودیسه یادگیری ماشینی 2 موارد ضروری TensorFlow قسمت 2 - الگوریتم های یادگیری اصلی 3 رگرسیون خطی و فراتر از آن 4 استفاده از رگرسیون برای پیش بینی حجم مرکز تماس 5 طبقه بندی ملایم در طبقه بندی: مجموعه داده بررسی فیلم بزرگ 7 خوشه‌بندی خودکار داده‌ها 8 استنباط فعالیت کاربر از داده‌های شتاب‌سنج Android 9 مدل‌های پنهان مارکوف 10 برچسب‌گذاری بخشی از گفتار و ابهام‌زدایی معنای کلمه بخش 3 - پارادایم شبکه عصبی 11 نگاهی به رمزگذارهای خودکار2: رمزگذاری خودکار2 مجموعه داده تصویر CIFAR-10 13 یادگیری تقویتی 14 شبکه عصبی کانولوشنال 15 ساخت یک CNN در دنیای واقعی: تبلیغ VGG-Face VGG-Face Lite 16 شبکه عصبی تکراری 17 LSTM و تشخیص خودکار گفتار 18 مدل‌های Sequence-to-chat landscapes


توضیحاتی درمورد کتاب به خارجی

Updated with new code, new projects, and new chapters, Machine Learning with TensorFlow, Second Edition gives readers a solid foundation in machine-learning concepts and the TensorFlow library. Summary Updated with new code, new projects, and new chapters, Machine Learning with TensorFlow, Second Edition gives readers a solid foundation in machine-learning concepts and the TensorFlow library. Written by NASA JPL Deputy CTO and Principal Data Scientist Chris Mattmann, all examples are accompanied by downloadable Jupyter Notebooks for a hands-on experience coding TensorFlow with Python. New and revised content expands coverage of core machine learning algorithms, and advancements in neural networks such as VGG-Face facial identification classifiers and deep speech classifiers. Purchase of the print book includes a free eBook in PDF, Kindle, and ePub formats from Manning Publications. About the technology Supercharge your data analysis with machine learning! ML algorithms automatically improve as they process data, so results get better over time. You don’t have to be a mathematician to use ML: Tools like Google’s TensorFlow library help with complex calculations so you can focus on getting the answers you need. About the book Machine Learning with TensorFlow, Second Edition is a fully revised guide to building machine learning models using Python and TensorFlow. You’ll apply core ML concepts to real-world challenges, such as sentiment analysis, text classification, and image recognition. Hands-on examples illustrate neural network techniques for deep speech processing, facial identification, and auto-encoding with CIFAR-10. What's inside Machine Learning with TensorFlow Choosing the best ML approaches Visualizing algorithms with TensorBoard Sharing results with collaborators Running models in Docker About the reader Requires intermediate Python skills and knowledge of general algebraic concepts like vectors and matrices. Examples use the super-stable 1.15.x branch of TensorFlow and TensorFlow 2.x. About the author Chris Mattmann is the Division Manager of the Artificial Intelligence, Analytics, and Innovation Organization at NASA Jet Propulsion Lab. The first edition of this book was written by Nishant Shukla with Kenneth Fricklas. Table of Contents PART 1 - YOUR MACHINE-LEARNING RIG 1 A machine-learning odyssey 2 TensorFlow essentials PART 2 - CORE LEARNING ALGORITHMS 3 Linear regression and beyond 4 Using regression for call-center volume prediction 5 A gentle introduction to classification 6 Sentiment classification: Large movie-review dataset 7 Automatically clustering data 8 Inferring user activity from Android accelerometer data 9 Hidden Markov models 10 Part-of-speech tagging and word-sense disambiguation PART 3 - THE NEURAL NETWORK PARADIGM 11 A peek into autoencoders 12 Applying autoencoders: The CIFAR-10 image dataset 13 Reinforcement learning 14 Convolutional neural networks 15 Building a real-world CNN: VGG-Face ad VGG-Face Lite 16 Recurrent neural networks 17 LSTMs and automatic speech recognition 18 Sequence-to-sequence models for chatbots 19 Utility landscape



فهرست مطالب

Machine Learning with TensorFlow, Second Edition
brief contents
contents
foreword
preface
acknowledgments
about this book
	How this book is organized: A roadmap
	About the code
	liveBook discussion forum
about the author
about the cover illustration
Part 1: Your machine-learning rig
	Chapter 1: A machine-learning odyssey
		1.1 Machine-learning fundamentals
			1.1.1 Parameters
			1.1.2 Learning and inference
		1.2 Data representation and features
		1.3 Distance metrics
		1.4 Types of learning
			1.4.1 Supervised learning
			1.4.2 Unsupervised learning
			1.4.3 Reinforcement learning
			1.4.4 Meta-learning
		1.5 TensorFlow
		1.6 Overview of future chapters
	Chapter 2: TensorFlow essentials
		2.1 Ensuring that TensorFlow works
		2.2 Representing tensors
		2.3 Creating operators
		2.4 Executing operators within sessions
		2.5 Understanding code as a graph
			2.5.1 Setting session configurations
		2.6 Writing code in Jupyter
		2.7 Using variables
		2.8 Saving and loading variables
		2.9 Visualizing data using TensorBoard
			2.9.1 Implementing a moving average
			2.9.2 Visualizing the moving average
		2.10 Putting it all together: The TensorFlow system architecture and API
Part 2: Core learning algorithms
	Chapter 3: Linear regression and beyond
		3.1 Formal notation
			3.1.1 How do you know the regression algorithm is working?
		3.2 Linear regression
		3.3 Polynomial model
		3.4 Regularization
		3.5 Application of linear regression
	Chapter 4: Using regression for call-center volume prediction
		4.1 What is 311?
		4.2 Cleaning the data for regression
		4.3 What’s in a bell curve? Predicting Gaussian distributions
		4.4 Training your call prediction regressor
		4.5 Visualizing the results and plotting the error
		4.6 Regularization and training test splits
	Chapter 5: A gentle introduction to classification
		5.1 Formal notation
		5.2 Measuring performance
			5.2.1 Accuracy
			5.2.2 Precision and recall
			5.2.3 Receiver operating characteristic curve
		5.3 Using linear regression for classification
		5.4 Using logistic regression
			5.4.1 Solving 1D logistic regression
			5.4.2 Solving 2D regression
		5.5 Multiclass classifier
			5.5.1 One-versus-all
			5.5.2 One-versus-one
			5.5.3 Softmax regression
		5.6 Application of classification
	Chapter 6: Sentiment classification: Large movie-review dataset
		6.1 Using the Bag of Words model
			6.1.1 Applying the Bag of Words model to movie reviews
			6.1.2 Cleaning all the movie reviews
			6.1.3 Exploratory data analysis on your Bag of Words
		6.2 Building a sentiment classifier using logistic regression
			6.2.1 Setting up the training for your model
			6.2.2 Performing the training for your model
		6.3 Making predictions using your sentiment classifier
		6.4 Measuring the effectiveness of your classifier
		6.5 Creating the softmax-regression sentiment classifier
		6.6 Submitting your results to Kaggle
	Chapter 7: Automatically clustering data
		7.1 Traversing files in TensorFlow
		7.2 Extracting features from audio
		7.3 Using k-means clustering
		7.4 Segmenting audio
		7.5 Clustering with a self-organizing map
		7.6 Applying clustering
	Chapter 8: Inferring user activity from Android accelerometer data
		8.1 The User Activity from Walking dataset
			8.1.1 Creating the dataset
			8.1.2 Computing jerk and extracting the feature vector
		8.2 Clustering similar participants based on jerk magnitudes
		8.3 Different classes of user activity for a single participant
	Chapter 9: Hidden Markov models
		9.1 Example of a not-so-interpretable model
		9.2 Markov model
		9.3 Hidden Markov model
		9.4 Forward algorithm
		9.5 Viterbi decoding
		9.6 Uses of HMMs
			9.6.1 Modeling a video
			9.6.2 Modeling DNA
			9.6.3 Modeling an image
		9.7 Application of HMMs
	Chapter 10: Part-of-speech tagging and word-sense disambiguation
		10.1 Review of HMM example: Rainy or Sunny
		10.2 PoS tagging
			10.2.1 The big picture: Training and predicting PoS with HMMs
			10.2.2 Generating the ambiguity PoS tagged dataset
		10.3 Algorithms for building the HMM for PoS disambiguation
			10.3.1 Generating the emission probabilities
		10.4 Running the HMM and evaluating its output
		10.5 Getting more training data from the Brown Corpus
		10.6 Defining error bars and metrics for PoS tagging
Part 3: The neural network paradigm
	Chapter 11: A peek into autoencoders
		11.1 Neural networks
		11.2 Autoencoders
		11.3 Batch training
		11.4 Working with images
		11.5 Application of autoencoders
	Chapter 12: Applying autoencoders: The CIFAR-10 image dataset
		12.1 What is CIFAR-10?
			12.1.1 Evaluating your CIFAR-10 autoencoder
		12.2 Autoencoders as classifiers
			12.2.1 Using the autoencoder as a classifier via loss
		12.3 Denoising autoencoders
		12.4 Stacked deep autoencoders
	Chapter 13: Reinforcement learning
		13.1 Formal notions
			13.1.1 Policy
			13.1.2 Utility
		13.2 Applying reinforcement learning
		13.3 Implementing reinforcement learning
		13.4 Exploring other applications of reinforcement learning
	Chapter 14: Convolutional neural networks
		14.1 Drawback of neural networks
		14.2 Convolutional neural networks
		14.3 Preparing the image
			14.3.1 Generating filters
			14.3.2 Convolving using filters
			14.3.3 Max pooling
		14.4 Implementing a CNN in TensorFlow
			14.4.1 Measuring performance
			14.4.2 Training the classifier
		14.5 Tips and tricks to improve performance
		14.6 Application of CNNs
	Chapter 15: Building a real-world CNN: VGG -Face and VGG -Face Lite
		15.1 Making a real-world CNN architecture for CIFAR-10
			15.1.1 Loading and preparing the CIFAR-10 image data
			15.1.2 Performing data augmentation
		15.2 Building a deeper CNN architecture for CIFAR-10
			15.2.1 CNN optimizations for increasing learned parameter resilience
		15.3 Training and applying a better CIFAR-10 CNN
		15.4 Testing and evaluating your CNN for CIFAR-10
			15.4.1 CIFAR-10 accuracy results and ROC curves
			15.4.2 Evaluating the softmax predictions per class
		15.5 Building VGG -Face for facial recognition
			15.5.1 Picking a subset of VGG -Face for training VGG -Face Lite
			15.5.2 TensorFlow’s Dataset API and data augmentation
			15.5.3 Creating a TensorFlow dataset
			15.5.4 Training using TensorFlow datasets
			15.5.5 VGG -Face Lite model and training
			15.5.6 Training and evaluating VGG -Face Lite
			15.5.7 Evaluating and predicting with VGG -Face Lite
	Chapter 16: Recurrent neural networks
		16.1 Introduction to RNNs
		16.2 Implementing a recurrent neural network
		16.3 Using a predictive model for time-series data
		16.4 Applying RNNs
	Chapter 17: LSTMs and automatic speech recognition
		17.1 Preparing the LibriSpeech corpus
			17.1.1 Downloading, cleaning, and preparing LibriSpeech OpenSLR data
			17.1.2 Converting the audio
			17.1.3 Generating per-audio transcripts
			17.1.4 Aggregating audio and transcripts
		17.2 Using the deep-speech model
			17.2.1 Preparing the input audio data for deep speech
			17.2.2 Preparing the text transcripts as character-level numerical data
			17.2.3 The deep-speech model in TensorFlow
			17.2.4 Connectionist temporal classification in TensorFlow
		17.3 Training and evaluating deep speech
	Chapter 18: Sequence-to-sequence models for chatbots
		18.1 Building on classification and RNNs
		18.2 Understanding seq2seq architecture
		18.3 Vector representation of symbols
		18.4 Putting it all together
		18.5 Gathering dialogue data
	Chapter 19: Utility landscape
		19.1 Preference model
		19.2 Image embedding
		19.3 Ranking images
What’s next
appendix: Installation instructions
	A.1 Installing the book’s code with Docker
		A.1.1 Installing Docker in Windows
		A.1.2 Installing Docker in Linux
		A.1.3 Installing Docker in macOS
		A.1.4 Using Docker
	A.2 Getting the data and storing models
	A.3 Necessary libraries
	A.4 Converting the call-center example to TensorFlow2
		A.4.1 The call-center example with TF2
index
	A
	B
	C
	D
	E
	F
	G
	H
	I
	J
	K
	L
	M
	N
	O
	P
	Q
	R
	S
	T
	U
	V
	W
	X
	Y
	Z




نظرات کاربران