دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 2
نویسندگان: Chris A. Mattmann
سری:
ISBN (شابک) : 9781617297717
ناشر: Manning Publications Co.
سال نشر: 2021
تعداد صفحات: 0
زبان: English
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 15 مگابایت
در صورت تبدیل فایل کتاب Machine Learning with TensorFlow به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری ماشین با TensorFlow نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
با کدهای جدید، پروژههای جدید و فصلهای جدید، یادگیری ماشینی با TensorFlow، نسخه دوم به خوانندگان پایه محکمی در مفاهیم یادگیری ماشین و کتابخانه TensorFlow میدهد. خلاصه که با کدهای جدید، پروژههای جدید و فصلهای جدید بهروزرسانی شده است، یادگیری ماشین با تنسورفلو، نسخه دوم به خوانندگان پایه محکمی در مفاهیم یادگیری ماشین و کتابخانه TensorFlow میدهد. نوشته شده توسط معاون CTO ناسا JPL و دانشمند اصلی داده، کریس متمن، همه نمونه ها همراه با نوت بوک های قابل دانلود Jupyter برای تجربه عملی کدنویسی TensorFlow با پایتون هستند. محتوای جدید و اصلاحشده پوشش الگوریتمهای اصلی یادگیری ماشین و پیشرفتها در شبکههای عصبی مانند طبقهبندیکنندههای شناسایی چهره VGG-Face و طبقهبندیکنندههای گفتار عمیق را گسترش میدهد. خرید کتاب چاپی شامل یک کتاب الکترونیکی رایگان در قالبهای PDF، Kindle و ePub از انتشارات منینگ است. درباره فناوری تجزیه و تحلیل داده های خود را با یادگیری ماشینی شارژ کنید! الگوریتم های ML به طور خودکار با پردازش داده ها بهبود می یابند، بنابراین نتایج به مرور زمان بهتر می شوند. برای استفاده از ML لازم نیست ریاضیدان باشید: ابزارهایی مانند کتابخانه TensorFlow Google در محاسبات پیچیده به شما کمک می کند تا بتوانید روی دریافت پاسخ های مورد نیاز خود تمرکز کنید. درباره کتاب Learning Machine with TensorFlow، نسخه دوم یک راهنمای کامل اصلاح شده برای ساخت مدل های یادگیری ماشین با استفاده از Python و TensorFlow است. شما مفاهیم اصلی ML را برای چالشهای دنیای واقعی، مانند تجزیه و تحلیل احساسات، طبقهبندی متن و تشخیص تصویر، اعمال خواهید کرد. نمونههای عملی تکنیکهای شبکه عصبی را برای پردازش گفتار عمیق، شناسایی چهره و رمزگذاری خودکار با CIFAR-10 نشان میدهند. یادگیری ماشین با TensorFlow چیست انتخاب بهترین رویکردهای ML تجسم الگوریتمها با TensorBoard اشتراکگذاری نتایج با همکاران اجرای مدلها در Docker درباره خواننده نیاز به مهارتهای پایتون متوسط و دانش مفاهیم کلی جبری مانند بردارها و ماتریسها دارد. برای مثال از شاخه فوق پایدار 1.15.x TensorFlow و TensorFlow 2.x استفاده می شود. درباره نویسنده کریس متمن مدیر بخش هوش مصنوعی، تجزیه و تحلیل و سازمان نوآوری در آزمایشگاه پیشرانه جت ناسا است. چاپ اول این کتاب توسط نیشانت شوکلا با کنت فریکلاس نوشته شده است. فهرست مطالب بخش 1 - دکل یادگیری ماشینی شما 1 اودیسه یادگیری ماشینی 2 موارد ضروری TensorFlow قسمت 2 - الگوریتم های یادگیری اصلی 3 رگرسیون خطی و فراتر از آن 4 استفاده از رگرسیون برای پیش بینی حجم مرکز تماس 5 طبقه بندی ملایم در طبقه بندی: مجموعه داده بررسی فیلم بزرگ 7 خوشهبندی خودکار دادهها 8 استنباط فعالیت کاربر از دادههای شتابسنج Android 9 مدلهای پنهان مارکوف 10 برچسبگذاری بخشی از گفتار و ابهامزدایی معنای کلمه بخش 3 - پارادایم شبکه عصبی 11 نگاهی به رمزگذارهای خودکار2: رمزگذاری خودکار2 مجموعه داده تصویر CIFAR-10 13 یادگیری تقویتی 14 شبکه عصبی کانولوشنال 15 ساخت یک CNN در دنیای واقعی: تبلیغ VGG-Face VGG-Face Lite 16 شبکه عصبی تکراری 17 LSTM و تشخیص خودکار گفتار 18 مدلهای Sequence-to-chat landscapes
Updated with new code, new projects, and new chapters, Machine Learning with TensorFlow, Second Edition gives readers a solid foundation in machine-learning concepts and the TensorFlow library. Summary Updated with new code, new projects, and new chapters, Machine Learning with TensorFlow, Second Edition gives readers a solid foundation in machine-learning concepts and the TensorFlow library. Written by NASA JPL Deputy CTO and Principal Data Scientist Chris Mattmann, all examples are accompanied by downloadable Jupyter Notebooks for a hands-on experience coding TensorFlow with Python. New and revised content expands coverage of core machine learning algorithms, and advancements in neural networks such as VGG-Face facial identification classifiers and deep speech classifiers. Purchase of the print book includes a free eBook in PDF, Kindle, and ePub formats from Manning Publications. About the technology Supercharge your data analysis with machine learning! ML algorithms automatically improve as they process data, so results get better over time. You don’t have to be a mathematician to use ML: Tools like Google’s TensorFlow library help with complex calculations so you can focus on getting the answers you need. About the book Machine Learning with TensorFlow, Second Edition is a fully revised guide to building machine learning models using Python and TensorFlow. You’ll apply core ML concepts to real-world challenges, such as sentiment analysis, text classification, and image recognition. Hands-on examples illustrate neural network techniques for deep speech processing, facial identification, and auto-encoding with CIFAR-10. What's inside Machine Learning with TensorFlow Choosing the best ML approaches Visualizing algorithms with TensorBoard Sharing results with collaborators Running models in Docker About the reader Requires intermediate Python skills and knowledge of general algebraic concepts like vectors and matrices. Examples use the super-stable 1.15.x branch of TensorFlow and TensorFlow 2.x. About the author Chris Mattmann is the Division Manager of the Artificial Intelligence, Analytics, and Innovation Organization at NASA Jet Propulsion Lab. The first edition of this book was written by Nishant Shukla with Kenneth Fricklas. Table of Contents PART 1 - YOUR MACHINE-LEARNING RIG 1 A machine-learning odyssey 2 TensorFlow essentials PART 2 - CORE LEARNING ALGORITHMS 3 Linear regression and beyond 4 Using regression for call-center volume prediction 5 A gentle introduction to classification 6 Sentiment classification: Large movie-review dataset 7 Automatically clustering data 8 Inferring user activity from Android accelerometer data 9 Hidden Markov models 10 Part-of-speech tagging and word-sense disambiguation PART 3 - THE NEURAL NETWORK PARADIGM 11 A peek into autoencoders 12 Applying autoencoders: The CIFAR-10 image dataset 13 Reinforcement learning 14 Convolutional neural networks 15 Building a real-world CNN: VGG-Face ad VGG-Face Lite 16 Recurrent neural networks 17 LSTMs and automatic speech recognition 18 Sequence-to-sequence models for chatbots 19 Utility landscape
Machine Learning with TensorFlow, Second Edition brief contents contents foreword preface acknowledgments about this book How this book is organized: A roadmap About the code liveBook discussion forum about the author about the cover illustration Part 1: Your machine-learning rig Chapter 1: A machine-learning odyssey 1.1 Machine-learning fundamentals 1.1.1 Parameters 1.1.2 Learning and inference 1.2 Data representation and features 1.3 Distance metrics 1.4 Types of learning 1.4.1 Supervised learning 1.4.2 Unsupervised learning 1.4.3 Reinforcement learning 1.4.4 Meta-learning 1.5 TensorFlow 1.6 Overview of future chapters Chapter 2: TensorFlow essentials 2.1 Ensuring that TensorFlow works 2.2 Representing tensors 2.3 Creating operators 2.4 Executing operators within sessions 2.5 Understanding code as a graph 2.5.1 Setting session configurations 2.6 Writing code in Jupyter 2.7 Using variables 2.8 Saving and loading variables 2.9 Visualizing data using TensorBoard 2.9.1 Implementing a moving average 2.9.2 Visualizing the moving average 2.10 Putting it all together: The TensorFlow system architecture and API Part 2: Core learning algorithms Chapter 3: Linear regression and beyond 3.1 Formal notation 3.1.1 How do you know the regression algorithm is working? 3.2 Linear regression 3.3 Polynomial model 3.4 Regularization 3.5 Application of linear regression Chapter 4: Using regression for call-center volume prediction 4.1 What is 311? 4.2 Cleaning the data for regression 4.3 What’s in a bell curve? Predicting Gaussian distributions 4.4 Training your call prediction regressor 4.5 Visualizing the results and plotting the error 4.6 Regularization and training test splits Chapter 5: A gentle introduction to classification 5.1 Formal notation 5.2 Measuring performance 5.2.1 Accuracy 5.2.2 Precision and recall 5.2.3 Receiver operating characteristic curve 5.3 Using linear regression for classification 5.4 Using logistic regression 5.4.1 Solving 1D logistic regression 5.4.2 Solving 2D regression 5.5 Multiclass classifier 5.5.1 One-versus-all 5.5.2 One-versus-one 5.5.3 Softmax regression 5.6 Application of classification Chapter 6: Sentiment classification: Large movie-review dataset 6.1 Using the Bag of Words model 6.1.1 Applying the Bag of Words model to movie reviews 6.1.2 Cleaning all the movie reviews 6.1.3 Exploratory data analysis on your Bag of Words 6.2 Building a sentiment classifier using logistic regression 6.2.1 Setting up the training for your model 6.2.2 Performing the training for your model 6.3 Making predictions using your sentiment classifier 6.4 Measuring the effectiveness of your classifier 6.5 Creating the softmax-regression sentiment classifier 6.6 Submitting your results to Kaggle Chapter 7: Automatically clustering data 7.1 Traversing files in TensorFlow 7.2 Extracting features from audio 7.3 Using k-means clustering 7.4 Segmenting audio 7.5 Clustering with a self-organizing map 7.6 Applying clustering Chapter 8: Inferring user activity from Android accelerometer data 8.1 The User Activity from Walking dataset 8.1.1 Creating the dataset 8.1.2 Computing jerk and extracting the feature vector 8.2 Clustering similar participants based on jerk magnitudes 8.3 Different classes of user activity for a single participant Chapter 9: Hidden Markov models 9.1 Example of a not-so-interpretable model 9.2 Markov model 9.3 Hidden Markov model 9.4 Forward algorithm 9.5 Viterbi decoding 9.6 Uses of HMMs 9.6.1 Modeling a video 9.6.2 Modeling DNA 9.6.3 Modeling an image 9.7 Application of HMMs Chapter 10: Part-of-speech tagging and word-sense disambiguation 10.1 Review of HMM example: Rainy or Sunny 10.2 PoS tagging 10.2.1 The big picture: Training and predicting PoS with HMMs 10.2.2 Generating the ambiguity PoS tagged dataset 10.3 Algorithms for building the HMM for PoS disambiguation 10.3.1 Generating the emission probabilities 10.4 Running the HMM and evaluating its output 10.5 Getting more training data from the Brown Corpus 10.6 Defining error bars and metrics for PoS tagging Part 3: The neural network paradigm Chapter 11: A peek into autoencoders 11.1 Neural networks 11.2 Autoencoders 11.3 Batch training 11.4 Working with images 11.5 Application of autoencoders Chapter 12: Applying autoencoders: The CIFAR-10 image dataset 12.1 What is CIFAR-10? 12.1.1 Evaluating your CIFAR-10 autoencoder 12.2 Autoencoders as classifiers 12.2.1 Using the autoencoder as a classifier via loss 12.3 Denoising autoencoders 12.4 Stacked deep autoencoders Chapter 13: Reinforcement learning 13.1 Formal notions 13.1.1 Policy 13.1.2 Utility 13.2 Applying reinforcement learning 13.3 Implementing reinforcement learning 13.4 Exploring other applications of reinforcement learning Chapter 14: Convolutional neural networks 14.1 Drawback of neural networks 14.2 Convolutional neural networks 14.3 Preparing the image 14.3.1 Generating filters 14.3.2 Convolving using filters 14.3.3 Max pooling 14.4 Implementing a CNN in TensorFlow 14.4.1 Measuring performance 14.4.2 Training the classifier 14.5 Tips and tricks to improve performance 14.6 Application of CNNs Chapter 15: Building a real-world CNN: VGG -Face and VGG -Face Lite 15.1 Making a real-world CNN architecture for CIFAR-10 15.1.1 Loading and preparing the CIFAR-10 image data 15.1.2 Performing data augmentation 15.2 Building a deeper CNN architecture for CIFAR-10 15.2.1 CNN optimizations for increasing learned parameter resilience 15.3 Training and applying a better CIFAR-10 CNN 15.4 Testing and evaluating your CNN for CIFAR-10 15.4.1 CIFAR-10 accuracy results and ROC curves 15.4.2 Evaluating the softmax predictions per class 15.5 Building VGG -Face for facial recognition 15.5.1 Picking a subset of VGG -Face for training VGG -Face Lite 15.5.2 TensorFlow’s Dataset API and data augmentation 15.5.3 Creating a TensorFlow dataset 15.5.4 Training using TensorFlow datasets 15.5.5 VGG -Face Lite model and training 15.5.6 Training and evaluating VGG -Face Lite 15.5.7 Evaluating and predicting with VGG -Face Lite Chapter 16: Recurrent neural networks 16.1 Introduction to RNNs 16.2 Implementing a recurrent neural network 16.3 Using a predictive model for time-series data 16.4 Applying RNNs Chapter 17: LSTMs and automatic speech recognition 17.1 Preparing the LibriSpeech corpus 17.1.1 Downloading, cleaning, and preparing LibriSpeech OpenSLR data 17.1.2 Converting the audio 17.1.3 Generating per-audio transcripts 17.1.4 Aggregating audio and transcripts 17.2 Using the deep-speech model 17.2.1 Preparing the input audio data for deep speech 17.2.2 Preparing the text transcripts as character-level numerical data 17.2.3 The deep-speech model in TensorFlow 17.2.4 Connectionist temporal classification in TensorFlow 17.3 Training and evaluating deep speech Chapter 18: Sequence-to-sequence models for chatbots 18.1 Building on classification and RNNs 18.2 Understanding seq2seq architecture 18.3 Vector representation of symbols 18.4 Putting it all together 18.5 Gathering dialogue data Chapter 19: Utility landscape 19.1 Preference model 19.2 Image embedding 19.3 Ranking images What’s next appendix: Installation instructions A.1 Installing the book’s code with Docker A.1.1 Installing Docker in Windows A.1.2 Installing Docker in Linux A.1.3 Installing Docker in macOS A.1.4 Using Docker A.2 Getting the data and storing models A.3 Necessary libraries A.4 Converting the call-center example to TensorFlow2 A.4.1 The call-center example with TF2 index A B C D E F G H I J K L M N O P Q R S T U V W X Y Z