دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Xavier Vasques
سری:
ISBN (شابک) : 9781394220618, 9781394220625
ناشر: Wiley
سال نشر: 2024
تعداد صفحات: 510
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 39 Mb
در صورت تبدیل فایل کتاب Machine Learning Theory and Applications: Hands-on Use Cases with Python on Classical and Quantum Machines به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تئوری و کاربردهای یادگیری ماشین: موارد استفاده عملی با پایتون در ماشینهای کلاسیک و کوانتومی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
خوانندگان را قادر میسازد مفاهیم ریاضی پشت الگوریتمهای مهندسی داده و یادگیری ماشین را درک کنند و آنها را با استفاده از کتابخانههای منبع باز Python به کار ببرند. سناریوهای دنیای واقعی با استفاده از پایتون و کتابخانه های منبع باز معروف. این راهنمای جامع طیف گستردهای از موضوعات، از جمله آمادهسازی دادهها، تکنیکهای مهندسی ویژگی، الگوریتمهای یادگیری ماشینی رایج مانند ماشینهای بردار پشتیبان و شبکههای عصبی، و همچنین مدلهای هوش مصنوعی و پایه را پوشش میدهد. برای تسهیل ایجاد خطوط لوله یادگیری ماشین، یک چارچوب منبع باز اختصاصی به نام hephAIstos به طور انحصاری برای این کتاب توسعه داده شده است. علاوه بر این، این متن دامنه جذاب یادگیری ماشین کوانتومی را بررسی میکند و بینشهایی را در مورد اجرای برنامههای یادگیری ماشین در فناوریهای سختافزاری متنوع مانند CPU، GPU و QPU ارائه میدهد. در نهایت، این کتاب نحوه استقرار مدلهای آموزشدیده را از طریق برنامههای کاربردی کانتینری با استفاده از Kubernetes و OpenShift و همچنین ادغام آنها از طریق عملیات یادگیری ماشین (MLOps) توضیح میدهد. موضوعات اضافی تحت پوشش تئوری و کاربردهای یادگیری ماشین عبارتند از: موارد استفاده فعلی از هوش مصنوعی، از جمله پیشبینی، تشخیص تصاویر و گفتار، انجام تشخیصهای پزشکی، ایجاد زنجیره تامین هوشمند، پردازش زبان طبیعی، و الگوریتمهای یادگیری ماشینهای کلاسیک و کوانتومی دیگر مانند ماشینهای بردار پشتیبانی پیشرفته (QSVM)، طبقهبندی چند کلاسه QSVM، شبکههای عصبی کوانتومی، و شبکههای متخاصم مولد کوانتومی (qGANs) روشهای مختلف برای دستکاری دادهها، مانند مدیریت دادههای از دست رفته، تجزیه و تحلیل دادههای طبقهبندی شده، یا پردازش دادههای مربوط به زمان. ، استخراج و انتخاب و نحوه زنده کردن و تولید مدل های آموزش دیده خود از طریق برنامه های کاربردی کانتینری تئوری و کاربردهای یادگیری ماشین یک منبع ضروری برای دانشمندان داده، مهندسان و متخصصان فناوری اطلاعات و معماران و همچنین دانشجویان علوم کامپیوتر، ریاضیات است. ، و بیوانفورماتیک. انتظار می رود خواننده برنامه نویسی پایتون و کتابخانه های پایه مانند NumPy یا Pandas و مفاهیم پایه ریاضی، به ویژه جبر خطی را درک کند.
Enables readers to understand mathematical concepts behind data engineering and machine learning algorithms and apply them using open-source Python libraries Machine Learning Theory and Applications delves into the realm of machine learning and deep learning, exploring their practical applications by comprehending mathematical concepts and implementing them in real-world scenarios using Python and renowned open-source libraries. This comprehensive guide covers a wide range of topics, including data preparation, feature engineering techniques, commonly utilized machine learning algorithms like support vector machines and neural networks, as well as generative AI and foundation models. To facilitate the creation of machine learning pipelines, a dedicated open-source framework named hephAIstos has been developed exclusively for this book. Moreover, the text explores the fascinating domain of quantum machine learning and offers insights on executing machine learning applications across diverse hardware technologies such as CPUs, GPUs, and QPUs. Finally, the book explains how to deploy trained models through containerized applications using Kubernetes and OpenShift, as well as their integration through machine learning operations (MLOps). Additional topics covered in Machine Learning Theory and Applications include: Current use cases of AI, including making predictions, recognizing images and speech, performing medical diagnoses, creating intelligent supply chains, natural language processing, and much more Classical and quantum machine learning algorithms such as quantum-enhanced Support Vector Machines (QSVMs), QSVM multiclass classification, quantum neural networks, and quantum generative adversarial networks (qGANs) Different ways to manipulate data, such as handling missing data, analyzing categorical data, or processing time-related data Feature rescaling, extraction, and selection, and how to put your trained models to life and production through containerized applications Machine Learning Theory and Applications is an essential resource for data scientists, engineers, and IT specialists and architects, as well as students in computer science, mathematics, and bioinformatics. The reader is expected to understand basic Python programming and libraries such as NumPy or Pandas and basic mathematical concepts, especially linear algebra.
Cover Title Page Copyright Page Dedication Page Contents Foreword Acknowledgments General Introduction Chapter 1 Concepts, Libraries, and Essential Tools in Machine Learning and Deep Learning 1.1 Learning Styles for Machine Learning 1.1.1 Supervised Learning 1.1.1.1 Overfitting and Underfitting 1.1.1.2 K-Folds Cross-Validation 1.1.1.3 Train/Test Split 1.1.1.4 Confusion Matrix 1.1.1.5 Loss Functions 1.1.2 Unsupervised Learning 1.1.3 Semi-Supervised Learning 1.1.4 Reinforcement Learning 1.2 Essential Python Tools for Machine Learning 1.2.1 Data Manipulation with Python 1.2.2 Python Machine Learning Libraries 1.2.2.1 Scikit-learn 1.2.2.2 TensorFlow 1.2.2.3 Keras 1.2.2.4 PyTorch 1.2.3 Jupyter Notebook and JupyterLab 1.3 HephAIstos for Running Machine Learning on CPUs, GPUs, and QPUs 1.3.1 Installation 1.3.2 HephAIstos Function 1.4 Where to Find the Datasets and Code Examples Further Reading Chapter 2 Feature Engineering Techniques in Machine Learning 2.1 Feature Rescaling: Structured Continuous Numeric Data 2.1.1 Data Transformation 2.1.1.1 StandardScaler 2.1.1.2 MinMaxScaler 2.1.1.3 MaxAbsScaler 2.1.1.4 RobustScaler 2.1.1.5 Normalizer: Unit Vector Normalization 2.1.1.6 Other Options 2.1.1.7 Transformation to Improve Normal Distribution 2.1.1.8 Quantile Transformation 2.1.2 Example: Rescaling Applied to an SVM Model 2.2 Strategies to Work with Categorical (Discrete) Data 2.2.1 Ordinal Encoding 2.2.2 One-Hot Encoding 2.2.3 Label Encoding 2.2.4 Helmert Encoding 2.2.5 Binary Encoding 2.2.6 Frequency Encoding 2.2.7 Mean Encoding 2.2.8 Sum Encoding 2.2.9 Weight of Evidence Encoding 2.2.10 Probability Ratio Encoding 2.2.11 Hashing Encoding 2.2.12 Backward Difference Encoding 2.2.13 Leave-One-Out Encoding 2.2.14 James-Stein Encoding 2.2.15 M-Estimator Encoding 2.2.16 Using HephAIstos to Encode Categorical Data 2.3 Time-Related Features Engineering 2.3.1 Date-Related Features 2.3.2 Lag Variables 2.3.3 Rolling Window Feature 2.3.4 Expending Window Feature 2.3.5 Understanding Time Series Data in Context 2.4 Handling Missing Values in Machine Learning 2.4.1 Row or Column Removal 2.4.2 Statistical Imputation: Mean, Median, and Mode 2.4.3 Linear Interpolation 2.4.4 Multivariate Imputation by Chained Equation Imputation 2.4.5 KNN Imputation 2.5 Feature Extraction and Selection 2.5.1 Feature Extraction 2.5.1.1 Principal Component Analysis 2.5.1.2 Independent Component Analysis 2.5.1.3 Linear Discriminant Analysis 2.5.1.4 Locally Linear Embedding 2.5.1.5 The t-Distributed Stochastic Neighbor Embedding Technique 2.5.1.6 More Manifold Learning Techniques 2.5.1.7 Feature Extraction with HephAIstos 2.5.2 Feature Selection 2.5.2.1 Filter Methods 2.5.2.2 Wrapper Methods 2.5.2.3 Embedded Methods 2.5.2.4 Feature Importance Using Graphics Processing Units (GPUs) 2.5.2.5 Feature Selection Using HephAIstos Further Reading Chapter 3 Machine Learning Algorithms 3.1 Linear Regression 3.1.1 The Math 3.1.2 Gradient Descent to Optimize the Cost Function 3.1.3 Implementation of Linear Regression 3.1.3.1 Univariate Linear Regression 3.1.3.2 Multiple Linear Regression: Predicting Water Temperature 3.2 Logistic Regression 3.2.1 Binary Logistic Regression 3.2.1.1 Cost Function 3.2.1.2 Gradient Descent 3.2.2 Multinomial Logistic Regression 3.2.3 Multinomial Logistic Regression Applied to Fashion MNIST 3.2.3.1 Logistic Regression with scikit-learn 3.2.3.2 Logistic Regression with Keras on TensorFlow 3.2.4 Binary Logistic Regression with Keras on TensorFlow 3.3 Support Vector Machine 3.3.1 Linearly Separable Data 3.3.2 Not Fully Linearly Separable Data 3.3.3 Nonlinear SVMs 3.3.4 SVMs for Regression 3.3.5 Application of SVMs 3.3.5.1 SVM Using scikit-learn for Classification 3.3.5.2 SVM Using scikit-learn for Regression 3.4 Artificial Neural Networks 3.4.1 Multilayer Perceptron 3.4.2 Estimation of the Parameters 3.4.2.1 Loss Functions 3.4.2.2 Backpropagation: Binary Classification 3.4.2.3 Backpropagation: Multi-class Classification 3.4.3 Convolutional Neural Networks 3.4.4 Recurrent Neural Network 3.4.5 Application of MLP Neural Networks 3.4.6 Application of RNNs: LST Memory 3.4.7 Building a CNN 3.5 Many More Algorithms to Explore 3.6 Unsupervised Machine Learning Algorithms 3.6.1 Clustering 3.6.1.1 K-means 3.6.1.2 Mini-batch K-means 3.6.1.3 Mean Shift 3.6.1.4 Affinity Propagation 3.6.1.5 Density-based Spatial Clustering of Applications with Noise 3.7 Machine Learning Algorithms with HephAIstos References Further Reading Chapter 4 Natural Language Processing 4.1 Classifying Messages as Spam or Ham 4.2 Sentiment Analysis 4.3 Bidirectional Encoder Representations from Transformers 4.4 BERT’s Functionality 4.5 Installing and Training BERT for Binary Text Classification Using TensorFlow 4.6 Utilizing BERT for Text Summarization 4.7 Utilizing BERT for Question Answering Further Reading Chapter 5 Machine Learning Algorithms in Quantum Computing 5.1 Quantum Machine Learning 5.2 Quantum Kernel Machine Learning 5.3 Quantum Kernel Training 5.4 Pegasos QSVC: Binary Classification 5.5 Quantum Neural Networks 5.5.1 Binary Classification with EstimatorQNN 5.5.2 Classification with a SamplerQNN 5.5.3 Classification with Variational Quantum Classifier 5.5.4 Regression 5.6 Quantum Generative Adversarial Network 5.7 Quantum Algorithms with HephAIstos References Further Reading Chapter 6 Machine Learning in Production 6.1 Why Use Docker Containers for Machine Learning? 6.1.1 First Things First: The Microservices 6.1.2 Containerization 6.1.3 Docker and Machine Learning: Resolving the “It Works in My Machine” Problem 6.1.4 Quick Install and First Use of Docker 6.1.4.1 Install Docker 6.1.4.2 Using Docker from the Command Line 6.1.5 Dockerfile 6.1.6 Build and Run a Docker Container for Your Machine Learning Model 6.2 Machine Learning Prediction in Real Time Using Docker and Python REST APIs with Flask 6.2.1 Flask-RESTful APIs 6.2.2 Machine Learning Models 6.2.3 Docker Image for the Online Inference 6.2.4 Running Docker Online Inference 6.3 From DevOps to MLOPS: Integrate Machine Learning Models Using Jenkins and Docker 6.3.1 Jenkins Installation 6.3.2 Scenario Implementation 6.4 Machine Learning with Docker and Kubernetes: Install a Cluster from Scratch 6.4.1 Kubernetes Vocabulary 6.4.2 Kubernetes Quick Install 6.4.3 Install a Kubernetes Cluster 6.4.4 Kubernetes: Initialization and Internal Network 6.5 Machine Learning with Docker and Kubernetes: Training Models 6.5.1 Kubernetes Jobs: Model Training and Batch Inference 6.5.2 Create and Prepare the Virtual Machines 6.5.3 Kubeadm Installation 6.5.4 Create a Kubernetes Cluster 6.5.5 Containerize our Python Application that Trains Models 6.5.6 Create Configuration Files for Kubernetes 6.5.7 Commands to Delete the Cluster 6.6 Machine Learning with Docker and Kubernetes: Batch Inference 6.6.1 Create Configuration Files for Kubernetes 6.7 Machine Learning Prediction in Real Time Using Docker, Python Rest APIs with Flask, and Kubernetes: Online Inference 6.7.1 Flask-RESTful APIs 6.7.2 Machine Learning Models 6.7.3 Docker Image for Online Inference 6.7.4 Running Docker Online Inference 6.7.5 Create and Prepare the Virtual Machines 6.7.6 Kubeadm Installation 6.7.7 Create a Kubernetes Cluster 6.7.8 Deploying the Containerized Machine Learning Model to Kubernetes 6.8 A Machine Learning Application that Deploys to the IBM Cloud Kubernetes Service: Python, Docker, Kubernetes 6.8.1 Create Kubernetes Service on IBM Cloud 6.8.2 Containerization of a Machine Learning Application 6.8.3 Push the Image to the IBM Cloud Registry 6.8.4 Deploy the Application to Kubernetes 6.9 Red Hat OpenShift to Develop and Deploy Enterprise ML/DL Applications 6.9.1 What is OpenShift? 6.9.2 What Is the Difference Between OpenShift and Kubernetes? 6.9.3 Why Red Hat OpenShift for ML/DL? To Build a Production-Ready ML/DL Environment 6.10 Deploying a Machine Learning Model as an API on the Red Hat OpenShift Container Platform: From Source Code in a GitHub Repository with Flask, Scikit-Learn, and Docker 6.10.1 Create an OpenShift Cluster Instance 6.10.1.1 Deploying an Application from Source Code in a GitHub Repository Further Reading Conclusion: The Future of Computing for Data Science? Index EULA