دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Yong Liu
سری:
ISBN (شابک) : 1803241330, 9781803241333
ناشر: Packt Publishing
سال نشر: 2022
تعداد صفحات: 288
زبان: English
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 8 Mb
در صورت تبدیل فایل کتاب Practical Deep Learning at Scale with MLflow: Bridge the gap between offline experimentation and online production به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری عمیق عملی در مقیاس با MLflow: شکاف بین آزمایش آفلاین و تولید آنلاین را پر کنید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
آموزش، آزمایش، اجرا، ردیابی، ذخیره، تنظیم، استقرار و توضیح مدلها و خطوط لوله یادگیری عمیق آگاه از منشأ در مقیاس با قابلیت تکرارپذیری با استفاده از MLflow
کتاب با یک نمای کلی شروع می شود از چرخه زندگی یادگیری عمیق (DL) و زمینه نوظهور عملیات یادگیری ماشین (MLOps)، تصویر روشنی از چهار ستون یادگیری عمیق ارائه میکند: داده، مدل، کد، و توضیحپذیری و نقش MLflow در این زمینهها. /span>
از آنجا به بعد، گام به گام شما را در درک مفهوم آزمایشهای MLflow و الگوهای استفاده، با استفاده از MLflow به عنوان یک چارچوب یکپارچه برای ردیابی دادههای DL، کد و خطوط لوله، مدلها راهنمایی میکند. ، پارامترها و معیارها در مقیاس. شما همچنین با اجرای خطوط لوله DL در یک محیط اجرای توزیع شده با قابلیت تکرار و ردیابی منشأ، و تنظیم مدل های DL از طریق بهینه سازی هایپرپارامتر (HPO) با Ray Tune، Optuna و HyperBand مقابله خواهید کرد. همانطور که پیشرفت می کنید، یاد می گیرید که چگونه یک خط لوله استنتاج DL چند مرحله ای با مراحل پیش پردازش و پس پردازش بسازید، یک خط لوله استنتاج DL را برای تولید با استفاده از Ray Serve و AWS SageMaker مستقر کنید و در نهایت توضیح DL را به عنوان یک سرویس (EaaS) ایجاد کنید. با استفاده از جعبه ابزار محبوب Shapley Additive Explanations (SHAP).
در پایان این کتاب، پایه و اساس را ساخته اید و تجربه عملی مورد نیاز برای توسعه را به دست خواهید آورد. یک راه حل خط لوله DL از آزمایش اولیه آفلاین تا استقرار و تولید نهایی، همه در یک چارچوب قابل تکرار و منبع باز.
این کتاب برای متخصصان یادگیری ماشین از جمله دانشمندان داده، مهندسان داده، مهندسان ML و دانشمندانی است که میخواهند مقیاسپذیر بسازند. خطوط لوله یادگیری عمیق چرخه زندگی کامل با قابلیت تکرارپذیری و ردیابی منشأ با استفاده از MLflow. درک پایه ای از علم داده و یادگیری ماشین برای درک مفاهیم ارائه شده در این کتاب ضروری است.
Train, test, run, track, store, tune, deploy, and explain provenance-aware deep learning models and pipelines at scale with reproducibility using MLflow
The book starts with an overview of the deep learning (DL) life cycle and the emerging Machine Learning Ops (MLOps) field, providing a clear picture of the four pillars of deep learning: data, model, code, and explainability and the role of MLflow in these areas.
From there onward, it guides you step by step in understanding the concept of MLflow experiments and usage patterns, using MLflow as a unified framework to track DL data, code and pipelines, models, parameters, and metrics at scale. You'll also tackle running DL pipelines in a distributed execution environment with reproducibility and provenance tracking, and tuning DL models through hyperparameter optimization (HPO) with Ray Tune, Optuna, and HyperBand. As you progress, you'll learn how to build a multi-step DL inference pipeline with preprocessing and postprocessing steps, deploy a DL inference pipeline for production using Ray Serve and AWS SageMaker, and finally create a DL explanation as a service (EaaS) using the popular Shapley Additive Explanations (SHAP) toolbox.
By the end of this book, you'll have built the foundation and gained the hands-on experience you need to develop a DL pipeline solution from initial offline experimentation to final deployment and production, all within a reproducible and open source framework.
This book is for machine learning practitioners including data scientists, data engineers, ML engineers, and scientists who want to build scalable full life cycle deep learning pipelines with reproducibility and provenance tracking using MLflow. A basic understanding of data science and machine learning is necessary to grasp the concepts presented in this book.
Practical Deep Learning at Scale with MLflow Foreword Contributors About the author About the reviewers Preface Who this book is for What this book covers To get the most out of this book Download the example code files Download the color images Conventions used Get in touch Share Your Thoughts Section 1 - Deep Learning Challenges and MLflow Prime Chapter 1: Deep Learning Life Cycle and MLOps Challenges Technical requirements Understanding the DL life cycle and MLOps challenges Implementing a basic DL sentiment classifier Understanding DL's full life cycle development Understanding MLOps challenges Understanding DL data challenges Understanding DL model challenges Understanding DL code challenges Understanding DL explainability challenges Summary Further reading Chapter 2: Getting Started with MLflow for Deep Learning Technical requirements Setting up MLflow Setting up MLflow locally using miniconda Setting up MLflow to interact with a remote MLflow server Implementing our first DL experiment with MLflow autologging Exploring MLflow's components and usage patterns Exploring experiments and runs in MLflow Exploring MLflow models and their usages Exploring MLflow code tracking and its usages Summary Further reading Section 2 – Tracking a Deep Learning Pipeline at Scale Chapter 3: Tracking Models, Parameters, and Metrics Technical requirements Setting up a full-fledged local MLflow tracking server Tracking model provenance Understanding the open provenance tracking framework Implementing MLflow model tracking Tracking model metrics Tracking model parameters Summary Further reading Chapter 4: Tracking Code and Data Versioning Technical requirements Tracking notebook and pipeline versioning Pipeline tracking Tracking locally, privately built Python libraries Tracking data versioning in Delta Lake An example of tracking data using MLflow Summary Further reading Section 3 – Running Deep Learning Pipelines at Scale Chapter 5: Running DL Pipelines in Different Environments Technical requirements An overview of different execution scenarios and environments Running locally with local code Running remote code in GitHub locally Running local code remotely in the cloud Running remotely in the cloud with remote code in GitHub Summary Further reading Chapter 6: Running Hyperparameter Tuning at Scale Technical requirements Understanding automatic HPO for DL pipelines Types of hyperparameters and their challenges How HPO works and which ones to choose Creating HPO-ready DL models with Ray Tune and MLflow Setting up Ray Tune and MLflow Creating the Ray Tune trainable for the DL model Creating the Ray Tune HPO run function Running the first Ray Tune HPO experiment with MLflow Running HPO with Ray Tune using Optuna and HyperBand Summary Further reading Section 4 – Deploying a Deep Learning Pipeline at Scale Chapter 7: Multi-Step Deep Learning Inference Pipeline Technical requirements Understanding patterns of DL inference pipelines Understanding the MLflow Model Python Function API Implementing a custom MLflow Python model Implementing preprocessing and postprocessing steps in a DL inference pipeline Implementing language detection preprocessing logic Implementing caching preprocessing and postprocessing logic Implementing response composition postprocessing logic Implementing an inference pipeline as a new entry point in the main MLproject Summary Further reading Chapter 8: Deploying a DL Inference Pipeline at Scale Technical requirements Understanding different deployment tools and host environments Deploying locally for batch and web service inference Batch inference Model as a web service Deploying using Ray Serve and MLflow deployment plugins Deploying to AWS SageMaker – a complete end-to-end guide Step 1: Build a local SageMaker Docker image Step 2: Add additional model artifacts layers onto the SageMaker Docker image Step 3: Test local deployment with the newly built SageMaker Docker image Step 4: Push the SageMaker Docker image to AWS Elastic Container Registry Step 5: Deploy the inference pipeline model to create a SageMaker endpoint Step 6: Query the SageMaker endpoint for online inference Summary Further reading Section 5 – Deep Learning Model Explainability at Scale Chapter 9: Fundamentals of Deep Learning Explainability Technical requirements Understanding the categories and audience of explainability Audience: who needs to know Stage: when to provide an explanation in the DL life cycle Scope: which prediction needs explanation Input data format: what is the format of the input data Output data format: what is the format of the output explanation Problem type: what is the machine learning problem type Objectives type: what is the motivation or goal to explain Method type: what is the specific post-hoc explanation method used Exploring the SHAP Explainability toolbox Exploring the Transformers Interpret toolbox Summary Further reading Chapter 10: Implementing DL Explainability with MLflow Technical requirements Understanding current MLflow explainability integration Implementing a SHAP explanation using the MLflow artifact logging API Implementing a SHAP explainer using the MLflow pyfunc API Creating and logging an MLflow pyfunc explainer Deploying an MLflow pyfunc explainer for an EaaS Using an MLflow pyfunc explainer for batch explanation Summary Further reading Why subscribe? Other Books You May Enjoy Packt is searching for authors like you Share Your Thoughts