ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Practical Deep Learning at Scale with MLflow: Bridge the gap between offline experimentation and online production

دانلود کتاب یادگیری عمیق عملی در مقیاس با MLflow: شکاف بین آزمایش آفلاین و تولید آنلاین را پر کنید

Practical Deep Learning at Scale with MLflow: Bridge the gap between offline experimentation and online production

مشخصات کتاب

Practical Deep Learning at Scale with MLflow: Bridge the gap between offline experimentation and online production

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1803241330, 9781803241333 
ناشر: Packt Publishing 
سال نشر: 2022 
تعداد صفحات: 288 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 8 Mb 

قیمت کتاب (تومان) : 50,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 6


در صورت تبدیل فایل کتاب Practical Deep Learning at Scale with MLflow: Bridge the gap between offline experimentation and online production به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری عمیق عملی در مقیاس با MLflow: شکاف بین آزمایش آفلاین و تولید آنلاین را پر کنید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری عمیق عملی در مقیاس با MLflow: شکاف بین آزمایش آفلاین و تولید آنلاین را پر کنید



آموزش، آزمایش، اجرا، ردیابی، ذخیره، تنظیم، استقرار و توضیح مدل‌ها و خطوط لوله یادگیری عمیق آگاه از منشأ در مقیاس با قابلیت تکرارپذیری با استفاده از MLflow

ویژگی های کلیدی

  • تمرکز بر مدل های یادگیری عمیق و MLflow برای توسعه راه حل های عملی هوش مصنوعی تجاری در مقیاس
  • < li>ارسال خطوط لوله یادگیری عمیق از آزمایش تا تولید با ردیابی منشأ
  • آموزش، اجرا، تنظیم و استقرار عمیق آموزش خطوط لوله با قابلیت توضیح و تکرارپذیری

توضیحات کتاب

کتاب با یک نمای کلی شروع می شود از چرخه زندگی یادگیری عمیق (DL) و زمینه نوظهور عملیات یادگیری ماشین (MLOps)، تصویر روشنی از چهار ستون یادگیری عمیق ارائه می‌کند: داده، مدل، کد، و توضیح‌پذیری و نقش MLflow در این زمینه‌ها. /span>

از آنجا به بعد، گام به گام شما را در درک مفهوم آزمایش‌های MLflow و الگوهای استفاده، با استفاده از MLflow به عنوان یک چارچوب یکپارچه برای ردیابی داده‌های DL، کد و خطوط لوله، مدل‌ها راهنمایی می‌کند. ، پارامترها و معیارها در مقیاس. شما همچنین با اجرای خطوط لوله DL در یک محیط اجرای توزیع شده با قابلیت تکرار و ردیابی منشأ، و تنظیم مدل های DL از طریق بهینه سازی هایپرپارامتر (HPO) با Ray Tune، Optuna و HyperBand مقابله خواهید کرد. همانطور که پیشرفت می کنید، یاد می گیرید که چگونه یک خط لوله استنتاج DL چند مرحله ای با مراحل پیش پردازش و پس پردازش بسازید، یک خط لوله استنتاج DL را برای تولید با استفاده از Ray Serve و AWS SageMaker مستقر کنید و در نهایت توضیح DL را به عنوان یک سرویس (EaaS) ایجاد کنید. با استفاده از جعبه ابزار محبوب Shapley Additive Explanations (SHAP).

در پایان این کتاب، پایه و اساس را ساخته اید و تجربه عملی مورد نیاز برای توسعه را به دست خواهید آورد. یک راه حل خط لوله DL از آزمایش اولیه آفلاین تا استقرار و تولید نهایی، همه در یک چارچوب قابل تکرار و منبع باز.

آنچه خواهید آموخت

< ul>
  • درک MLO ها و توسعه چرخه زندگی یادگیری عمیق
    • ردیابی مدل های یادگیری عمیق، کد، داده ها، پارامترها ، و معیارها
    • خط لوله های مدل یادگیری عمیق را در هر کجا بسازید، استقرار دهید و اجرا کنید
    • اجرای بهینه سازی هایپرپارامتر در مقیاس برای تنظیم مدل های یادگیری عمیق
    • خطوط استنتاج یادگیری عمیق چند مرحله ای درجه تولید بسازید
    • span>
    • پیاده سازی قابلیت توضیح یادگیری عمیق مقیاس پذیر به عنوان یک سرویس
    • استقرار عمیق یادگیری خدمات استنتاج دسته ای و جریانی
    • ارسال راه حل های عملی NLP از آزمایش تا تولید

    این کتاب برای چه کسی است

    این کتاب برای متخصصان یادگیری ماشین از جمله دانشمندان داده، مهندسان داده، مهندسان ML و دانشمندانی است که می‌خواهند مقیاس‌پذیر بسازند. خطوط لوله یادگیری عمیق چرخه زندگی کامل با قابلیت تکرارپذیری و ردیابی منشأ با استفاده از MLflow. درک پایه ای از علم داده و یادگیری ماشین برای درک مفاهیم ارائه شده در این کتاب ضروری است.

    فهرست محتوا

    1. چرخه زندگی یادگیری عمیق و چالش‌های MLOps
    2. شروع با MLflow برای یادگیری عمیق
    3. مدل‌ها، پارامترها و معیارهای ردیابی
    4. کد ردیابی و نسخه‌سازی داده
    5. اجرای خطوط لوله DL در محیط های مختلف
    6. تنظیم فراپارامتر در مقیاس در حال اجرا< /span>
    7. خط استنتاج یادگیری عمیق چند مرحله ای
    8. استقرار یک خط لوله استنتاج DL در مقیاس
    9. مبانی توضیح‌پذیری یادگیری عمیق
    10. < span>پیاده سازی قابلیت توضیح DL با MLflow

  • توضیحاتی درمورد کتاب به خارجی

    Train, test, run, track, store, tune, deploy, and explain provenance-aware deep learning models and pipelines at scale with reproducibility using MLflow

    Key Features

    • Focus on deep learning models and MLflow to develop practical business AI solutions at scale
    • Ship deep learning pipelines from experimentation to production with provenance tracking
    • Learn to train, run, tune and deploy deep learning pipelines with explainability and reproducibility

    Book Description

    The book starts with an overview of the deep learning (DL) life cycle and the emerging Machine Learning Ops (MLOps) field, providing a clear picture of the four pillars of deep learning: data, model, code, and explainability and the role of MLflow in these areas.

    From there onward, it guides you step by step in understanding the concept of MLflow experiments and usage patterns, using MLflow as a unified framework to track DL data, code and pipelines, models, parameters, and metrics at scale. You'll also tackle running DL pipelines in a distributed execution environment with reproducibility and provenance tracking, and tuning DL models through hyperparameter optimization (HPO) with Ray Tune, Optuna, and HyperBand. As you progress, you'll learn how to build a multi-step DL inference pipeline with preprocessing and postprocessing steps, deploy a DL inference pipeline for production using Ray Serve and AWS SageMaker, and finally create a DL explanation as a service (EaaS) using the popular Shapley Additive Explanations (SHAP) toolbox.

    By the end of this book, you'll have built the foundation and gained the hands-on experience you need to develop a DL pipeline solution from initial offline experimentation to final deployment and production, all within a reproducible and open source framework.

    What you will learn

    • Understand MLOps and deep learning life cycle development
    • Track deep learning models, code, data, parameters, and metrics
    • Build, deploy, and run deep learning model pipelines anywhere
    • Run hyperparameter optimization at scale to tune deep learning models
    • Build production-grade multi-step deep learning inference pipelines
    • Implement scalable deep learning explainability as a service
    • Deploy deep learning batch and streaming inference services
    • Ship practical NLP solutions from experimentation to production

    Who this book is for

    This book is for machine learning practitioners including data scientists, data engineers, ML engineers, and scientists who want to build scalable full life cycle deep learning pipelines with reproducibility and provenance tracking using MLflow. A basic understanding of data science and machine learning is necessary to grasp the concepts presented in this book.

    Table of Contents

    1. Deep Learning Life Cycle and MLOps Challenges
    2. Getting Started with MLflow for Deep Learning
    3. Tracking Models, Parameters, and Metrics
    4. Tracking Code and Data Versioning
    5. Running DL Pipelines in Different Environments
    6. Running Hyperparameter Tuning at Scale
    7. Multi-Step Deep Learning Inference Pipeline
    8. Deploying a DL Inference Pipeline at Scale
    9. Fundamentals of Deep Learning Explainability
    10. Implementing DL Explainability with MLflow


    فهرست مطالب

    Practical Deep Learning at Scale with MLflow
    Foreword
    Contributors
    About the author
    About the reviewers
    Preface
    	Who this book is for
    	What this book covers
    	To get the most out of this book
    	Download the example code files
    	Download the color images
    	Conventions used
    	Get in touch
    	Share Your Thoughts
    Section 1 - Deep Learning Challenges and MLflow Prime
    Chapter 1: Deep Learning Life Cycle and MLOps Challenges
    	Technical requirements
    	Understanding the DL life cycle and MLOps challenges
    		Implementing a basic DL sentiment classifier
    		Understanding DL's full life cycle development
    		Understanding MLOps challenges
    	Understanding DL data challenges
    	Understanding DL model challenges
    	Understanding DL code challenges
    	Understanding DL explainability challenges
    	Summary
    	Further reading
    Chapter 2: Getting Started with MLflow for Deep Learning
    	Technical requirements
    	Setting up MLflow
    		Setting up MLflow locally using miniconda
    		Setting up MLflow to interact with a remote MLflow server
    	Implementing our first DL experiment with MLflow autologging
    	Exploring MLflow's components and usage patterns
    		Exploring experiments and runs in MLflow
    		Exploring MLflow models and their usages
    		Exploring MLflow code tracking and its usages
    	Summary
    	Further reading
    Section 2 – Tracking a Deep Learning Pipeline at Scale
    Chapter 3: Tracking Models, Parameters, and Metrics
    	Technical requirements
    	Setting up a full-fledged local MLflow tracking server
    	Tracking model provenance
    		Understanding the open provenance tracking framework
    		Implementing MLflow model tracking
    	Tracking model metrics
    	Tracking model parameters
    	Summary
    	Further reading
    Chapter 4: Tracking Code and Data Versioning
    	Technical requirements
    	Tracking notebook and pipeline versioning
    		Pipeline tracking
    	Tracking locally, privately built Python libraries
    	Tracking data versioning in Delta Lake
    		An example of tracking data using MLflow
    	Summary
    	Further reading
    Section 3 – Running Deep Learning Pipelines at Scale
    Chapter 5: Running DL Pipelines in Different Environments
    	Technical requirements
    	An overview of different execution scenarios and environments
    	Running locally with local code
    	Running remote code in GitHub locally
    	Running local code remotely in the cloud
    	Running remotely in the cloud with remote code in GitHub
    	Summary
    	Further reading
    Chapter 6: Running Hyperparameter Tuning at Scale
    	Technical requirements
    	Understanding automatic HPO for DL pipelines
    		Types of hyperparameters and their challenges
    		How HPO works and which ones to choose
    	Creating HPO-ready DL models with Ray Tune and MLflow
    		Setting up Ray Tune and MLflow
    		Creating the Ray Tune trainable for the DL model
    		Creating the Ray Tune HPO run function
    	Running the first Ray Tune HPO experiment with MLflow
    	Running HPO with Ray Tune using Optuna and HyperBand
    	Summary
    	Further reading
    Section 4 – Deploying a Deep Learning Pipeline at Scale
    Chapter 7: Multi-Step Deep Learning Inference Pipeline
    	Technical requirements
    	Understanding patterns of DL inference pipelines
    		Understanding the MLflow Model Python Function API
    	Implementing a custom MLflow Python model
    	Implementing preprocessing and postprocessing steps in a DL inference pipeline
    		Implementing language detection preprocessing logic
    		Implementing caching preprocessing and postprocessing logic
    		Implementing response composition postprocessing logic
    	Implementing an inference pipeline as a new entry point in the main MLproject
    	Summary
    	Further reading
    Chapter 8: Deploying a DL Inference Pipeline at Scale
    	Technical requirements
    	Understanding different deployment tools and host environments
    	Deploying locally for batch and web service inference
    		Batch inference
    		Model as a web service
    	Deploying using Ray Serve and MLflow deployment plugins
    	Deploying to AWS SageMaker – a complete end-to-end guide
    		Step 1: Build a local SageMaker Docker image
    		Step 2: Add additional model artifacts layers onto the SageMaker Docker image
    		Step 3: Test local deployment with the newly built SageMaker Docker image
    		Step 4: Push the SageMaker Docker image to AWS Elastic Container Registry
    		Step 5: Deploy the inference pipeline model to create a SageMaker endpoint
    		Step 6: Query the SageMaker endpoint for online inference
    	Summary
    	Further reading
    Section 5 – Deep Learning Model Explainability at Scale
    Chapter 9: Fundamentals of Deep Learning Explainability
    	Technical requirements
    	Understanding the categories and audience of explainability
    		Audience: who needs to know
    		Stage: when to provide an explanation in the DL life cycle
    		Scope: which prediction needs explanation
    		Input data format: what is the format of the input data
    		Output data format: what is the format of the output explanation
    		Problem type: what is the machine learning problem type
    		Objectives type: what is the motivation or goal to explain
    		Method type: what is the specific post-hoc explanation method used
    	Exploring the SHAP Explainability toolbox
    	Exploring the Transformers Interpret toolbox
    	Summary
    	Further reading
    Chapter 10: Implementing DL Explainability with MLflow
    	Technical requirements
    	Understanding current MLflow explainability integration
    	Implementing a SHAP explanation using the MLflow artifact logging API
    	Implementing a SHAP explainer using the MLflow pyfunc API
    		Creating and logging an MLflow pyfunc explainer
    		Deploying an MLflow pyfunc explainer for an EaaS
    		Using an MLflow pyfunc explainer for batch explanation
    	Summary
    	Further reading
    	Why subscribe?
    Other Books You May Enjoy
    	Packt is searching for authors like you
    	Share Your Thoughts




    نظرات کاربران