ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Distributed Machine Learning with Python: Accelerating model training and serving with distributed systems

دانلود کتاب یادگیری ماشینی توزیع شده با پایتون: تسریع آموزش مدل و ارائه خدمات با سیستم های توزیع شده

Distributed Machine Learning with Python: Accelerating model training and serving with distributed systems

مشخصات کتاب

Distributed Machine Learning with Python: Accelerating model training and serving with distributed systems

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9781801815697 
ناشر:  
سال نشر: 2022 
تعداد صفحات: 284 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 Mb 

قیمت کتاب (تومان) : 38,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Distributed Machine Learning with Python: Accelerating model training and serving with distributed systems به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری ماشینی توزیع شده با پایتون: تسریع آموزش مدل و ارائه خدمات با سیستم های توزیع شده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری ماشینی توزیع شده با پایتون: تسریع آموزش مدل و ارائه خدمات با سیستم های توزیع شده

ایجاد و استقرار یک خط لوله پردازش داده کارآمد برای آموزش مدل یادگیری ماشین در یک آموزش مدل الاستیک، موازی یا خوشه و ابر چند مستاجر ویژگی‌های کلیدی: تسریع آموزش مدل و تداخل با کاهش زمان مرتبه‌ای یادگیری وضعیت طرح‌های موازی هنر هم برای آموزش مدل و هم برای سرویس‌دهی مطالعه دقیق تنگناها در مراحل آموزش مدل توزیع شده و ارائه توضیحات کتاب: کاهش هزینه زمان در یادگیری ماشین منجر به زمان انتظار کوتاه‌تر برای آموزش مدل و چرخه به‌روزرسانی مدل سریع‌تر می‌شود. یادگیری ماشینی توزیع شده به متخصصان یادگیری ماشینی این امکان را می‌دهد که آموزش مدل و زمان استنتاج را با مرتبه‌ای بزرگ کوتاه کنند. با کمک این راهنمای عملی، می‌توانید دانش توسعه پایتون خود را برای راه‌اندازی و اجرای یادگیری ماشینی توزیع‌شده، از جمله سیستم‌های یادگیری ماشین چند گره‌ای، در کمترین زمان به کار ببرید. شما با بررسی نحوه عملکرد سیستم های توزیع شده در حوزه یادگیری ماشین و نحوه اعمال یادگیری ماشینی توزیع شده در مدل های پیشرفته یادگیری عمیق شروع خواهید کرد. همانطور که پیش می روید، نحوه استفاده از سیستم های توزیع شده را برای افزایش آموزش مدل یادگیری ماشین و سرعت ارائه خواهید دید. همچنین قبل از بهینه سازی آموزش مدل موازی و خط لوله سرویس دهی در خوشه های محلی یا محیط های ابری، با استفاده از روش های موازی داده و مدل موازی آشنا خواهید شد. در پایان این کتاب، دانش و مهارت های مورد نیاز برای ایجاد و استقرار یک خط لوله پردازش داده کارآمد برای آموزش مدل یادگیری ماشین و استنتاج به شیوه ای توزیع شده را به دست خواهید آورد. آنچه یاد خواهید گرفت: استقرار آموزش مدل توزیع شده و خطوط لوله سرویس دهی با ویژگی های پیشرفته در تنگناهای سیستم TensorFlow و PyTorch Mitigate در طول آموزش مدل موازی و سرویس دهی کشف آخرین تکنیک ها در بالای الگوی موازی کلاسیک کاوش ویژگی های پیشرفته در Megatron- LM و Mesh-TensorFlow از سخت‌افزارهای پیشرفته مانند NVLink، NVSwitch و GPU استفاده می‌کنند. این کتاب برای چه کسانی است: این کتاب برای دانشمندان داده، مهندسین یادگیری ماشین، و متخصصان ML در دانشگاه و صنعت است. یک درک اساسی از مفاهیم یادگیری ماشین و دانش کاری برنامه نویسی پایتون فرض شده است. تجربه قبلی پیاده سازی مدل های ML/DL با TensorFlow یا PyTorch مفید خواهد بود. اگر علاقه مند به استفاده از سیستم های توزیع شده برای تقویت آموزش مدل یادگیری ماشینی و سرعت سرویس دهی هستید، این کتاب برای شما مفید خواهد بود.


توضیحاتی درمورد کتاب به خارجی

Build and deploy an efficient data processing pipeline for machine learning model training in an elastic, in-parallel model training or multi-tenant cluster and cloud Key Features: Accelerate model training and interference with order-of-magnitude time reduction Learn state-of-the-art parallel schemes for both model training and serving A detailed study of bottlenecks at distributed model training and serving stages Book Description: Reducing time cost in machine learning leads to a shorter waiting time for model training and a faster model updating cycle. Distributed machine learning enables machine learning practitioners to shorten model training and inference time by orders of magnitude. With the help of this practical guide, you'll be able to put your Python development knowledge to work to get up and running with the implementation of distributed machine learning, including multi-node machine learning systems, in no time. You'll begin by exploring how distributed systems work in the machine learning area and how distributed machine learning is applied to state-of-the-art deep learning models. As you advance, you'll see how to use distributed systems to enhance machine learning model training and serving speed. You'll also get to grips with applying data parallel and model parallel approaches before optimizing the in-parallel model training and serving pipeline in local clusters or cloud environments. By the end of this book, you'll have gained the knowledge and skills needed to build and deploy an efficient data processing pipeline for machine learning model training and inference in a distributed manner. What You Will Learn: Deploy distributed model training and serving pipelines Get to grips with the advanced features in TensorFlow and PyTorch Mitigate system bottlenecks during in-parallel model training and serving Discover the latest techniques on top of classical parallelism paradigm Explore advanced features in Megatron-LM and Mesh-TensorFlow Use state-of-the-art hardware such as NVLink, NVSwitch, and GPUs Who this book is for: This book is for data scientists, machine learning engineers, and ML practitioners in both academia and industry. A fundamental understanding of machine learning concepts and working knowledge of Python programming is assumed. Prior experience implementing ML/DL models with TensorFlow or PyTorch will be beneficial. You'll find this book useful if you are interested in using distributed systems to boost machine learning model training and serving speed.



فهرست مطالب

Title page
Copyright and Credits
Dedication
Contributors
Table of Contents
Preface
Section 1 – Data Parallelism
Chapter 1: Splitting Input Data
	Single-node training is too slow
		The mismatch between data loading bandwidth and model training bandwidth
		Single-node training time on popular datasets
		Accelerating the training process with data parallelism
	Data parallelism – the high-level bits
		Stochastic gradient descent
		Model synchronization
	Hyperparameter tuning
		Global batch size
		Learning rate adjustment
		Model synchronization schemes
	Summary
Chapter 2: Parameter Server and All-Reduce
	Technical requirements
	Parameter server architecture
		Communication bottleneck in the parameter server architecture
		Sharding the model among parameter servers
	Implementing the parameter server
		Defining model layers
		Defining the parameter server
		Defining the worker
		Passing data between the parameter server and worker
	Issues with the parameter server
		The parameter server architecture introduces a high coding complexity for practitioners
	All-Reduce architecture
		Reduce
		All-Reduce
		Ring All-Reduce
	Collective communication
		Broadcast
		Gather
		All-Gather
	Summary
Chapter 3: Building a Data Parallel Training and Serving Pipeline
	Technical requirements
	The data parallel training pipeline in a nutshell
		Input pre-processing
		Input data partition
		Data loading
		Training
		Model synchronization
		Model update
	Single-machine multi-GPUs and multi-machine multi-GPUs
		Single-machine multi-GPU
		Multi-machine multi-GPU
	Checkpointing and fault tolerance
		Model checkpointing
		Load model checkpoints
	Model evaluation and hyperparameter tuning
	Model serving in data parallelism
	Summary
Chapter 4: Bottlenecks and Solutions
	Communication bottlenecks in data parallel training
		Analyzing the communication workloads
		Parameter server architecture
		The All-Reduce architecture
		The inefficiency of state-of-the-art communication schemes
	Leveraging idle links and host resources
		Tree All-Reduce
		Hybrid data transfer over PCIe and NVLink
	On-device memory bottlenecks
	Recomputation and quantization
		Recomputation
		Quantization
	Summary
Section 2 – Model Parallelism
Chapter 5: Splitting the Model
	Technical requirements
	Single-node training error – out of memory
		Fine-tuning BERT on a single GPU
		Trying to pack a giant model inside one state-of-the-art GPU
	ELMo, BERT, and GPT
		Basic concepts
		RNN
		ELMo
		BERT
		GPT
	Pre-training and fine-tuning
	State-of-the-art hardware
		P100, V100, and DGX-1
		NVLink
		A100 and DGX-2
		NVSwitch
	Summary
Chapter 6: Pipeline Input and Layer Split
	Vanilla model parallelism is inefficient
		Forward propagation
		Backward propagation
		GPU idle time between forward and backward propagation
	Pipeline input
	Pros and cons of pipeline parallelism
		Advantages of pipeline parallelism
		Disadvantages of pipeline parallelism
	Layer split
	Notes on intra-layer model parallelism
	Summary
Chapter 7: Implementing Model Parallel Training and Serving Workflows
	Technical requirements
	Wrapping up the whole model parallelism pipeline
		A model parallel training overview
		Implementing a model parallel training pipeline
		Specifying communication protocol among GPUs
		Model parallel serving
	Fine-tuning transformers
	Hyperparameter tuning in model parallelism
		Balancing the workload among GPUs
		Enabling/disabling pipeline parallelism
	NLP model serving
	Summary
Chapter 8: Achieving Higher Throughput and Lower Latency
	Technical requirements
	Freezing layers
		Freezing layers during forward propagation
		Reducing computation cost during forward propagation
		Freezing layers during backward propagation
	Exploring memory and storage resources
	Understanding model decomposition and distillation
		Model decomposition
		Model distillation
	Reducing bits in hardware
	Summary
Section 3 – Advanced Parallelism Paradigms
Chapter 9: Hybrid of Data and Model Parallelism
	Technical requirements
	Case study of Megatron-LM
		Layer split for model parallelism
		Row-wise trial-and-error approach
		Column-wise trial-and-error approach
		Cross-machine for data parallelism
	Implementation of Megatron-LM
	Case study of Mesh-TensorFlow
	Implementation of Mesh-TensorFlow
	Pros and cons of Megatron-LM and Mesh-TensorFlow
	Summary
Chapter 10: Federated Learning and Edge Devices
	Technical requirements
	Sharing knowledge without sharing data
		Recapping the traditional data parallel model training paradigm
		No input sharing among workers
		Communicating gradients for collaborative learning
	Case study: TensorFlow Federated
	Running edge devices with TinyML
	Case study: TensorFlow Lite
	Summary
Chapter 11: Elastic Model Training and Serving
	Technical requirements
	Introducing adaptive model training
		Traditional data parallel training
		Adaptive model training in data parallelism
		Adaptive model training (AllReduce-based)
		Adaptive model training (parameter server-based)
		Traditional model-parallel model training paradigm
		Adaptive model training in model parallelism
	Implementing adaptive model training in the cloud
	Elasticity in model inference
		Serverless
	Summary
Chapter 12: Advanced Techniques for Further Speed-Ups
	Technical requirements
	Debugging and performance analytics
		General concepts in the profiling results
		Communication results analysis
		Computation results analysis
	Job migration and multiplexing
		Job migration
		Job multiplexing
	Model training in a heterogeneous environment
	Summary
Index
About Packt
Other Books You May Enjoy




نظرات کاربران