ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Distributed Machine Learning and Gradient Optimization

دانلود کتاب یادگیری ماشین توزیع شده و بهینه سازی گرادیان

Distributed Machine Learning and Gradient Optimization

مشخصات کتاب

Distributed Machine Learning and Gradient Optimization

ویرایش:  
نویسندگان: , ,   
سری: Big Data Management 
ISBN (شابک) : 981163419X, 9789811634192 
ناشر: Springer 
سال نشر: 2022 
تعداد صفحات: 178 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 Mb 

قیمت کتاب (تومان) : 39,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 2


در صورت تبدیل فایل کتاب Distributed Machine Learning and Gradient Optimization به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری ماشین توزیع شده و بهینه سازی گرادیان نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری ماشین توزیع شده و بهینه سازی گرادیان



این کتاب وضعیت هنر را در الگوریتم‌های یادگیری ماشین توزیع‌شده ارائه می‌کند که بر اساس روش‌های بهینه‌سازی گرادیان است. در عصر کلان داده، مجموعه داده‌های در مقیاس بزرگ چالش‌های بزرگی را برای سیستم‌های یادگیری ماشین موجود ایجاد می‌کنند. به این ترتیب، پیاده‌سازی الگوریتم‌های یادگیری ماشین در یک محیط توزیع‌شده به یک فناوری کلیدی تبدیل شده است و تحقیقات اخیر نشان داده است که بهینه‌سازی تکراری مبتنی بر گرادیان یک راه‌حل مؤثر است. این کتاب با تمرکز بر روش‌هایی که می‌توانند بهینه‌سازی گرادیان در مقیاس بزرگ را از طریق بهینه‌سازی الگوریتم و پیاده‌سازی دقیق سیستم سرعت بخشند، سه تکنیک ضروری را در طراحی یک الگوریتم بهینه‌سازی گرادیان برای آموزش مدل یادگیری ماشینی توزیع‌شده معرفی می‌کند: استراتژی موازی، فشرده‌سازی داده و پروتکل همگام‌سازی.

که به سبک آموزشی نوشته شده است، طیفی از موضوعات، از دانش بنیادی گرفته تا تعدادی از الگوریتم‌ها و سیستم‌های یادگیری ماشینی توزیع شده را که با دقت طراحی شده‌اند، پوشش می‌دهد. این برای مخاطبان وسیعی در زمینه یادگیری ماشین، هوش مصنوعی، کلان داده و مدیریت پایگاه داده جذاب خواهد بود.



توضیحاتی درمورد کتاب به خارجی

This book presents the state of the art in distributed machine learning algorithms that are based on gradient optimization methods. In the big data era, large-scale datasets pose enormous challenges for the existing machine learning systems. As such, implementing machine learning algorithms in a distributed environment has become a key technology, and recent research has shown gradient-based iterative optimization to be an effective solution. Focusing on methods that can speed up large-scale gradient optimization through both algorithm optimizations and careful system implementations, the book introduces three essential techniques in designing a gradient optimization algorithm to train a distributed machine learning model: parallel strategy, data compression and synchronization protocol.

Written in a tutorial style, it covers a range of topics, from fundamental knowledge to a number of carefully designed algorithms and systems of distributed machine learning. It will appeal to a broad audience in the field of machine learning, artificial intelligence, big data and database management.




فهرست مطالب

Preface
Acknowledgments
Contents
Acronyms
1 Introduction
	1.1 Background
		1.1.1 Methodology of Machine Learning
		1.1.2 Machine Learning Meets Big Data
	1.2 Distributed Machine Learning
	1.3 Gradient Optimization
		1.3.1 First-Order Gradient Optimization Algorithms
			1.3.1.1 Batch Gradient Descent
			1.3.1.2 Stochastic Gradient Descent
			1.3.1.3 Minibatch Gradient Descent
		1.3.2 Serial Gradient Optimization
		1.3.3 Distributed Gradient Optimization
	1.4 Open Problems
	References
2 Basics of Distributed Machine Learning
	2.1 Anatomy of Distributed Machine Learning
	2.2 Parallelism
		2.2.1 Data Parallelism
			2.2.1.1 Horizontal Partitioning
			2.2.1.2 Vertical Partitioning
		2.2.2 Model Parallelism
		2.2.3 Hybrid Parallelism
	2.3 Parameter Sharing
		2.3.1 Shared-Nothing
			2.3.1.1 Message Passing Interface
			2.3.1.2 Remote Procedure Call
			2.3.1.3 MapReduce
		2.3.2 Shared-Memory
	2.4 Synchronization
		2.4.1 Bulk Synchronous Protocol
		2.4.2 Asynchronous Protocol
		2.4.3 Stale Synchronous Protocol
	2.5 Communication Optimization
		2.5.1 Lower Numerical Precision
		2.5.2 Communication Compression
			2.5.2.1 Lossless Compression for Integer Numbers
			2.5.2.2 Lossless Compression for Sparse Matrices
			2.5.2.3 Lossy Compression for Floating-point Numbers
	References
3 Distributed Gradient Optimization Algorithms
	3.1 Linear Models
		3.1.1 Formalization of Linear Models
		3.1.2 Overview of Popular Linear Models
		3.1.3 Single-Node Gradient Optimization
			3.1.3.1 Serial Gradient Optimization
			3.1.3.2 Single-Node Parallel Gradient Optimization
		3.1.4 Distributed Gradient Optimization
			3.1.4.1 MR-BSP-SGD
			3.1.4.2 MR-MA-SGD
			3.1.4.3 PS-BSP-SGD
			3.1.4.4 PS-SSP-SGD
			3.1.4.5 Column-SGD
			3.1.4.6 Other Related works
	3.2 Neural Network Models
		3.2.1 Formalization of Neural Network
			3.2.1.1 Model Definition
			3.2.1.2 Back-Propagation
		3.2.2 Overview of Popular Neural Network Models
			3.2.2.1 AutoEncoder
			3.2.2.2 Deep Belief Network
			3.2.2.3 Convolutional Neural Network
			3.2.2.4 Recurrent Neural Network
			3.2.2.5 Other Neural Networks
		3.2.3 Distributed Gradient Optimization
			3.2.3.1 PS-ASP-SGD
			3.2.3.2 Decentralized-PSGD
			3.2.3.3 Decentralized-ASP-SGD
			3.2.3.4 QSGD
			3.2.3.5 Sparsification-SGD
			3.2.3.6 Model-Parallel SGD
	3.3 Gradient Boosting Decision Tree
		3.3.1 Formalization of Gradient Boosting Decision Tree
		3.3.2 Distributed Gradient Optimization
	References
4 Distributed Machine Learning Systems
	4.1 General Machine Learning Systems
		4.1.1 MapReduce Systems
		4.1.2 Parameter Server Systems
	4.2 Specialized Machine Learning Systems
	4.3 Deep Learning Systems
	4.4 Cloud Machine Learning Systems
		4.4.1 Geo-Distributed Systems
		4.4.2 Serverless Systems
	4.5 In-Database Machine Learning Systems
	References
5 Conclusion
	5.1 Summary of the Book
	5.2 Further Reading
	References




نظرات کاربران