ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Alternating Direction Method of Multipliers for Machine Learning

دانلود کتاب روش جهت متناوب ضرایب برای یادگیری ماشین

Alternating Direction Method of Multipliers for Machine Learning

مشخصات کتاب

Alternating Direction Method of Multipliers for Machine Learning

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 9789811698392, 9789811698408 
ناشر: Springer 
سال نشر: 2022 
تعداد صفحات: [274] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 Mb 

قیمت کتاب (تومان) : 47,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 7


در صورت تبدیل فایل کتاب Alternating Direction Method of Multipliers for Machine Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب روش جهت متناوب ضرایب برای یادگیری ماشین نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب روش جهت متناوب ضرایب برای یادگیری ماشین

یادگیری ماشینی برای حل مدل های یادگیری خود به شدت به الگوریتم های بهینه سازی متکی است. مسائل محدود یک نوع اصلی از مسائل بهینه‌سازی را تشکیل می‌دهند و روش جهت متناوب ضرب‌کننده‌ها (ADMM) یک الگوریتم متداول برای حل مسائل محدود، به‌ویژه مشکلات خطی محدود است. این کتاب که توسط متخصصان یادگیری ماشین و بهینه‌سازی نوشته شده است، اولین کتابی است که بررسی پیشرفته‌ای را در مورد ADMM تحت سناریوهای مختلف از جمله بهینه‌سازی قطعی و محدب، بهینه‌سازی غیر محدب، بهینه‌سازی تصادفی و بهینه‌سازی توزیع شده ارائه می‌کند. این کتاب با ارائه ترکیبی غنی از ایده ها، نظریه ها و شواهد، به روز و مستقل است. این یک کتاب مرجع عالی برای کاربرانی است که به دنبال یک الگوریتم نسبتاً جهانی برای مشکلات محدود هستند. دانشجویان فارغ التحصیل یا محققین می توانند آن را بخوانند تا مرزهای ADMM در یادگیری ماشین را در مدت زمان کوتاهی درک کنند.


توضیحاتی درمورد کتاب به خارجی

Machine learning heavily relies on optimization algorithms to solve its learning models. Constrained problems constitute a major type of optimization problem, and the alternating direction method of multipliers (ADMM) is a commonly used algorithm to solve constrained problems, especially linearly constrained ones. Written by experts in machine learning and optimization, this is the first book providing a state-of-the-art review on ADMM under various scenarios, including deterministic and convex optimization, nonconvex optimization, stochastic optimization, and distributed optimization. Offering a rich blend of ideas, theories and proofs, the book is up-to-date and self-contained. It is an excellent reference book for users who are seeking a relatively universal algorithm for constrained problems. Graduate students or researchers can read it to grasp the frontiers of ADMM in machine learning in a short period of time.



فهرست مطالب

Foreword
Foreword
Preface
Acknowledgments
About the Book
Contents
Acronyms
1 Introduction
	1.1 Examples of Constrained Optimization Problems in Machine Learning
	1.2 Sketch of Representative Works on ADMM
	References
2 Derivations of ADMM
	2.1 Lagrangian Viewpoint of ADMM
		2.1.1 Dual Ascent
		2.1.2 Augmented Lagrangian Method
		2.1.3 Alternating Direction Method of Multipliers
		2.1.4 Relation to the Split Bregman Method
	2.2 Operator Splitting Viewpoint of ADMM
		2.2.1 Douglas–Rachford splitting
		2.2.2 From DRS to ADMM
	References
3 ADMM for Deterministic and Convex Optimization
	3.1 Original ADMM
		3.1.1 Convergence Analysis
		3.1.2 Sublinear Convergence Rate
			3.1.2.1 Non-ergodic Convergence Rate
			3.1.2.2 Ergodic Convergence Rate
		3.1.3 Linear Convergence Rate
			3.1.3.1 Linear Convergence Under the Strong Convexity and Smoothness Assumption
			3.1.3.2 Linear Convergence Under the Error Bound Condition
	3.2 Bregman ADMM
		3.2.1 Sublinear Convergence
			3.2.1.1 Ergodic Convergence Rate
			3.2.1.2 Non-ergodic Convergence Rate
		3.2.2 Linear Convergence
	3.3 Accelerated Linearized ADMM
		3.3.1 Sublinear Convergence Rate
		3.3.2 Linear Convergence Rate
	3.4 Special Case: Linearized Augmented Lagrangian Method and Its Acceleration
	3.5 Multi-block ADMM
		3.5.1 Gaussian Back Substitution
		3.5.2 Prediction-Correction
		3.5.3 Linearized ADMM with Parallel Splitting
		3.5.4 Combining the Serial and the Parallel Update Orders
	3.6 Variational Inequality Perspective
		3.6.1 Unified Framework in Variational Inequality
		3.6.2 Unified Convergence Rate Analysis
	3.7 The Case of Nonlinear Constraints
	References
4 ADMM for Nonconvex Optimization
	4.1 Multi-block Bregman ADMM
		4.1.1 With More Assumptions on the Objectives
	4.2 Proximal ADMM with Exponential Averaging
	4.3 ADMM for Multilinearly Constrained Optimization
	References
5 ADMM for Stochastic Optimization
	5.1 Stochastic ADMM
	5.2 Variance Reduction
	5.3 Momentum Acceleration
	5.4 Nonconvex Stochastic ADMM and Its Acceleration
		5.4.1 Nonconvex SADMM
		5.4.2 SPIDER Acceleration
	References
6 ADMM for Distributed Optimization
	6.1 Centralized Optimization
		6.1.1 ADMM
		6.1.2 Linearized ADMM
		6.1.3 Accelerated Linearized ADMM
	6.2 Decentralized Optimization
		6.2.1 ADMM
			6.2.1.1 Convergence Analysis
		6.2.2 Linearized ADMM
		6.2.3 Accelerated Linearized ADMM
	6.3 Asynchronous Distributed ADMM
		6.3.1 Convergence
		6.3.2 Linear Convergence Rate
	6.4 Nonconvex Distributed ADMM
	6.5 ADMM with Generally Linear Constraints
	References
7 Practical Issues and Conclusions
	7.1 Practical Issues
		7.1.1 Stopping Criterion
		7.1.2 Choice of Penalty Parameters
		7.1.3 Avoiding Excessive Auxiliary Variables
		7.1.4 Solving Subproblems Inexactly
		7.1.5 Other Considerations
	7.2 Conclusions
	References
A Mathematical Preliminaries
	A.1 Notations
	A.2 Algebra and Probability
	A.3 Convex Analysis
	A.4 Nonconvex Analysis
	References
Index




نظرات کاربران