ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Accelerated Optimization for Machine Learning: First-Order Algorithms

دانلود کتاب بهینه سازی تسریع شده برای یادگیری ماشین: الگوریتم های مرتبه اول

Accelerated Optimization for Machine Learning: First-Order Algorithms

مشخصات کتاب

Accelerated Optimization for Machine Learning: First-Order Algorithms

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 9811529094, 9789811529092 
ناشر: Springer 
سال نشر: 2020 
تعداد صفحات: 273
[286] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 Mb 

قیمت کتاب (تومان) : 59,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Accelerated Optimization for Machine Learning: First-Order Algorithms به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب بهینه سازی تسریع شده برای یادگیری ماشین: الگوریتم های مرتبه اول نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب بهینه سازی تسریع شده برای یادگیری ماشین: الگوریتم های مرتبه اول

این کتاب در مورد بهینه سازی شامل پیشگفتارهای Michael I. Jordan، Zongben Xu و Zhi-Quan Luo می باشد. یادگیری ماشینی برای حل مشکلات مدل‌های یادگیری خود به شدت به بهینه‌سازی متکی است و الگوریتم‌های بهینه‌سازی مرتبه اول رویکردهای اصلی هستند. تسریع الگوریتم های بهینه سازی مرتبه اول برای کارایی یادگیری ماشین بسیار مهم است. این کتاب که توسط متخصصان برجسته در این زمینه نوشته شده است، مقدمه ای جامع و بررسی پیشرفته الگوریتم های بهینه سازی مرتبه اول شتاب برای یادگیری ماشین را ارائه می دهد. روش‌های مختلفی از جمله الگوریتم‌های قطعی و تصادفی را مورد بحث قرار می‌دهد، که در آن الگوریتم‌ها می‌توانند همزمان یا ناهمزمان باشند، برای مسائل نامحدود و محدود، که می‌توانند محدب یا غیر محدب باشند. این کتاب با ارائه ترکیبی غنی از ایده ها، نظریه ها و شواهد، به روز و مستقل است. این یک منبع مرجع عالی برای کاربرانی است که به دنبال الگوریتم‌های بهینه‌سازی سریع‌تر هستند، همچنین برای دانشجویان فارغ‌التحصیل و محققانی که می‌خواهند مرزهای بهینه‌سازی در یادگیری ماشین را در مدت کوتاهی درک کنند.


توضیحاتی درمورد کتاب به خارجی

This book on optimization includes forewords by Michael I. Jordan, Zongben Xu and Zhi-Quan Luo. Machine learning relies heavily on optimization to solve problems with its learning models, and first-order optimization algorithms are the mainstream approaches. The acceleration of first-order optimization algorithms is crucial for the efficiency of machine learning. Written by leading experts in the field, this book provides a comprehensive introduction to, and state-of-the-art review of accelerated first-order optimization algorithms for machine learning. It discusses a variety of methods, including deterministic and stochastic algorithms, where the algorithms can be synchronous or asynchronous, for unconstrained and constrained problems, which can be convex or non-convex. Offering a rich blend of ideas, theories and proofs, the book is up-to-date and self-contained. It is an excellent reference resource for users who are seeking faster optimization algorithms, as well as for graduate students and researchers wanting to grasp the frontiers of optimization in machine learning in a short time.



فهرست مطالب

Foreword by Michael I. Jordan
Foreword by Zongben Xu
Foreword by Zhi-Quan Luo
Preface
	References
Acknowledgements
Contents
About the Authors
Acronyms
1 Introduction
	1.1 Examples of Optimization Problems in Machine Learning
	1.2 First-Order Algorithm
	1.3 Sketch of Representative Works on Accelerated Algorithms
	1.4 About the Book
	References
2 Accelerated Algorithms for Unconstrained Convex Optimization
	2.1 Accelerated Gradient Method for Smooth Optimization
	2.2 Extension to Composite Optimization
		2.2.1 Nesterov's First Scheme
		2.2.2 Nesterov's Second Scheme
			2.2.2.1 A Primal-Dual Perspective
		2.2.3 Nesterov's Third Scheme
	2.3 Inexact Proximal and Gradient Computing
		2.3.1 Inexact Accelerated Gradient Descent
		2.3.2 Inexact Accelerated Proximal Point Method
	2.4 Restart
	2.5 Smoothing for Nonsmooth Optimization
	2.6 Higher Order Accelerated Method
	2.7 Explanation: A Variational Perspective
		2.7.1 Discretization
	References
3 Accelerated Algorithms for Constrained Convex Optimization
	3.1 Some Facts for the Case of Linear Equality Constraint
	3.2 Accelerated Penalty Method
		3.2.1 Generally Convex Objectives
		3.2.2 Strongly Convex Objectives
	3.3 Accelerated Lagrange Multiplier Method
		3.3.1 Recovering the Primal Solution
		3.3.2 Accelerated Augmented Lagrange Multiplier Method
	3.4 Alternating Direction Method of Multiplier and Its Non-ergodic Accelerated Variant
		3.4.1 Generally Convex and Nonsmooth Case
		3.4.2 Strongly Convex and Nonsmooth Case
		3.4.3 Generally Convex and Smooth Case
		3.4.4 Strongly Convex and Smooth Case
		3.4.5 Non-ergodic Convergence Rate
			3.4.5.1 Original ADMM
			3.4.5.2 ADMM with Extrapolation and Increasing Penalty Parameter
	3.5 Primal-Dual Method
		3.5.1 Case 1: μg=μh=0
		3.5.2 Case 2: μg>0, μh=0
		3.5.3 Case 3: μg=0, μh>0
		3.5.4 Case 4: μg>0, μh>0
	3.6 Faster Frank–Wolfe Algorithm
	References
4 Accelerated Algorithms for Nonconvex Optimization
	4.1 Proximal Gradient with Momentum
		4.1.1 Convergence Theorem
		4.1.2 Another Method: Monotone APG
	4.2 AGD Achieves Critical Points Quickly
		4.2.1 AGD as a Convexity Monitor
		4.2.2 Negative Curvature Descent
		4.2.3 Accelerating Nonconvex Optimization
	4.3 AGD Escapes Saddle Points Quickly
		4.3.1 Almost Convex Case
		4.3.2 Very Nonconvex Case
		4.3.3 AGD for Nonconvex Problems
			4.3.3.1 Locally Almost Convex → Globally Almost Convex
			4.3.3.2 Outer Iterations
			4.3.3.3 Inner Iterations
	References
5 Accelerated Stochastic Algorithms
	5.1 The Individually Convex Case
		5.1.1 Accelerated Stochastic Coordinate Descent
		5.1.2 Background for Variance Reduction Methods
		5.1.3 Accelerated Stochastic Variance Reduction Method
		5.1.4 Black-Box Acceleration
	5.2 The Individually Nonconvex Case
	5.3 The Nonconvex Case
		5.3.1 SPIDER
		5.3.2 Momentum Acceleration
	5.4 Constrained Problem
	5.5 The Infinite Case
	References
6 Accelerated Parallel Algorithms
	6.1 Accelerated Asynchronous Algorithms
		6.1.1 Asynchronous Accelerated Gradient Descent
		6.1.2 Asynchronous Accelerated Stochastic Coordinate Descent
	6.2 Accelerated Distributed Algorithms
		6.2.1 Centralized Topology
			6.2.1.1 Large Mini-Batch Algorithms
			6.2.1.2 Dual Communication-Efficient Methods
		6.2.2 Decentralized Topology
	References
7 Conclusions
	References
A Mathematical Preliminaries
	A.1 Notations
	A.2 Algebra and Probability
	A.3 Convex Analysis
	A.4 Nonconvex Analysis
	References
Index




نظرات کاربران