دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Zhouchen Lin, Huan Li, Cong Fang سری: ISBN (شابک) : 9811529094, 9789811529092 ناشر: Springer سال نشر: 2020 تعداد صفحات: 273 [286] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 3 Mb
در صورت تبدیل فایل کتاب Accelerated Optimization for Machine Learning: First-Order Algorithms به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب بهینه سازی تسریع شده برای یادگیری ماشین: الگوریتم های مرتبه اول نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب در مورد بهینه سازی شامل پیشگفتارهای Michael I. Jordan، Zongben Xu و Zhi-Quan Luo می باشد. یادگیری ماشینی برای حل مشکلات مدلهای یادگیری خود به شدت به بهینهسازی متکی است و الگوریتمهای بهینهسازی مرتبه اول رویکردهای اصلی هستند. تسریع الگوریتم های بهینه سازی مرتبه اول برای کارایی یادگیری ماشین بسیار مهم است. این کتاب که توسط متخصصان برجسته در این زمینه نوشته شده است، مقدمه ای جامع و بررسی پیشرفته الگوریتم های بهینه سازی مرتبه اول شتاب برای یادگیری ماشین را ارائه می دهد. روشهای مختلفی از جمله الگوریتمهای قطعی و تصادفی را مورد بحث قرار میدهد، که در آن الگوریتمها میتوانند همزمان یا ناهمزمان باشند، برای مسائل نامحدود و محدود، که میتوانند محدب یا غیر محدب باشند. این کتاب با ارائه ترکیبی غنی از ایده ها، نظریه ها و شواهد، به روز و مستقل است. این یک منبع مرجع عالی برای کاربرانی است که به دنبال الگوریتمهای بهینهسازی سریعتر هستند، همچنین برای دانشجویان فارغالتحصیل و محققانی که میخواهند مرزهای بهینهسازی در یادگیری ماشین را در مدت کوتاهی درک کنند.
This book on optimization includes forewords by Michael I. Jordan, Zongben Xu and Zhi-Quan Luo. Machine learning relies heavily on optimization to solve problems with its learning models, and first-order optimization algorithms are the mainstream approaches. The acceleration of first-order optimization algorithms is crucial for the efficiency of machine learning. Written by leading experts in the field, this book provides a comprehensive introduction to, and state-of-the-art review of accelerated first-order optimization algorithms for machine learning. It discusses a variety of methods, including deterministic and stochastic algorithms, where the algorithms can be synchronous or asynchronous, for unconstrained and constrained problems, which can be convex or non-convex. Offering a rich blend of ideas, theories and proofs, the book is up-to-date and self-contained. It is an excellent reference resource for users who are seeking faster optimization algorithms, as well as for graduate students and researchers wanting to grasp the frontiers of optimization in machine learning in a short time.
Foreword by Michael I. Jordan Foreword by Zongben Xu Foreword by Zhi-Quan Luo Preface References Acknowledgements Contents About the Authors Acronyms 1 Introduction 1.1 Examples of Optimization Problems in Machine Learning 1.2 First-Order Algorithm 1.3 Sketch of Representative Works on Accelerated Algorithms 1.4 About the Book References 2 Accelerated Algorithms for Unconstrained Convex Optimization 2.1 Accelerated Gradient Method for Smooth Optimization 2.2 Extension to Composite Optimization 2.2.1 Nesterov's First Scheme 2.2.2 Nesterov's Second Scheme 2.2.2.1 A Primal-Dual Perspective 2.2.3 Nesterov's Third Scheme 2.3 Inexact Proximal and Gradient Computing 2.3.1 Inexact Accelerated Gradient Descent 2.3.2 Inexact Accelerated Proximal Point Method 2.4 Restart 2.5 Smoothing for Nonsmooth Optimization 2.6 Higher Order Accelerated Method 2.7 Explanation: A Variational Perspective 2.7.1 Discretization References 3 Accelerated Algorithms for Constrained Convex Optimization 3.1 Some Facts for the Case of Linear Equality Constraint 3.2 Accelerated Penalty Method 3.2.1 Generally Convex Objectives 3.2.2 Strongly Convex Objectives 3.3 Accelerated Lagrange Multiplier Method 3.3.1 Recovering the Primal Solution 3.3.2 Accelerated Augmented Lagrange Multiplier Method 3.4 Alternating Direction Method of Multiplier and Its Non-ergodic Accelerated Variant 3.4.1 Generally Convex and Nonsmooth Case 3.4.2 Strongly Convex and Nonsmooth Case 3.4.3 Generally Convex and Smooth Case 3.4.4 Strongly Convex and Smooth Case 3.4.5 Non-ergodic Convergence Rate 3.4.5.1 Original ADMM 3.4.5.2 ADMM with Extrapolation and Increasing Penalty Parameter 3.5 Primal-Dual Method 3.5.1 Case 1: μg=μh=0 3.5.2 Case 2: μg>0, μh=0 3.5.3 Case 3: μg=0, μh>0 3.5.4 Case 4: μg>0, μh>0 3.6 Faster Frank–Wolfe Algorithm References 4 Accelerated Algorithms for Nonconvex Optimization 4.1 Proximal Gradient with Momentum 4.1.1 Convergence Theorem 4.1.2 Another Method: Monotone APG 4.2 AGD Achieves Critical Points Quickly 4.2.1 AGD as a Convexity Monitor 4.2.2 Negative Curvature Descent 4.2.3 Accelerating Nonconvex Optimization 4.3 AGD Escapes Saddle Points Quickly 4.3.1 Almost Convex Case 4.3.2 Very Nonconvex Case 4.3.3 AGD for Nonconvex Problems 4.3.3.1 Locally Almost Convex → Globally Almost Convex 4.3.3.2 Outer Iterations 4.3.3.3 Inner Iterations References 5 Accelerated Stochastic Algorithms 5.1 The Individually Convex Case 5.1.1 Accelerated Stochastic Coordinate Descent 5.1.2 Background for Variance Reduction Methods 5.1.3 Accelerated Stochastic Variance Reduction Method 5.1.4 Black-Box Acceleration 5.2 The Individually Nonconvex Case 5.3 The Nonconvex Case 5.3.1 SPIDER 5.3.2 Momentum Acceleration 5.4 Constrained Problem 5.5 The Infinite Case References 6 Accelerated Parallel Algorithms 6.1 Accelerated Asynchronous Algorithms 6.1.1 Asynchronous Accelerated Gradient Descent 6.1.2 Asynchronous Accelerated Stochastic Coordinate Descent 6.2 Accelerated Distributed Algorithms 6.2.1 Centralized Topology 6.2.1.1 Large Mini-Batch Algorithms 6.2.1.2 Dual Communication-Efficient Methods 6.2.2 Decentralized Topology References 7 Conclusions References A Mathematical Preliminaries A.1 Notations A.2 Algebra and Probability A.3 Convex Analysis A.4 Nonconvex Analysis References Index