دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1st ed.]
نویسندگان: Bin Shi. S. S. Iyengar
سری:
ISBN (شابک) : 9783030170752
ناشر: Springer International Publishing
سال نشر: 2020
تعداد صفحات: XXI, 133
[138]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 3 Mb
در صورت تبدیل فایل کتاب Mathematical Theories of Machine Learning - Theory and Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نظریه های ریاضی یادگیری ماشین - نظریه و کاربردها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب تئوری های ریاضی یادگیری ماشین را مطالعه می کند. بخش اول کتاب بهینگی و سازگاری انتخاب اندازه های گام شیب نزولی برای فرار از نقاط زینی سخت در مسائل بهینه سازی غیر محدب را بررسی می کند. در بخش دوم، نویسندگان الگوریتمهایی را برای یافتن حداقلهای محلی در بهینهسازی غیرمحدب و به دست آوردن حداقلهای جهانی تا حدی از قانون دوم نیوتن بدون اصطکاک پیشنهاد میکنند. در بخش سوم، نویسندگان مشکل خوشهبندی زیرفضا با دادههای پر سر و صدا و از دست رفته را مطالعه میکنند، که مشکلی است که به خوبی توسط دادههای کاربردی کاربردی در معرض نویز گاوسی تصادفی و/یا دادههای ناقص با ورودیهای گمشده یکنواخت ایجاد میشود. در بخش آخر، نویسندگان یک مدل VAR جدید با منظمسازی شبکه الاستیک و مدل بیزی معادل آن را معرفی میکنند که هم یک پراکندگی پایدار و هم انتخاب گروهی را امکانپذیر میکند.
This book studies mathematical theories of machine learning. The first part of the book explores the optimality and adaptivity of choosing step sizes of gradient descent for escaping strict saddle points in non-convex optimization problems. In the second part, the authors propose algorithms to find local minima in nonconvex optimization and to obtain global minima in some degree from the Newton Second Law without friction. In the third part, the authors study the problem of subspace clustering with noisy and missing data, which is a problem well-motivated by practical applications data subject to stochastic Gaussian noise and/or incomplete data with uniformly missing entries. In the last part, the authors introduce an novel VAR model with Elastic-Net regularization and its equivalent Bayesian model allowing for both a stable sparsity and a group selection.
Front Matter ....Pages i-xxi
Front Matter ....Pages 1-1
Introduction (Bin Shi, S. S. Iyengar)....Pages 3-11
General Framework of Mathematics (Bin Shi, S. S. Iyengar)....Pages 13-16
Optimization Formulation (Bin Shi, S. S. Iyengar)....Pages 17-28
Development of Novel Techniques of CoCoSSC Method (Bin Shi, S. S. Iyengar)....Pages 29-33
Necessary Notations of the Proposed Method (Bin Shi, S. S. Iyengar)....Pages 35-37
Related Work on Geometry of Non-Convex Programs (Bin Shi, S. S. Iyengar)....Pages 39-44
Front Matter ....Pages 45-45
Gradient Descent Converges to Minimizers: Optimal and Adaptive Step-Size Rules (Bin Shi, S. S. Iyengar)....Pages 47-62
A Conservation Law Method Based on Optimization (Bin Shi, S. S. Iyengar)....Pages 63-85
Front Matter ....Pages 87-87
Improved Sample Complexity in Sparse Subspace Clustering with Noisy and Missing Observations (Bin Shi, S. S. Iyengar)....Pages 89-101
Online Discovery for Stable and Grouping Causalities in Multivariate Time Series (Bin Shi, S. S. Iyengar)....Pages 103-119
Conclusion (Bin Shi, S. S. Iyengar)....Pages 121-121
Back Matter ....Pages 123-133