دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Ingrid Karin Blaschzyk
سری:
ISBN (شابک) : 3658295902, 9783658295905
ناشر: Springer Spektrum
سال نشر: 2020
تعداد صفحات: 134
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 1 مگابایت
در صورت تبدیل فایل کتاب Improved Classification Rates for Localized Algorithms under Margin Conditions به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نرخهای طبقهبندی بهبود یافته برای الگوریتمهای موضعی تحت شرایط حاشیه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
ماشینهای بردار پشتیبان (SVM) یکی از موفقترین الگوریتمها در مجموعه دادههای کوچک و متوسط هستند، اما در مجموعههای داده در مقیاس بزرگ، آموزش و پیشبینی آنها از نظر محاسباتی غیرممکن میشود. نویسنده یک روش تقسیمبندی دادهها بهصورت مکانی تعریفشده را برای مسائل یادگیری در مقیاس بزرگ در نظر میگیرد، که منجر به به اصطلاح SVMهای محلی میشود، و یک تحلیل ریاضی عمیق با تضمینهای نظری، که بهویژه شامل نرخهای طبقهبندی است، پیادهسازی میکند. تجزیه و تحلیل آماری بر یک تکنیک مبتنی بر پارتیشن بندی جدید و ساده تکیه دارد و شرایط حاشیه شناخته شده را در نظر می گیرد که رفتار توزیع تولید داده را توصیف می کند. به نظر می رسد که نرخ ها از نرخ های شناخته شده چندین الگوریتم یادگیری دیگر تحت مجموعه ای از مفروضات مناسب بهتر عمل می کنند. از نقطه نظر عملی، نویسنده نشان میدهد که یک روش آموزشی و اعتبارسنجی رایج، نرخهای نظری را به صورت تطبیقی به دست میآورد، یعنی بدون دانستن پارامترهای حاشیه از قبل.
Support vector machines (SVMs) are one of the most successful algorithms on small and medium-sized data sets, but on large-scale data sets their training and predictions become computationally infeasible. The author considers a spatially defined data chunking method for large-scale learning problems, leading to so-called localized SVMs, and implements an in-depth mathematical analysis with theoretical guarantees, which in particular include classification rates. The statistical analysis relies on a new and simple partitioning based technique and takes well-known margin conditions into account that describe the behavior of the data-generating distribution. It turns out that the rates outperform known rates of several other learning algorithms under suitable sets of assumptions. From a practical point of view, the author shows that a common training and validation procedure achieves the theoretical rates adaptively, that is, without knowing the margin parameters in advance.
Danksagung Contents Abbreviations List of Figures Summary Kurzfassung 1. Introduction 2. Preliminaries 2.1. Introduction to Statistical Learning Theory 2.1.1. Losses and Risks 2.1.2. Learning Methods 2.2. From Global to Localized SVMs 2.2.1. Kernels and RKHSs 2.2.2. The Localized SVM Approach 2.3. Advanced Statistical Analysis 2.3.1. Margin Conditions 2.3.2. General Oracle Inequalities 3. Histogram Rule: Oracle Inequality and Learning Rates 3.1. Motivation 3.2. Statistical Refinement and Main Results 3.3. Comparison of Learning Rates 4. Localized SVMs: Oracle Inequalities and Learning Rates 4.1. Motivation 4.2. Local Statistical Analysis 4.2.1. Approximation Error Bounds 4.2.2. Entropy Bounds 4.2.3. Oracle Inequalities and Learning Rates 4.3. Main Results 4.3.1. Global Learning Rates 4.3.2. Adaptivity 4.4. Comparison of Learning Rates 5. Discussion A. Appendix Bibliography