ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Improved Classification Rates for Localized Algorithms under Margin Conditions

دانلود کتاب نرخ‌های طبقه‌بندی بهبود یافته برای الگوریتم‌های موضعی تحت شرایط حاشیه

Improved Classification Rates for Localized Algorithms under Margin Conditions

مشخصات کتاب

Improved Classification Rates for Localized Algorithms under Margin Conditions

ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 3658295902, 9783658295905 
ناشر: Springer Spektrum 
سال نشر: 2020 
تعداد صفحات: 134 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 1 مگابایت 

قیمت کتاب (تومان) : 29,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Improved Classification Rates for Localized Algorithms under Margin Conditions به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب نرخ‌های طبقه‌بندی بهبود یافته برای الگوریتم‌های موضعی تحت شرایط حاشیه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب نرخ‌های طبقه‌بندی بهبود یافته برای الگوریتم‌های موضعی تحت شرایط حاشیه

ماشین‌های بردار پشتیبان (SVM) یکی از موفق‌ترین الگوریتم‌ها در مجموعه داده‌های کوچک و متوسط ​​هستند، اما در مجموعه‌های داده در مقیاس بزرگ، آموزش و پیش‌بینی آنها از نظر محاسباتی غیرممکن می‌شود. نویسنده یک روش تقسیم‌بندی داده‌ها به‌صورت مکانی تعریف‌شده را برای مسائل یادگیری در مقیاس بزرگ در نظر می‌گیرد، که منجر به به اصطلاح SVM‌های محلی می‌شود، و یک تحلیل ریاضی عمیق با تضمین‌های نظری، که به‌ویژه شامل نرخ‌های طبقه‌بندی است، پیاده‌سازی می‌کند. تجزیه و تحلیل آماری بر یک تکنیک مبتنی بر پارتیشن بندی جدید و ساده تکیه دارد و شرایط حاشیه شناخته شده را در نظر می گیرد که رفتار توزیع تولید داده را توصیف می کند. به نظر می رسد که نرخ ها از نرخ های شناخته شده چندین الگوریتم یادگیری دیگر تحت مجموعه ای از مفروضات مناسب بهتر عمل می کنند. از نقطه نظر عملی، نویسنده نشان می‌دهد که یک روش آموزشی و اعتبارسنجی رایج، نرخ‌های نظری را به صورت تطبیقی ​​به دست می‌آورد، یعنی بدون دانستن پارامترهای حاشیه از قبل.


توضیحاتی درمورد کتاب به خارجی

Support vector machines (SVMs) are one of the most successful algorithms on small and medium-sized data sets, but on large-scale data sets their training and predictions become computationally infeasible. The author considers a spatially defined data chunking method for large-scale learning problems, leading to so-called localized SVMs, and implements an in-depth mathematical analysis with theoretical guarantees, which in particular include classification rates. The statistical analysis relies on a new and simple partitioning based technique and takes well-known margin conditions into account that describe the behavior of the data-generating distribution. It turns out that the rates outperform known rates of several other learning algorithms under suitable sets of assumptions. From a practical point of view, the author shows that a common training and validation procedure achieves the theoretical rates adaptively, that is, without knowing the margin parameters in advance.



فهرست مطالب

Danksagung
Contents
Abbreviations
List of Figures
Summary
Kurzfassung
1. Introduction
2. Preliminaries
	2.1. Introduction to Statistical Learning Theory
		2.1.1. Losses and Risks
		2.1.2. Learning Methods
	2.2. From Global to Localized SVMs
		2.2.1. Kernels and RKHSs
		2.2.2. The Localized SVM Approach
	2.3. Advanced Statistical Analysis
		2.3.1. Margin Conditions
		2.3.2. General Oracle Inequalities
3. Histogram Rule: Oracle Inequality and Learning Rates
	3.1. Motivation
	3.2. Statistical Refinement and Main Results
	3.3. Comparison of Learning Rates
4. Localized SVMs: Oracle Inequalities and Learning Rates
	4.1. Motivation
	4.2. Local Statistical Analysis
		4.2.1. Approximation Error Bounds
		4.2.2. Entropy Bounds
		4.2.3. Oracle Inequalities and Learning Rates
	4.3. Main Results
		4.3.1. Global Learning Rates
		4.3.2. Adaptivity
	4.4. Comparison of Learning Rates
5. Discussion
A. Appendix
Bibliography




نظرات کاربران