دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: Léon Bottou (auth.), Bernhard Schölkopf, Zhiyuan Luo, Vladimir Vovk (eds.) سری: ISBN (شابک) : 9783642411359, 9783642411366 ناشر: Springer-Verlag Berlin Heidelberg سال نشر: 2013 تعداد صفحات: 295 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
کلمات کلیدی مربوط به کتاب استنباط تجربی: Festschrift در افتخار ولادیمیر N. Vapnik: هوش مصنوعی (شامل رباتیک)، نظریه و روش های آماری، احتمال و آمار در علوم کامپیوتر، بهینه سازی
در صورت تبدیل فایل کتاب Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب استنباط تجربی: Festschrift در افتخار ولادیمیر N. Vapnik نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب به افتخار کمکهای برجسته ولادیمیر واپنیک، نمونهای نادر از دانشمندی است که عبارات زیر به طور همزمان برای او صادق است: کار او منجر به آغاز زمینه جدیدی از تحقیقات، نظریه یادگیری آماری و استنتاج تجربی؛ او زندگی کرده است تا شکوفایی مزرعه را ببیند. و او همچنان مثل همیشه فعال است. او تجزیه و تحلیل الگوریتم های یادگیری را در دهه 1960 آغاز کرد و اولین نسخه از الگوریتم پرتره تعمیم یافته را اختراع کرد. او بعداً یکی از موفقترین روشها را در یادگیری ماشین توسعه داد، ماشین بردار پشتیبان (SVM) - بیش از یک الگوریتم، این یک رویکرد جدید برای مشکلات یادگیری بود، که در استفاده از تحلیل عملکردی و بهینهسازی محدب در یادگیری ماشین پیشگام بود. /p>
قسمت اول این کتاب شامل سه فصل است که برخی از کمک های ولادیمیر واپنیک به علم را توضیح می دهد و شاهد آن است. در فصل اول، لئون بوتو در مورد مقاله اصلی منتشر شده در سال 1968 توسط Vapnik و Chervonenkis بحث می کند که پایه های نظریه یادگیری آماری را پایه گذاری می کند، و فصل دوم ترجمه انگلیسی زبان آن مقاله اصلی است. در فصل سوم، الکسی چرووننکیس گزارش دست اولی از تاریخچه اولیه SVM ها و بینش های ارزشمند در مورد اولین گام ها در توسعه SVM در چارچوب روش پرتره تعمیم یافته ارائه می دهد.
</ p>
فصول باقی مانده توسط دانشمندان برجسته در حوزه هایی مانند آمار، علوم کامپیوتر نظری و ریاضیات، به موضوعات اساسی در تئوری و عمل تئوری یادگیری آماری، از جمله SVM ها و سایر روش های مبتنی بر هسته، تقویت، PAC می پردازد. -نظریه بیزی، یادگیری آنلاین و انتقالی، توابع از دست دادن، کلاسهای تابع قابل یادگیری، مفاهیم پیچیدگی برای کلاسهای تابع، یادگیری چندکاره، و انتخاب فرضیه. این مشارکتها شامل یادداشتهای تاریخی و زمینهای، نظرسنجیهای کوتاه، و نظراتی در مورد جهتهای تحقیقاتی آینده است.
این کتاب برای محققان، مهندسان و دانشجویان فارغالتحصیل که با همه جنبهها درگیر هستند مورد علاقه خواهد بود. یادگیری آماری.
This book honours the outstanding contributions of Vladimir Vapnik, a rare example of a scientist for whom the following statements hold true simultaneously: his work led to the inception of a new field of research, the theory of statistical learning and empirical inference; he has lived to see the field blossom; and he is still as active as ever. He started analyzing learning algorithms in the 1960s and he invented the first version of the generalized portrait algorithm. He later developed one of the most successful methods in machine learning, the support vector machine (SVM) – more than just an algorithm, this was a new approach to learning problems, pioneering the use of functional analysis and convex optimization in machine learning.
Part I of this book contains three chapters describing and witnessing some of Vladimir Vapnik's contributions to science. In the first chapter, Léon Bottou discusses the seminal paper published in 1968 by Vapnik and Chervonenkis that lay the foundations of statistical learning theory, and the second chapter is an English-language translation of that original paper. In the third chapter, Alexey Chervonenkis presents a first-hand account of the early history of SVMs and valuable insights into the first steps in the development of the SVM in the framework of the generalised portrait method.
The remaining chapters, by leading scientists in domains such as statistics, theoretical computer science, and mathematics, address substantial topics in the theory and practice of statistical learning theory, including SVMs and other kernel-based methods, boosting, PAC-Bayesian theory, online and transductive learning, loss functions, learnable function classes, notions of complexity for function classes, multitask learning, and hypothesis selection. These contributions include historical and context notes, short surveys, and comments on future research directions.
This book will be of interest to researchers, engineers, and graduate students engaged with all aspects of statistical learning.
Front Matter....Pages i-xix
Front Matter....Pages 1-1
In Hindsight: Doklady Akademii Nauk SSSR, 181(4), 1968....Pages 3-5
On the Uniform Convergence of the Frequencies of Occurrence of Events to Their Probabilities....Pages 7-12
Early History of Support Vector Machines....Pages 13-20
Front Matter....Pages 21-24
Some Remarks on the Statistical Analysis of SVMs and Related Methods....Pages 25-36
Explaining AdaBoost....Pages 37-52
On the Relations and Differences Between Popper Dimension, Exclusion Dimension and VC-Dimension....Pages 53-57
On Learnability, Complexity and Stability....Pages 59-69
Loss Functions....Pages 71-80
Statistical Learning Theory in Practice....Pages 81-93
PAC-Bayesian Theory....Pages 95-103
Kernel Ridge Regression....Pages 105-116
Multi-task Learning for Computational Biology: Overview and Outlook....Pages 117-127
Semi-supervised Learning in Causal and Anticausal Settings....Pages 129-141
Strong Universal Consistent Estimate of the Minimum Mean Squared Error....Pages 143-160
The Median Hypothesis....Pages 161-175
Efficient Transductive Online Learning via Randomized Rounding....Pages 177-194
Pivotal Estimation in High-Dimensional Regression via Linear Programming....Pages 195-204
On Sparsity Inducing Regularization Methods for Machine Learning....Pages 205-216
Sharp Oracle Inequalities in Low Rank Estimation....Pages 217-230
On the Consistency of the Bootstrap Approach for Support Vector Machines and Related Kernel-Based Methods....Pages 231-244
Front Matter....Pages 21-24
Kernels, Pre-images and Optimization....Pages 245-259
Efficient Learning of Sparse Ranking Functions....Pages 261-271
Direct Approximation of Divergences Between Probability Distributions....Pages 273-283
Back Matter....Pages 285-287