ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik

دانلود کتاب استنباط تجربی: Festschrift در افتخار ولادیمیر N. Vapnik

Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik

مشخصات کتاب

Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik

ویرایش: 1 
نویسندگان: , , ,   
سری:  
ISBN (شابک) : 9783642411359, 9783642411366 
ناشر: Springer-Verlag Berlin Heidelberg 
سال نشر: 2013 
تعداد صفحات: 295 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 مگابایت 

قیمت کتاب (تومان) : 47,000



کلمات کلیدی مربوط به کتاب استنباط تجربی: Festschrift در افتخار ولادیمیر N. Vapnik: هوش مصنوعی (شامل رباتیک)، نظریه و روش های آماری، احتمال و آمار در علوم کامپیوتر، بهینه سازی



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب استنباط تجربی: Festschrift در افتخار ولادیمیر N. Vapnik نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب استنباط تجربی: Festschrift در افتخار ولادیمیر N. Vapnik



این کتاب به افتخار کمک‌های برجسته ولادیمیر واپنیک، نمونه‌ای نادر از دانشمندی است که عبارات زیر به طور همزمان برای او صادق است: کار او منجر به آغاز زمینه جدیدی از تحقیقات، نظریه یادگیری آماری و استنتاج تجربی؛ او زندگی کرده است تا شکوفایی مزرعه را ببیند. و او همچنان مثل همیشه فعال است. او تجزیه و تحلیل الگوریتم های یادگیری را در دهه 1960 آغاز کرد و اولین نسخه از الگوریتم پرتره تعمیم یافته را اختراع کرد. او بعداً یکی از موفق‌ترین روش‌ها را در یادگیری ماشین توسعه داد، ماشین بردار پشتیبان (SVM) - بیش از یک الگوریتم، این یک رویکرد جدید برای مشکلات یادگیری بود، که در استفاده از تحلیل عملکردی و بهینه‌سازی محدب در یادگیری ماشین پیشگام بود. /p>

قسمت اول این کتاب شامل سه فصل است که برخی از کمک های ولادیمیر واپنیک به علم را توضیح می دهد و شاهد آن است. در فصل اول، لئون بوتو در مورد مقاله اصلی منتشر شده در سال 1968 توسط Vapnik و Chervonenkis بحث می کند که پایه های نظریه یادگیری آماری را پایه گذاری می کند، و فصل دوم ترجمه انگلیسی زبان آن مقاله اصلی است. در فصل سوم، الکسی چرووننکیس گزارش دست اولی از تاریخچه اولیه SVM ها و بینش های ارزشمند در مورد اولین گام ها در توسعه SVM در چارچوب روش پرتره تعمیم یافته ارائه می دهد.

</ p>

فصول باقی مانده توسط دانشمندان برجسته در حوزه هایی مانند آمار، علوم کامپیوتر نظری و ریاضیات، به موضوعات اساسی در تئوری و عمل تئوری یادگیری آماری، از جمله SVM ها و سایر روش های مبتنی بر هسته، تقویت، PAC می پردازد. -نظریه بیزی، یادگیری آنلاین و انتقالی، توابع از دست دادن، کلاس‌های تابع قابل یادگیری، مفاهیم پیچیدگی برای کلاس‌های تابع، یادگیری چندکاره، و انتخاب فرضیه. این مشارکت‌ها شامل یادداشت‌های تاریخی و زمینه‌ای، نظرسنجی‌های کوتاه، و نظراتی در مورد جهت‌های تحقیقاتی آینده است.

این کتاب برای محققان، مهندسان و دانشجویان فارغ‌التحصیل که با همه جنبه‌ها درگیر هستند مورد علاقه خواهد بود. یادگیری آماری.


توضیحاتی درمورد کتاب به خارجی

This book honours the outstanding contributions of Vladimir Vapnik, a rare example of a scientist for whom the following statements hold true simultaneously: his work led to the inception of a new field of research, the theory of statistical learning and empirical inference; he has lived to see the field blossom; and he is still as active as ever. He started analyzing learning algorithms in the 1960s and he invented the first version of the generalized portrait algorithm. He later developed one of the most successful methods in machine learning, the support vector machine (SVM) – more than just an algorithm, this was a new approach to learning problems, pioneering the use of functional analysis and convex optimization in machine learning.

Part I of this book contains three chapters describing and witnessing some of Vladimir Vapnik's contributions to science. In the first chapter, Léon Bottou discusses the seminal paper published in 1968 by Vapnik and Chervonenkis that lay the foundations of statistical learning theory, and the second chapter is an English-language translation of that original paper. In the third chapter, Alexey Chervonenkis presents a first-hand account of the early history of SVMs and valuable insights into the first steps in the development of the SVM in the framework of the generalised portrait method.

The remaining chapters, by leading scientists in domains such as statistics, theoretical computer science, and mathematics, address substantial topics in the theory and practice of statistical learning theory, including SVMs and other kernel-based methods, boosting, PAC-Bayesian theory, online and transductive learning, loss functions, learnable function classes, notions of complexity for function classes, multitask learning, and hypothesis selection. These contributions include historical and context notes, short surveys, and comments on future research directions.

This book will be of interest to researchers, engineers, and graduate students engaged with all aspects of statistical learning.



فهرست مطالب

Front Matter....Pages i-xix
Front Matter....Pages 1-1
In Hindsight: Doklady Akademii Nauk SSSR, 181(4), 1968....Pages 3-5
On the Uniform Convergence of the Frequencies of Occurrence of Events to Their Probabilities....Pages 7-12
Early History of Support Vector Machines....Pages 13-20
Front Matter....Pages 21-24
Some Remarks on the Statistical Analysis of SVMs and Related Methods....Pages 25-36
Explaining AdaBoost....Pages 37-52
On the Relations and Differences Between Popper Dimension, Exclusion Dimension and VC-Dimension....Pages 53-57
On Learnability, Complexity and Stability....Pages 59-69
Loss Functions....Pages 71-80
Statistical Learning Theory in Practice....Pages 81-93
PAC-Bayesian Theory....Pages 95-103
Kernel Ridge Regression....Pages 105-116
Multi-task Learning for Computational Biology: Overview and Outlook....Pages 117-127
Semi-supervised Learning in Causal and Anticausal Settings....Pages 129-141
Strong Universal Consistent Estimate of the Minimum Mean Squared Error....Pages 143-160
The Median Hypothesis....Pages 161-175
Efficient Transductive Online Learning via Randomized Rounding....Pages 177-194
Pivotal Estimation in High-Dimensional Regression via Linear Programming....Pages 195-204
On Sparsity Inducing Regularization Methods for Machine Learning....Pages 205-216
Sharp Oracle Inequalities in Low Rank Estimation....Pages 217-230
On the Consistency of the Bootstrap Approach for Support Vector Machines and Related Kernel-Based Methods....Pages 231-244
Front Matter....Pages 21-24
Kernels, Pre-images and Optimization....Pages 245-259
Efficient Learning of Sparse Ranking Functions....Pages 261-271
Direct Approximation of Divergences Between Probability Distributions....Pages 273-283
Back Matter....Pages 285-287




نظرات کاربران