دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: آموزشی ویرایش: 1 نویسندگان: Olivier Catoni (auth.), Jean Picard (eds.) سری: Lecture notes in mathematics 1851 ISBN (شابک) : 3540225722, 9783540225720 ناشر: Springer-Verlag Berlin Heidelberg سال نشر: 2004 تعداد صفحات: 273 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 1 مگابایت
کلمات کلیدی مربوط به کتاب نظریه یادگیری آماری و بهینه سازی تصادفی: Ecole d’Eté de Probabilités de Saint-Flour XXXI - 2001: نظریه و روش های آماری، بهینه سازی، هوش مصنوعی (شامل رباتیک)، اطلاعات و ارتباطات، مدارها، نظریه احتمالات و فرآیندهای تصادفی، تحلیل عددی
در صورت تبدیل فایل کتاب Statistical Learning Theory and Stochastic Optimization: Ecole d’Eté de Probabilités de Saint-Flour XXXI - 2001 به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نظریه یادگیری آماری و بهینه سازی تصادفی: Ecole d’Eté de Probabilités de Saint-Flour XXXI - 2001 نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
نظریه یادگیری آماری با هدف تجزیه و تحلیل داده های پیچیده با مدل های لزوماً تقریبی است. این کتاب برای مخاطبانی با سابقه تحصیلات تکمیلی در نظریه احتمال و آمار در نظر گرفته شده است. برای هر خواننده ای که بداند چرا ممکن است ایده خوبی باشد، استفاده از یک مدل معروف "اشتباه" (یعنی بیش از حد ساده شده) برای پیش بینی، تخمین یا طبقه بندی، ایده خوبی باشد. ریشه های آن در سه زمینه: تئوری اطلاعات، مکانیک آماری، و قضایای PAC-Bayesian. نتایج مربوط به انحرافات بزرگ مسیر زنجیره های مارکوف با انتقال نادر نیز شامل می شود. آنها به منظور ارائه درک بهتری از الگوریتم های بهینه سازی تصادفی رایج هستند. در برآوردگرهای محاسباتی. نویسنده بر روی مرزهای غیر مجانبی ریسک آماری تمرکز میکند، و به فرد اجازه میدهد که به طور تطبیقی بین خانوادههای غنی و ساختار یافته مدلها و برآوردگرهای متناظر انتخاب کند. دو شیء ریاضی در کتاب نفوذ کرده است: آنتروپی و معیارهای گیبس. هدف نشان دادن است. چگونه می توان آنها را به ابزارهای فنی همه کاره و کارآمد تبدیل کرد که باعث تحریک مطالعات و نتایج بیشتر می شود.
Statistical learning theory is aimed at analyzing complex data with necessarily approximate models. This book is intended for an audience with a graduate background in probability theory and statistics. It will be useful to any reader wondering why it may be a good idea, to use as is often done in practice a notoriously "wrong'' (i.e. over-simplified) model to predict, estimate or classify. This point of view takes its roots in three fields: information theory, statistical mechanics, and PAC-Bayesian theorems. Results on the large deviations of trajectories of Markov chains with rare transitions are also included. They are meant to provide a better understanding of stochastic optimization algorithms of common use in computing estimators. The author focuses on non-asymptotic bounds of the statistical risk, allowing one to choose adaptively between rich and structured families of models and corresponding estimators. Two mathematical objects pervade the book: entropy and Gibbs measures. The goal is to show how to turn them into versatile and efficient technical tools, that will stimulate further studies and results.
Introduction....Pages 1-4
1. Universal lossless data compression....Pages 5-54
2. Links between data compression and statistical estimation....Pages 55-69
3. Non cumulated mean risk....Pages 71-95
4. Gibbs estimators....Pages 97-154
5. Randomized estimators and empirical complexity....Pages 155-197
6. Deviation inequalities....Pages 199-222
7. Markov chains with exponential transitions....Pages 223-260
References....Pages 261-265
Index....Pages 267-269
List of participants and List of short lectures....Pages 271-273