ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Pac-Bayesian supervised classification: The thermodynamics of statistical learning

دانلود کتاب طبقه بندی نظارت شده Pac-Bayesian: ترمودینامیک یادگیری آماری

Pac-Bayesian supervised classification: The thermodynamics of statistical learning

مشخصات کتاب

Pac-Bayesian supervised classification: The thermodynamics of statistical learning

دسته بندی: آموزشی
ویرایش: IMS 
نویسندگان:   
سری: Lecture Notes Monograph Series 
ISBN (شابک) : 0940600722, 9780940600720 
ناشر: Institute of Mathematical Statistics 
سال نشر: 2007 
تعداد صفحات: 175 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 992 کیلوبایت 

قیمت کتاب (تومان) : 50,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 8


در صورت تبدیل فایل کتاب Pac-Bayesian supervised classification: The thermodynamics of statistical learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب طبقه بندی نظارت شده Pac-Bayesian: ترمودینامیک یادگیری آماری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب طبقه بندی نظارت شده Pac-Bayesian: ترمودینامیک یادگیری آماری

"این تک نگاری با طبقه بندی نظارت تطبیقی، با استفاده از ابزارهای وام گرفته شده از مکانیک آماری و تئوری اطلاعات، ناشی از رویکرد PAC-Bayesian که توسط دیوید مک آلستر پیشگام بود و در مفهومی از نظریه یادگیری آماری ساخته شده توسط ولادیمیر واپنیک اعمال شد، سر و کار دارد. با استفاده از تحلیل محدب در مجموعه. از معیارهای احتمال پسین، ما نشان می‌دهیم که چگونه می‌توان معیارهای محلی پیچیدگی مدل طبقه‌بندی را که شامل آنتروپی نسبی توزیع‌های پسین با توجه به معیارهای پسین گیبس است به دست آورد. سپس مرزهای نسبی را مورد بحث قرار می‌دهیم، خطای تعمیم دو قانون طبقه‌بندی را مقایسه می‌کنیم و نشان می‌دهیم که چگونه فرض حاشیه Mammen و Tsybakov را می توان با برخی از معیارهای تجربی ساختار کوواریانس مدل طبقه بندی جایگزین کرد.ما نشان می دهیم که چگونه به هر توزیع پسینی یک دمای موثر مربوط به آن را به توزیع قبلی گیبس با همان سطح از میزان خطای مورد انتظار مرتبط کنیم. و نحوه تخمین این دمای مؤثر از داده‌ها، منجر به برآوردگر می‌شود که نرخ خطای مورد انتظار آن مطابق با بهترین توان ممکن اندازه نمونه به‌طور تطبیقی ​​تحت هر حاشیه و فرضیات پیچیدگی پارامتری همگرا می‌شود. ما یک طرح انتخاب جایگزین را بر اساس مرزهای نسبی بین تخمین‌گرها توصیف و مطالعه می‌کنیم و یک تکنیک محلی‌سازی دو مرحله‌ای را ارائه می‌کنیم که می‌تواند انتخاب یک مدل پارامتری را از خانواده‌ای از آن‌ها انجام دهد. ما نشان می‌دهیم که چگونه به‌طور سیستماتیک تمام نتایج به‌دست‌آمده در محیط استقرایی را به یادگیری انتقالی تعمیم دهیم، و از آن برای بهبود محدوده‌های تعمیم Vapnik استفاده می‌کنیم، و آن‌ها را به مواردی بسط می‌دهیم که نمونه از جفت‌های الگوها و برچسب‌ها به طور مستقل توزیع شده است. در نهایت، ساخت ماشین‌های بردار پشتیبان را به طور خلاصه مرور می‌کنیم و نشان می‌دهیم که چگونه می‌توان مرزهای تعمیم را برای آن‌ها استخراج کرد و پیچیدگی را از طریق تعداد بردارهای پشتیبانی یا از طریق مقدار حاشیه انتقالی یا استقرایی اندازه‌گیری کرد."--وب سایت پروژه اقلید.


توضیحاتی درمورد کتاب به خارجی

"This monograph deals with adaptive supervised classification, using tools borrowed from statistical mechanics and information theory, stemming from the PAC-Bayesian approach pioneered by David McAllester and applied to a conception of statistical learning theory forged by Vladimir Vapnik. Using convex analysis on the set of posterior probability measures, we show how to get local measures of the complexity of the classification model involving the relative entropy of posterior distributions with respect to Gibbs posterior measures. We then discuss relative bounds, comparing the generalization error of two classification rules, showing how the margin assumption of Mammen and Tsybakov can be replaced with some empirical measure of the covariance structure of the classification model. We show how to associate to any posterior distribution an effective temperature relating it to the Gibbs prior distribution with the same level of expected error rate, and how to estimate this effective temperature from data, resulting in an estimator whose expected error rate converges according to the best possible power of the sample size adaptively under any margin and parametric complexity assumptions. We describe and study an alternative selection scheme based on relative bounds between estimators, and present a two step localization technique which can handle the selection of a parametric model from a family of those. We show how to extend systematically all the results obtained in the inductive setting to transductive learning, and use this to improve Vapnik’s generalization bounds, extending them to the case when the sample is made of independent non-identically distributed pairs of patterns and labels. Finally we review briefly the construction of Support Vector Machines and show how to derive generalization bounds for them, measuring the complexity either through the number of support vectors or through the value of the transductive or inductive margin."--Project Euclid website.





نظرات کاربران