دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: آموزشی ویرایش: IMS نویسندگان: Olivier Catoni سری: Lecture Notes Monograph Series ISBN (شابک) : 0940600722, 9780940600720 ناشر: Institute of Mathematical Statistics سال نشر: 2007 تعداد صفحات: 175 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 992 کیلوبایت
در صورت تبدیل فایل کتاب Pac-Bayesian supervised classification: The thermodynamics of statistical learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب طبقه بندی نظارت شده Pac-Bayesian: ترمودینامیک یادگیری آماری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
"این تک نگاری با طبقه بندی نظارت تطبیقی، با استفاده از ابزارهای وام گرفته شده از مکانیک آماری و تئوری اطلاعات، ناشی از رویکرد PAC-Bayesian که توسط دیوید مک آلستر پیشگام بود و در مفهومی از نظریه یادگیری آماری ساخته شده توسط ولادیمیر واپنیک اعمال شد، سر و کار دارد. با استفاده از تحلیل محدب در مجموعه. از معیارهای احتمال پسین، ما نشان میدهیم که چگونه میتوان معیارهای محلی پیچیدگی مدل طبقهبندی را که شامل آنتروپی نسبی توزیعهای پسین با توجه به معیارهای پسین گیبس است به دست آورد. سپس مرزهای نسبی را مورد بحث قرار میدهیم، خطای تعمیم دو قانون طبقهبندی را مقایسه میکنیم و نشان میدهیم که چگونه فرض حاشیه Mammen و Tsybakov را می توان با برخی از معیارهای تجربی ساختار کوواریانس مدل طبقه بندی جایگزین کرد.ما نشان می دهیم که چگونه به هر توزیع پسینی یک دمای موثر مربوط به آن را به توزیع قبلی گیبس با همان سطح از میزان خطای مورد انتظار مرتبط کنیم. و نحوه تخمین این دمای مؤثر از دادهها، منجر به برآوردگر میشود که نرخ خطای مورد انتظار آن مطابق با بهترین توان ممکن اندازه نمونه بهطور تطبیقی تحت هر حاشیه و فرضیات پیچیدگی پارامتری همگرا میشود. ما یک طرح انتخاب جایگزین را بر اساس مرزهای نسبی بین تخمینگرها توصیف و مطالعه میکنیم و یک تکنیک محلیسازی دو مرحلهای را ارائه میکنیم که میتواند انتخاب یک مدل پارامتری را از خانوادهای از آنها انجام دهد. ما نشان میدهیم که چگونه بهطور سیستماتیک تمام نتایج بهدستآمده در محیط استقرایی را به یادگیری انتقالی تعمیم دهیم، و از آن برای بهبود محدودههای تعمیم Vapnik استفاده میکنیم، و آنها را به مواردی بسط میدهیم که نمونه از جفتهای الگوها و برچسبها به طور مستقل توزیع شده است. در نهایت، ساخت ماشینهای بردار پشتیبان را به طور خلاصه مرور میکنیم و نشان میدهیم که چگونه میتوان مرزهای تعمیم را برای آنها استخراج کرد و پیچیدگی را از طریق تعداد بردارهای پشتیبانی یا از طریق مقدار حاشیه انتقالی یا استقرایی اندازهگیری کرد."--وب سایت پروژه اقلید.
"This monograph deals with adaptive supervised classification, using tools borrowed from statistical mechanics and information theory, stemming from the PAC-Bayesian approach pioneered by David McAllester and applied to a conception of statistical learning theory forged by Vladimir Vapnik. Using convex analysis on the set of posterior probability measures, we show how to get local measures of the complexity of the classification model involving the relative entropy of posterior distributions with respect to Gibbs posterior measures. We then discuss relative bounds, comparing the generalization error of two classification rules, showing how the margin assumption of Mammen and Tsybakov can be replaced with some empirical measure of the covariance structure of the classification model. We show how to associate to any posterior distribution an effective temperature relating it to the Gibbs prior distribution with the same level of expected error rate, and how to estimate this effective temperature from data, resulting in an estimator whose expected error rate converges according to the best possible power of the sample size adaptively under any margin and parametric complexity assumptions. We describe and study an alternative selection scheme based on relative bounds between estimators, and present a two step localization technique which can handle the selection of a parametric model from a family of those. We show how to extend systematically all the results obtained in the inductive setting to transductive learning, and use this to improve Vapnik’s generalization bounds, extending them to the case when the sample is made of independent non-identically distributed pairs of patterns and labels. Finally we review briefly the construction of Support Vector Machines and show how to derive generalization bounds for them, measuring the complexity either through the number of support vectors or through the value of the transductive or inductive margin."--Project Euclid website.