دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Michael J. Kearns
سری: ACM Distinguished Dissertation
ISBN (شابک) : 0262111527, 9780262111522
ناشر: The MIT Press
سال نشر: 1990
تعداد صفحات: 176
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 7 مگابایت
در صورت تبدیل فایل کتاب Computational Complexity of Machine Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پیچیدگی محاسباتی یادگیری ماشین نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
پیچیدگی محاسباتی یادگیری ماشین یک مطالعه ریاضی در مورد
امکانات یادگیری کارآمد توسط رایانه است. این در مدلهای اخیراً
معرفیشده برای استنتاج ماشین کار میکند که مبتنی بر نظریه
پیچیدگی محاسباتی است و تأکید صریح بر الگوریتمهای کارآمد و کلی
برای یادگیری دارد. به طور موثر از مثال ها قابل یادگیری است. این
نتایج به شکل هر دو الگوریتم همراه با اثبات عملکرد آنها است و
نتایج سختی نشاندهنده سختناپذیری یادگیری در تنظیمات طبیعی خاص
است. علاوه بر این، کتاب شامل محدودیتهای پایینتری در مورد
منابع مورد نیاز برای یادگیری، مطالعه گسترده یادگیری در صورت
وجود خطا در دادههای نمونه، و چندین قضیه است که تقلیلپذیری بین
مسائل یادگیری را نشان میدهد.
مایکل جی کرنز دانشیار فوق دکترا در آزمایشگاه علوم کامپیوتر در
MIT است.
محتوا: تعاریف، نمادها، و انگیزه. مروری بر تحقیقات اخیر
در نظریه یادگیری محاسباتی. ابزارهای مفید برای یادگیری بدون
توزیع. یادگیری در صورت وجود خطا مرزهای پایین در پیچیدگی نمونه
محدودیت های رمزنگاری در یادگیری چند جمله ای زمان. یادگیری ویژه
توزیع در زمان چند جمله ای. معادل سازی یادگیری ضعیف و یادگیری
گروهی.
The Computational Complexity of Machine Learning is a
mathematical study of the possibilities for efficient learning
by computers. It works within recently introduced models for
machine inference that are based on the theory of computational
complexity and that place an explicit emphasis on efficient and
general algorithms for learning.
Theorems are presented that help elucidate the boundary of what
is efficiently learnable from examples. These results take the
form of both algorithms with proofs of their performance, and
hardness results demonstrating the intractability of learning
in certain natural settings. In addition the book contains
lower bounds on the resources required for learning, an
extensive study of learning in the presence of errors in the
sample data, and several theorems demonstrating reducibilities
between learning problems.
Michael J. Kearns is Postdoctoral Associate in the Laboratory
for Computer Science at MIT.
Contents: Definitions, Notations, and Motivation.
Overview of Recent Research in Computational Learning Theory.
Useful Tools for Distribution-Free Learning. Learning in the
Presence of Errors. Lower Bounds on Sample Complexity.
Cryptographic Limitations on Polynomial-Time Learning.
Distribution-Specific Learning in Polynomial Time. Equivalence
of Weak Learning and Group Learning.