دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Michael J. Kearns, Umesh Virkumar Vazirani سری: ISBN (شابک) : 0262111934, 9780262111935 ناشر: MIT Press سال نشر: 1994 تعداد صفحات: 0 زبان: English فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 1 مگابایت
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب An introduction to computational learning theory به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب معرفی تئوری یادگیری محاسباتی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
مایکل کرنز و اومش وزیرانی با تأکید بر مسائل کارایی محاسباتی، تعدادی از موضوعات محوری در نظریه یادگیری محاسباتی را برای محققان و دانشجویان در هوش مصنوعی، شبکههای عصبی، علوم کامپیوتر نظری و آمار معرفی میکنند. نظریه یادگیری محاسباتی یک حوزه جدید و به سرعت در حال گسترش است. پژوهشی که مدلهای رسمی استقرا را با اهداف کشف روشهای رایج زیربنای الگوریتمهای یادگیری کارآمد و شناسایی موانع محاسباتی یادگیری بررسی میکند. هر موضوع در کتاب برای توضیح یک اصل کلی انتخاب شده است که در یک محیط رسمی دقیق بررسی میشود. شهود در ارائه تاکید شده است تا مطالب را برای غیر نظریه پردازان در دسترس قرار دهد و در عین حال استدلال های دقیقی را برای متخصص ارائه دهد. این تعادل نتیجه اثباتهای جدید قضایای تثبیتشده، و ارائههای جدید اثباتهای استاندارد است. موضوعات تحت پوشش شامل انگیزه، تعاریف، و نتایج بنیادی، مثبت و منفی، برای مدل L.G. Valiant در مورد احتمالاً تقریباً درست است. ; Occam's Razor، که رابطه بین یادگیری و فشرده سازی داده ها را رسمیت می بخشد. بعد Vapnik-Chervonenkis; معادل یادگیری ضعیف و قوی؛ یادگیری کارآمد در حضور نویز با روش پرس و جوهای آماری. روابط بین یادگیری و رمزنگاری، و محدودیت های محاسباتی ناشی از یادگیری کارآمد؛ کاهش پذیری بین مشکلات یادگیری؛ و الگوریتم هایی برای یادگیری اتوماتای محدود از آزمایش فعال.
Emphasizing issues of computational efficiency, Michael Kearns and Umesh Vazirani introduce a number of central topics in computational learning theory for researchers and students in artificial intelligence, neural networks, theoretical computer science, and statistics.Computational learning theory is a new and rapidly expanding area of research that examines formal models of induction with the goals of discovering the common methods underlying efficient learning algorithms and identifying the computational impediments to learning.Each topic in the book has been chosen to elucidate a general principle, which is explored in a precise formal setting. Intuition has been emphasized in the presentation to make the material accessible to the nontheoretician while still providing precise arguments for the specialist. This balance is the result of new proofs of established theorems, and new presentations of the standard proofs.The topics covered include the motivation, definitions, and fundamental results, both positive and negative, for the widely studied L. G. Valiant model of Probably Approximately Correct Learning; Occam's Razor, which formalizes a relationship between learning and data compression; the Vapnik-Chervonenkis dimension; the equivalence of weak and strong learning; efficient learning in the presence of noise by the method of statistical queries; relationships between learning and cryptography, and the resulting computational limitations on efficient learning; reducibility between learning problems; and algorithms for learning finite automata from active experimentation.