ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب An introduction to computational learning theory

دانلود کتاب معرفی تئوری یادگیری محاسباتی

An introduction to computational learning theory

مشخصات کتاب

An introduction to computational learning theory

ویرایش:  
نویسندگان: ,   
سری:  
ISBN (شابک) : 0262111934, 9780262111935 
ناشر: MIT Press 
سال نشر: 1994 
تعداد صفحات: 0 
زبان: English  
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 1 مگابایت 

قیمت کتاب (تومان) : 47,000

در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 17


در صورت تبدیل فایل کتاب An introduction to computational learning theory به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب معرفی تئوری یادگیری محاسباتی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب معرفی تئوری یادگیری محاسباتی

مایکل کرنز و اومش وزیرانی با تأکید بر مسائل کارایی محاسباتی، تعدادی از موضوعات محوری در نظریه یادگیری محاسباتی را برای محققان و دانشجویان در هوش مصنوعی، شبکه‌های عصبی، علوم کامپیوتر نظری و آمار معرفی می‌کنند. نظریه یادگیری محاسباتی یک حوزه جدید و به سرعت در حال گسترش است. پژوهشی که مدل‌های رسمی استقرا را با اهداف کشف روش‌های رایج زیربنای الگوریتم‌های یادگیری کارآمد و شناسایی موانع محاسباتی یادگیری بررسی می‌کند. هر موضوع در کتاب برای توضیح یک اصل کلی انتخاب شده است که در یک محیط رسمی دقیق بررسی می‌شود. شهود در ارائه تاکید شده است تا مطالب را برای غیر نظریه پردازان در دسترس قرار دهد و در عین حال استدلال های دقیقی را برای متخصص ارائه دهد. این تعادل نتیجه اثبات‌های جدید قضایای تثبیت‌شده، و ارائه‌های جدید اثبات‌های استاندارد است. موضوعات تحت پوشش شامل انگیزه، تعاریف، و نتایج بنیادی، مثبت و منفی، برای مدل L.G. Valiant در مورد احتمالاً تقریباً درست است. ; Occam's Razor، که رابطه بین یادگیری و فشرده سازی داده ها را رسمیت می بخشد. بعد Vapnik-Chervonenkis; معادل یادگیری ضعیف و قوی؛ یادگیری کارآمد در حضور نویز با روش پرس و جوهای آماری. روابط بین یادگیری و رمزنگاری، و محدودیت های محاسباتی ناشی از یادگیری کارآمد؛ کاهش پذیری بین مشکلات یادگیری؛ و الگوریتم هایی برای یادگیری اتوماتای ​​محدود از آزمایش فعال.


توضیحاتی درمورد کتاب به خارجی

Emphasizing issues of computational efficiency, Michael Kearns and Umesh Vazirani introduce a number of central topics in computational learning theory for researchers and students in artificial intelligence, neural networks, theoretical computer science, and statistics.Computational learning theory is a new and rapidly expanding area of research that examines formal models of induction with the goals of discovering the common methods underlying efficient learning algorithms and identifying the computational impediments to learning.Each topic in the book has been chosen to elucidate a general principle, which is explored in a precise formal setting. Intuition has been emphasized in the presentation to make the material accessible to the nontheoretician while still providing precise arguments for the specialist. This balance is the result of new proofs of established theorems, and new presentations of the standard proofs.The topics covered include the motivation, definitions, and fundamental results, both positive and negative, for the widely studied L. G. Valiant model of Probably Approximately Correct Learning; Occam's Razor, which formalizes a relationship between learning and data compression; the Vapnik-Chervonenkis dimension; the equivalence of weak and strong learning; efficient learning in the presence of noise by the method of statistical queries; relationships between learning and cryptography, and the resulting computational limitations on efficient learning; reducibility between learning problems; and algorithms for learning finite automata from active experimentation.





نظرات کاربران