دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: 1 نویسندگان: Martin Anthony. Peter L. Bartlett سری: ISBN (شابک) : 052111862X, 9780521118620 ناشر: سال نشر: 2009 تعداد صفحات: 404 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 9 مگابایت
کلمات کلیدی مربوط به کتاب یادگیری شبکه عصبی: مبانی نظری: علوم و مهندسی کامپیوتر، هوش مصنوعی، شبکه های عصبی
در صورت تبدیل فایل کتاب Neural Network Learning: Theoretical Foundations به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری شبکه عصبی: مبانی نظری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کار مهم پیشرفت های نظری اخیر در مطالعه شبکه های عصبی مصنوعی را توصیف می کند. این مدلهای احتمالی مسائل یادگیری تحت نظارت را بررسی میکند و به سؤالات آماری و محاسباتی کلیدی میپردازد. فصلها تحقیق در مورد طبقهبندی الگو با شبکههای خروجی باینری را بررسی میکنند، از جمله بحث در مورد ارتباط بعد Vapnik Chervonenkis، و تخمینهای بعد برای چندین مدل شبکه عصبی. علاوه بر این، آنتونی و بارتلت مدلی از طبقهبندی با شبکههای خروجی واقعی ایجاد کردند و سودمندی طبقهبندی را با «حاشیه بزرگ» نشان دادند. نویسندگان نقش نسخههای حساس به مقیاس بعد Vapnik Chervonenkis را در حاشیه بزرگ توضیح میدهند. طبقه بندی و در پیش بینی واقعی. فصلهای کلیدی همچنین پیچیدگی محاسباتی یادگیری شبکههای عصبی را مورد بحث قرار میدهند، انواع نتایج سختی را توصیف میکنند و دو الگوریتم یادگیری سازنده و کارآمد را تشریح میکنند. این کتاب مستقل است و برای محققان و دانشجویان تحصیلات تکمیلی در علوم کامپیوتر، مهندسی و ریاضیات قابل دسترسی است.
This important work describes recent theoretical advances in the study of artificial neural networks. It explores probabilistic models of supervised learning problems, and addresses the key statistical and computational questions. Chapters survey research on pattern classification with binary-output networks, including a discussion of the relevance of the Vapnik Chervonenkis dimension, and of estimates of the dimension for several neural network models. In addition, Anthony and Bartlett develop a model of classification by real-output networks, and demonstrate the usefulness of classification with a "large margin." The authors explain the role of scale-sensitive versions of the Vapnik Chervonenkis dimension in large margin classification, and in real prediction. Key chapters also discuss the computational complexity of neural network learning, describing a variety of hardness results, and outlining two efficient, constructive learning algorithms. The book is self-contained and accessible to researchers and graduate students in computer science, engineering, and mathematics.