دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Yves Chauvin (ed.), David E. Rumelhart (ed.) سری: Developments in Connectionist Theory ISBN (شابک) : 080581258X, 9780805812596 ناشر: Lawrence Erlbaum Associates سال نشر: 1995 تعداد صفحات: 575 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 14 مگابایت
در صورت تبدیل فایل کتاب Backpropagation: Theory, Architectures, and Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پس انتشار: نظریه، معماری و کاربردها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب متشکل از سه بخش، محبوبترین الگوریتم آموزشی شبکههای عصبی را ارائه میکند: انتشار پسانداز. بخش اول تئوری و اصول پشت انتشار را از دیدگاههای مختلف مانند آمار، یادگیری ماشین و سیستمهای دینامیکی ارائه میکند. دومی تعدادی از معماریهای شبکه را ارائه میکند که ممکن است برای مطابقت با مفاهیم کلی پردازش توزیعشده موازی با یادگیری پسانتشاری طراحی شوند. در نهایت، بخش سوم نشان می دهد که چگونه می توان این اصول را در تعدادی از زمینه های مختلف مرتبط با علوم شناختی، از جمله کنترل، تشخیص گفتار، رباتیک، پردازش تصویر و روانشناسی شناختی به کار برد. این جلد به گونه ای طراحی شده است که هم یک پایه نظری محکم و هم مجموعه ای از مثال ها را ارائه دهد که تطبیق پذیری مفاهیم را نشان می دهد. برای متخصصان این حوزه مفید است، همچنین باید برای دانشآموزانی که به دنبال درک اصول اولیه یادگیری پیوندگرا هستند و مهندسانی که میخواهند شبکههای عصبی را به طور کلی - و انتشار پسافکن به طور خاص - را به مجموعه روشهای حل مسئلهشان اضافه کنند، بسیار مفید باشد. .
Composed of three sections, this book presents the most popular training algorithm for neural networks: backpropagation. The first section presents the theory and principles behind backpropagation as seen from different perspectives such as statistics, machine learning, and dynamical systems. The second presents a number of network architectures that may be designed to match the general concepts of Parallel Distributed Processing with backpropagation learning. Finally, the third section shows how these principles can be applied to a number of different fields related to the cognitive sciences, including control, speech recognition, robotics, image processing, and cognitive psychology. The volume is designed to provide both a solid theoretical foundation and a set of examples that show the versatility of the concepts. Useful to experts in the field, it should also be most helpful to students seeking to understand the basic principles of connectionist learning and to engineers wanting to add neural networks in general -- and backpropagation in particular -- to their set of problem-solving methods.