دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Anne-Johan Annema (auth.)
سری: The Springer International Series in Engineering and Computer Science 314
ISBN (شابک) : 9781461359906, 9781461523376
ناشر: Springer US
سال نشر: 1995
تعداد صفحات: 247
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 21 مگابایت
کلمات کلیدی مربوط به کتاب شبکههای عصبی پیشخور: تحلیل تجزیه برداری، مدلسازی و پیادهسازی آنالوگ: مدارها و سیستم ها، مهندسی برق، فیزیک آماری، سیستم های دینامیکی و پیچیدگی
در صورت تبدیل فایل کتاب Feed-Forward Neural Networks: Vector Decomposition Analysis, Modelling and Analog Implementation به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکههای عصبی پیشخور: تحلیل تجزیه برداری، مدلسازی و پیادهسازی آنالوگ نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
شبکههای عصبی پیشخور: تحلیل تجزیه برداری،
مدلسازیو پیادهسازی آنالوگ روش جدیدی را برای
تجزیه و تحلیل ریاضی شبکههای عصبی ارائه میدهد که بر اساس پس
انتشار یاد میگیرند. الگوریتم این کتاب همچنین برخی دیگر از
الگوریتمهای جایگزین اخیر را برای شبکههای عصبی ادراکمانند
پیادهسازی شده با سختافزار مورد بحث قرار میدهد. این روش به
تجزیه و تحلیل ساده رفتار یادگیری شبکه های عصبی اجازه می دهد
تا مشخصات بلوک های سازنده آنها را به راحتی بدست آوریم.
که با استخراج یک مشخصات شروع می شود و با اجرای سخت افزاری آن
ختم می شود، شبکه های عصبی با سیم سخت آنالوگ و پیشخور با
یادگیری انتشار پس انتشار روی تراشه به طور کامل طراحی می شوند.
یادگیری بر روی تراشه در شرایطی که نمی توان از پیکربندی وزن
ثابت استفاده کرد، ضروری است. همچنین برای از بین بردن اکثر عدم
تطابق ها و تحمل پارامترها که در تراشه های شبکه عصبی سیمی سخت
رخ می دهد مفید است.
شبکه های عصبی کاملا آنالوگ دارای چندین مزیت نسبت به سایر
پیاده سازی ها هستند: مساحت تراشه کم، مصرف انرژی کم و سرعت عمل
بالا.
شبکههای عصبی پیشخور یک منبع مرجع عالی است و ممکن
است به عنوان متنی برای دورههای پیشرفته استفاده شود.
Feed-Forward Neural Networks: Vector Decomposition
Analysis, Modellingand Analog Implementation
presents a novel method for the mathematical analysis of
neural networks that learn according to the back-propagation
algorithm. The book also discusses some other recent
alternative algorithms for hardware implemented
perception-like neural networks. The method permits a simple
analysis of the learning behaviour of neural networks,
allowing specifications for their building blocks to be
readily obtained.
Starting with the derivation of a specification and ending
with its hardware implementation, analog hard-wired,
feed-forward neural networks with on-chip back-propagation
learning are designed in their entirety. On-chip learning is
necessary in circumstances where fixed weight configurations
cannot be used. It is also useful for the elimination of most
mis-matches and parameter tolerances that occur in hard-wired
neural network chips.
Fully analog neural networks have several advantages over
other implementations: low chip area, low power consumption,
and high speed operation.
Feed-Forward Neural Networks is an excellent source
of reference and may be used as a text for advanced
courses.
Front Matter....Pages i-xiii
Introduction....Pages 1-26
The Vector Decomposition Method....Pages 27-37
Dynamics of Single Layer Nets....Pages 39-56
Unipolar Input Signals in Single-Layer Feed-Forward Neural Networks....Pages 57-62
Cross-talk in Single-Layer Feed-Forward Neural Networks....Pages 63-74
Precision Requirements for Analog Weight Adaptation Circuitry for Single-Layer Nets....Pages 75-90
Discretization of Weight Adaptations in Single-Layer Nets....Pages 91-106
Learning Behavior and Temporary Minima of Two-Layer Neural Networks....Pages 107-145
Biases and Unipolar Input signals for Two-Layer Neural Networks....Pages 147-166
Cost Functions for Two-Layer Neural Networks....Pages 167-176
Some issues for f’ (x)....Pages 177-185
Feed-forward hardware....Pages 187-214
Analog weight adaptation hardware....Pages 215-228
Conclusions....Pages 229-234
Back Matter....Pages 235-238