دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1 ed.] نویسندگان: Andreas V. M. Herz (auth.), Professor Eytan Domany, Professor Dr. J. Leo van Hemmen, Professor Klaus Schulten (eds.) سری: Physics of Neural Networks ISBN (شابک) : 9781461268826, 9781461207238 ناشر: Springer-Verlag New York سال نشر: 1996 تعداد صفحات: 311 [321] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 11 Mb
در صورت تبدیل فایل کتاب Models of Neural Networks III: Association, Generalization, and Representation به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب مدل های شبکه های عصبی III: ارتباط، تعمیم و بازنمایی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
یکی از چالشبرانگیزترین و جذابترین مسائل تئوری شبکههای عصبی، رفتار مجانبی، نحوه رفتار یک سیستم با گذشت زمان است. این برای بسیاری از کاربردهای عملی ارتباط ویژه ای دارد. در اینجا ما بر تداعی، تعمیم و بازنمایی تمرکز می کنیم. ابتدا به موضوع آخر می پردازیم. فصل مقدماتی، "تحلیل جهانی کارهای شبکه عصبی مکرر" توسط آندریاس هرز، تجزیه و تحلیل عمیقی از نحوه ساخت یک تابع لیاپانوف برای انواع مختلف دینامیک و کدگذاری عصبی ارائه می دهد. این شامل بررسی کار اخیر با جان هاپفیلد بر روی نورون های ادغام و آتش با تعاملات محلی است. فصل «میدانها و نقشههای گیرنده در قشر بینایی: مدلهای تسلط چشمی و ستونهای جهتگیری» نوشته کن میلر، توضیح میدهد که چگونه قشر بینایی اولیه ممکن است به طور مجانبی ساختار خاص خود را از طریق یک فرآیند خودسازماندهی مبتنی بر یادگیری هبی به دست آورد. استدلال او از آن زمان نشان داده شده است که نسبتاً مستعد تعمیم است.
One of the most challenging and fascinating problems of the theory of neural nets is that of asymptotic behavior, of how a system behaves as time proceeds. This is of particular relevance to many practical applications. Here we focus on association, generalization, and representation. We turn to the last topic first. The introductory chapter, "Global Analysis of Recurrent Neural Net works," by Andreas Herz presents an in-depth analysis of how to construct a Lyapunov function for various types of dynamics and neural coding. It includes a review of the recent work with John Hopfield on integrate-and fire neurons with local interactions. The chapter, "Receptive Fields and Maps in the Visual Cortex: Models of Ocular Dominance and Orientation Columns" by Ken Miller, explains how the primary visual cortex may asymptotically gain its specific structure through a self-organization process based on Hebbian learning. His argu ment since has been shown to be rather susceptible to generalization.