دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Barbara Hammer
سری: Lecture Notes in Control and Information Sciences 254
ISBN (شابک) : 185233343X, 1100110011
ناشر: Springer
سال نشر: 2000
تعداد صفحات: 159
زبان: English
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 2 مگابایت
در صورت تبدیل فایل کتاب Learning with recurrent neural networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری با شبکه های عصبی مکرر نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
به عنوان مثال، شبکههای تاشو، تعمیم شبکههای عصبی مکرر به ورودیهای ساختار یافته درختی، به عنوان مکانیزمی برای یادگیری قوانین در دادههای نمادین کلاسیک مورد بررسی قرار میگیرند. معماری، مکانیسم آموزش و کاربردهای متعدد در زمینه های مختلف توضیح داده شده است. سپس یک مبانی نظری، که ثابت میکند اصولاً رویکرد بهعنوان مکانیزم یادگیری مناسب است، ارائه میشود: توانایی تقریب جهانی آنها مورد بررسی قرار گرفته است - شامل چندین نتیجه جدید برای شبکههای عصبی عودکننده استاندارد مانند مرزهای صریح بر روی تعداد مورد نیاز نورون و فوقالعاده. قابلیت تورینگ شبکه های بازگشتی سیگموئیدی یادگیریپذیری نظری اطلاعات مورد بررسی قرار میگیرد - شامل چندین سهم در یادگیری وابسته به توزیع، پاسخ به یک سوال باز مطرح شده توسط Vidyasagar، و تعمیم چارچوب شانس اخیر به کلاسهای تابع. در نهایت، پیچیدگی آموزش در نظر گرفته می شود - از جمله نتایج جدید در مورد مشکل بارگذاری برای شبکه های پیشخور استاندارد با معماری چند لایه دلخواه، تعداد همبسته نورون ها و اندازه مجموعه آموزشی، تعداد متغیری از نورون های پنهان اما بعد ورودی ثابت، یا سیگموئیدی تابع فعال سازی، به ترتیب
Folding networks, a generalisation of recurrent neural networks to tree structured inputs, are investigated as a mechanism to learn regularities on classical symbolic data, for example. The architecture, the training mechanism, and several applications in different areas are explained. Afterwards a theoretical foundation, proving that the approach is appropriate as a learning mechanism in principle, is presented: Their universal approximation ability is investigated- including several new results for standard recurrent neural networks such as explicit bounds on the required number of neurons and the super Turing capability of sigmoidal recurrent networks. The information theoretical learnability is examined - including several contribution to distribution dependent learnability, an answer to an open question posed by Vidyasagar, and a generalisation of the recent luckiness framework to function classes. Finally, the complexity of training is considered - including new results on the loading problem for standard feedforward networks with an arbitrary multilayered architecture, a correlated number of neurons and training set size, a varying number of hidden neurons but fixed input dimension, or the sigmoidal activation function, respectively
Front Matter....Pages I-X
Introduction....Pages 1-4
Recurrent and folding networks....Pages 5-18
Approximation ability....Pages 19-49
Learnability....Pages 51-101
Complexity....Pages 103-131
Conclusion....Pages 133-135
Back Matter....Pages 137-150