دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: Vwani Roychowdhury, Kai-Yeung Siu, Alon Orlitsky (auth.), Vwani Roychowdhury, Kai-Yeung Siu, Alon Orlitsky (eds.) سری: ISBN (شابک) : 9781461361602, 9781461526964 ناشر: Springer US سال نشر: 1994 تعداد صفحات: 481 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 10 مگابایت
کلمات کلیدی مربوط به کتاب پیشرفت های نظری در محاسبه و یادگیری عصبی: ساختارهای داده، رمز شناسی و نظریه اطلاعات، هوش مصنوعی (شامل رباتیک)، فیزیک آماری، سیستم های دینامیکی و پیچیدگی، مهندسی برق
در صورت تبدیل فایل کتاب Theoretical Advances in Neural Computation and Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پیشرفت های نظری در محاسبه و یادگیری عصبی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
برای اینکه هر زمینه تحقیقاتی تأثیری پایدار داشته باشد، باید یک پایه نظری محکم وجود داشته باشد. تحقیقات شبکه های عصبی نیز از این قاعده مستثنی نیست. برخی از مفاهیم اساسی که چندین دهه پیش ایجاد شدند، منجر به نوید اولیه توسعه ماشینهایی شد که هوش را نشان میدهند. انگیزه مطالعه چنین ماشین هایی از این واقعیت ناشی می شود که مغز در پردازش بصری و تشخیص گفتار بسیار کارآمدتر از رایانه های موجود است. بدون شک، سیستمهای نئوروبیولوژیکی از اصول محاسباتی بسیار متفاوتی استفاده میکنند. هدف مطالعه شبکه های عصبی مصنوعی درک این اصول محاسباتی و بکارگیری آنها در حل مسائل مهندسی است. با توجه به پیشرفت های اخیر در زمینه فناوری دستگاه و علم محاسبات، در حال حاضر شاهد رشد انفجاری در مطالعات شبکه های عصبی و کاربردهای آن هستیم. ممکن است سالها طول بکشد تا درک کاملی از مکانیسمهای سیستمهای عصبی داشته باشیم. قبل از دستیابی به این هدف نهایی، پاسخ به سؤالات اساسی ضروری است، مانند (الف) شبکه های عصبی چه کاری می توانند انجام دهند که تکنیک های محاسبات سنتی نمی توانند انجام دهند، (ب) چگونه پیچیدگی شبکه برای یک برنامه کاربردی با پیچیدگی ارتباط دارد. از آن مشکل، و (ج) چه مقدار داده آموزشی مورد نیاز است تا شبکه حاصل به درستی یاد بگیرد؟ همه کسانی که در این زمینه کار می کنند سعی کرده اند به این سؤالات پاسخ دهند، اما راه حل های کلی همچنان مبهم است. با این حال، پیشرفت های تشویقی در مطالعه مدل های عصبی خاص توسط محققان رشته های مختلف انجام شده است.
For any research field to have a lasting impact, there must be a firm theoretical foundation. Neural networks research is no exception. Some of the founda tional concepts, established several decades ago, led to the early promise of developing machines exhibiting intelligence. The motivation for studying such machines comes from the fact that the brain is far more efficient in visual processing and speech recognition than existing computers. Undoubtedly, neu robiological systems employ very different computational principles. The study of artificial neural networks aims at understanding these computational prin ciples and applying them in the solutions of engineering problems. Due to the recent advances in both device technology and computational science, we are currently witnessing an explosive growth in the studies of neural networks and their applications. It may take many years before we have a complete understanding about the mechanisms of neural systems. Before this ultimate goal can be achieved, an swers are needed to important fundamental questions such as (a) what can neu ral networks do that traditional computing techniques cannot, (b) how does the complexity of the network for an application relate to the complexity of that problem, and (c) how much training data are required for the resulting network to learn properly? Everyone working in the field has attempted to answer these questions, but general solutions remain elusive. However, encouraging progress in studying specific neural models has been made by researchers from various disciplines.
Front Matter....Pages i-xxiv
Front Matter....Pages 1-1
Neural Models and Spectral Methods....Pages 3-36
Depth-Efficient Threshold Circuits for Arithmetic Functions....Pages 37-84
Communication Complexity and Lower Bounds for Threshold Circuits....Pages 85-125
A Comparison of the Computational Power of Sigmoid and Boolean Threshold Circuits....Pages 127-151
Computing on Analog Neural Nets with Arbitrary Real Weights....Pages 153-172
Connectivity Versus Capacity in the Hebb Rule....Pages 173-240
Front Matter....Pages 241-241
Computational Learning Theory and Neural Networks: A Survey of Selected Topics....Pages 243-293
Perspectives of Current Research about the Complexity of Learning on Neural Nets....Pages 295-336
Learning an Intersection of K Halfspaces Over a Uniform Distribution....Pages 337-356
On the Intractability of Loading Neural Networks....Pages 357-389
Learning Boolean Functions via the Fourier Transform....Pages 391-424
LMS and Backpropagation are Minimax Filters....Pages 425-447
Supervised Learning: Can it Escape its Local Minimum?....Pages 449-461
Back Matter....Pages 463-468