دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1st
نویسندگان: Ian Parberry
سری: Foundations of Computing
ISBN (شابک) : 0262161486, 9780262161480
ناشر: The MIT Press
سال نشر: 1994
تعداد صفحات: 288
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 27 مگابایت
در صورت تبدیل فایل کتاب Circuit Complexity and Neural Networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پیچیدگی مدار و شبکه های عصبی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
شبکههای عصبی معمولاً روی مشکلات کوچک به اندازه کافی کار میکنند، اما زمانی که به مشکلات مربوط به مقادیر زیادی داده ورودی بزرگ شوند، ممکن است با مشکل مواجه شوند. پیچیدگی مدار و شبکههای عصبی به این سوال مهم میپردازد که مقیاس شبکههای عصبی چقدر خوب است - یعنی با افزایش اندازه مشکل، زمان محاسبه و تعداد نورونها چقدر سریع رشد میکنند. این پژوهش تحقیقات اخیر در پیچیدگی مدار (شاخه قوی از علم کامپیوتر نظری) را بررسی میکند و این کار را برای درک نظری مشکل مقیاسپذیری به کار میگیرد. بیشتر تحقیقات در شبکههای عصبی بر یادگیری تمرکز دارند، اما درک محدودیتهای فیزیکی از اهمیت زیادی دارد. قبل از اینکه بتوان منابع مورد نیاز برای حل یک مشکل خاص را محاسبه کرد. یکی از اهداف این کتاب مقایسه پیچیدگی شبکههای عصبی و پیچیدگی رایانههای معمولی با نگاهی به توانایی محاسباتی و منابع (نرونها و زمان) است که بخشی ضروری از پایههای یادگیری شبکههای عصبی هستند. پیچیدگی مدار و شبکههای عصبی حاوی مقدار قابلتوجهی از مطالب پیشزمینه در مورد نظریه پیچیدگی مرسوم است که دانشمندان شبکههای عصبی را قادر میسازد تا در مورد نحوه کاربرد نظریه پیچیدگی در رشته خود بیاموزند و به نظریهپردازان پیچیدگی اجازه میدهد ببینند که رشته آنها در شبکههای عصبی چگونه کاربرد دارد.
Neural networks usually work adequately on small problems but can run into trouble when they are scaled up to problems involving large amounts of input data. Circuit Complexity and Neural Networks addresses the important question of how well neural networks scale - that is, how fast the computation time and number of neurons grow as the problem size increases. It surveys recent research in circuit complexity (a robust branch of theoretical computer science) and applies this work to a theoretical understanding of the problem of scalability.Most research in neural networks focuses on learning, yet it is important to understand the physical limitations of the network before the resources needed to solve a certain problem can be calculated. One of the aims of this book is to compare the complexity of neural networks and the complexity of conventional computers, looking at the computational ability and resources (neurons and time) that are a necessary part of the foundations of neural network learning.Circuit Complexity and Neural Networks contains a significant amount of background material on conventional complexity theory that will enable neural network scientists to learn about how complexity theory applies to their discipline, and allow complexity theorists to see how their discipline applies to neural networks.