ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب The Informational Complexity of Learning: Perspectives on Neural Networks and Generative Grammar

دانلود کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاه‌هایی درباره شبکه‌های عصبی و گرامر تولیدی

The Informational Complexity of Learning: Perspectives on Neural Networks and Generative Grammar

مشخصات کتاب

The Informational Complexity of Learning: Perspectives on Neural Networks and Generative Grammar

ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 9781461374930, 9781461554592 
ناشر: Springer US 
سال نشر: 1998 
تعداد صفحات: 239 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 11 مگابایت 

قیمت کتاب (تومان) : 47,000



کلمات کلیدی مربوط به کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاه‌هایی درباره شبکه‌های عصبی و گرامر تولیدی: هوش مصنوعی (شامل رباتیک)، زبانشناسی (عمومی)، تئوری محاسبات، پردازش سیگنال، تصویر و گفتار



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب The Informational Complexity of Learning: Perspectives on Neural Networks and Generative Grammar به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاه‌هایی درباره شبکه‌های عصبی و گرامر تولیدی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاه‌هایی درباره شبکه‌های عصبی و گرامر تولیدی



در میان موضوعات دیگر، پیچیدگی اطلاعاتی یادگیری:دیدگاه‌های شبکه‌های عصبی و گرامر تولیدی دو مشکل یادگیری مهم اما بسیار متفاوت را در چارچوب تحلیلی یکسانی گرد هم می‌آورد. اولین مورد به مشکل یادگیری نگاشت های عملکردی با استفاده از شبکه های عصبی و به دنبال آن یادگیری گرامرهای زبان طبیعی در اصول و پارامترهای سنت چامسکی مربوط می شود.
این دو مشکل یادگیری به ظاهر بسیار متفاوت هستند. شبکه‌های عصبی نگاشت‌هایی با ارزش واقعی، بی‌بعدی و پیوسته هستند. از سوی دیگر، گرامرها نگاشتهای گسسته (نمادین) با ارزش بولی، محدود بعدی هستند. علاوه بر این، جوامع تحقیقاتی که در این دو حوزه کار می کنند تقریباً هرگز با هم همپوشانی ندارند.
هدف کتاب پر کردن این شکاف است. از تکنیک های رسمی توسعه یافته در تئوری یادگیری آماری و علوم کامپیوتر نظری در دهه گذشته برای تجزیه و تحلیل هر دو نوع مشکل یادگیری استفاده می کند. با پرسیدن همین سوال - چه مقدار اطلاعات برای یادگیری لازم است؟ - از هر دو مشکل، شباهت ها و تفاوت های آنها را برجسته می کند. نتایج خاص شامل انتخاب مدل در شبکه‌های عصبی، یادگیری فعال، یادگیری زبان و مدل‌های تکاملی تغییر زبان است.
پیچیدگی اطلاعاتی یادگیری: دیدگاه‌هایی بر شبکه‌های عصبیو گرامر مولد یک کار بسیار بین‌رشته‌ای است. هر کسی که علاقه مند به تعامل علوم کامپیوتر و علوم شناختی است باید از این کتاب لذت ببرد. محققان در هوش مصنوعی، شبکه‌های عصبی، زبان‌شناسی، علوم کامپیوتر نظری و آمار آن را به ویژه مرتبط می‌دانند.


توضیحاتی درمورد کتاب به خارجی

Among other topics, The Informational Complexity of Learning:Perspectives on Neural Networks and Generative Grammar brings together two important but very different learning problems within the same analytical framework. The first concerns the problem of learning functional mappings using neural networks, followed by learning natural language grammars in the principles and parameters tradition of Chomsky.
These two learning problems are seemingly very different. Neural networks are real-valued, infinite-dimensional, continuous mappings. On the other hand, grammars are boolean-valued, finite-dimensional, discrete (symbolic) mappings. Furthermore the research communities that work in the two areas almost never overlap.
The book's objective is to bridge this gap. It uses the formal techniques developed in statistical learning theory and theoretical computer science over the last decade to analyze both kinds of learning problems. By asking the same question - how much information does it take to learn? - of both problems, it highlights their similarities and differences. Specific results include model selection in neural networks, active learning, language learning and evolutionary models of language change.
The Informational Complexity of Learning: Perspectives on NeuralNetworks and Generative Grammar is a very interdisciplinary work. Anyone interested in the interaction of computer science and cognitive science should enjoy the book. Researchers in artificial intelligence, neural networks, linguistics, theoretical computer science, and statistics will find it particularly relevant.



فهرست مطالب

Front Matter....Pages i-xxiii
Introduction....Pages 1-19
On the Relationship between Hyothesis Complexity, Sample Complexity and Generalization Error for Neural Networks....Pages 21-73
Investigating the Sample Complexity of Active Learning Schemes....Pages 75-123
Language Learning Problems in the Principles and Parameters Framework....Pages 125-171
The Logical Problem of Language Change....Pages 173-205
Conclusions....Pages 207-212
Back Matter....Pages 213-224




نظرات کاربران