دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Partha Niyogi (auth.)
سری:
ISBN (شابک) : 9781461374930, 9781461554592
ناشر: Springer US
سال نشر: 1998
تعداد صفحات: 239
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 11 مگابایت
کلمات کلیدی مربوط به کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاههایی درباره شبکههای عصبی و گرامر تولیدی: هوش مصنوعی (شامل رباتیک)، زبانشناسی (عمومی)، تئوری محاسبات، پردازش سیگنال، تصویر و گفتار
در صورت تبدیل فایل کتاب The Informational Complexity of Learning: Perspectives on Neural Networks and Generative Grammar به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پیچیدگی اطلاعاتی یادگیری: دیدگاههایی درباره شبکههای عصبی و گرامر تولیدی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
در میان موضوعات دیگر، پیچیدگی اطلاعاتی
یادگیری:دیدگاههای شبکههای عصبی و گرامر تولیدی
دو مشکل یادگیری مهم اما بسیار متفاوت را در چارچوب تحلیلی
یکسانی گرد هم میآورد. اولین مورد به مشکل یادگیری نگاشت های
عملکردی با استفاده از شبکه های عصبی و به دنبال آن یادگیری
گرامرهای زبان طبیعی در اصول و پارامترهای سنت چامسکی مربوط می
شود.
این دو مشکل یادگیری به ظاهر بسیار متفاوت هستند. شبکههای عصبی
نگاشتهایی با ارزش واقعی، بیبعدی و پیوسته هستند. از سوی
دیگر، گرامرها نگاشتهای گسسته (نمادین) با ارزش بولی، محدود
بعدی هستند. علاوه بر این، جوامع تحقیقاتی که در این دو حوزه
کار می کنند تقریباً هرگز با هم همپوشانی ندارند.
هدف کتاب پر کردن این شکاف است. از تکنیک های رسمی توسعه یافته
در تئوری یادگیری آماری و علوم کامپیوتر نظری در دهه گذشته برای
تجزیه و تحلیل هر دو نوع مشکل یادگیری استفاده می کند. با
پرسیدن همین سوال - چه مقدار اطلاعات برای یادگیری لازم است؟ -
از هر دو مشکل، شباهت ها و تفاوت های آنها را برجسته می کند.
نتایج خاص شامل انتخاب مدل در شبکههای عصبی، یادگیری فعال،
یادگیری زبان و مدلهای تکاملی تغییر زبان است.
پیچیدگی اطلاعاتی یادگیری: دیدگاههایی بر شبکههای
عصبیو گرامر مولد یک کار بسیار بینرشتهای است.
هر کسی که علاقه مند به تعامل علوم کامپیوتر و علوم شناختی است
باید از این کتاب لذت ببرد. محققان در هوش مصنوعی، شبکههای
عصبی، زبانشناسی، علوم کامپیوتر نظری و آمار آن را به ویژه
مرتبط میدانند.
Among other topics, The Informational Complexity of
Learning:Perspectives on Neural Networks and
Generative Grammar brings together two important but
very different learning problems within the same analytical
framework. The first concerns the problem of learning
functional mappings using neural networks, followed by
learning natural language grammars in the principles and
parameters tradition of Chomsky.
These two learning problems are seemingly very different.
Neural networks are real-valued, infinite-dimensional,
continuous mappings. On the other hand, grammars are
boolean-valued, finite-dimensional, discrete (symbolic)
mappings. Furthermore the research communities that work in
the two areas almost never overlap.
The book's objective is to bridge this gap. It uses the
formal techniques developed in statistical learning theory
and theoretical computer science over the last decade to
analyze both kinds of learning problems. By asking the same
question - how much information does it take to learn? - of
both problems, it highlights their similarities and
differences. Specific results include model selection in
neural networks, active learning, language learning and
evolutionary models of language change.
The Informational Complexity of Learning: Perspectives on
NeuralNetworks and Generative Grammar is a very
interdisciplinary work. Anyone interested in the interaction
of computer science and cognitive science should enjoy the
book. Researchers in artificial intelligence, neural
networks, linguistics, theoretical computer science, and
statistics will find it particularly relevant.
Front Matter....Pages i-xxiii
Introduction....Pages 1-19
On the Relationship between Hyothesis Complexity, Sample Complexity and Generalization Error for Neural Networks....Pages 21-73
Investigating the Sample Complexity of Active Learning Schemes....Pages 75-123
Language Learning Problems in the Principles and Parameters Framework....Pages 125-171
The Logical Problem of Language Change....Pages 173-205
Conclusions....Pages 207-212
Back Matter....Pages 213-224