دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Tesar B., Smolensky P. سری: ISBN (شابک) : 0262201267, 9780262201261 ناشر: MIT سال نشر: 2000 تعداد صفحات: 0 زبان: English فرمت فایل : CHM (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 986 کیلوبایت
در صورت تبدیل فایل کتاب Learnability in Optimality Theory به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری پذیری در نظریه بهینه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
بروس تزار و پل اسمولنسکی با برجسته کردن رابطه نزدیک بین توضیح زبانی و یادگیری پذیری، مفاهیم نظریه بهینه (OT) را برای یادگیری زبان بررسی می کنند. آنها نشان میدهند که چگونه اصول اصلی OT منجر به اصل یادگیری کاهش محدودیت میشود، مبنایی برای خانوادهای از الگوریتمهایی که رتبهبندی محدودیتها را از اشکال زبانی استنباط میکنند. نگرانی اصلی نویسندگان ابهام دادههای دریافتی توسط یادگیرنده و وابستگی متقابل حاصل از دستور زبان اصلی و تحلیل ساختاری اشکال زبانی آشکار. نویسندگان استدلال میکنند که رویکردهای تکراری به وابستگیهای متقابل، با الهام از کار در نظریه یادگیری آماری، میتوانند با موفقیت برای پرداختن به وابستگیهای یادگیری زبان سازگار شوند. هر دو OT و Constraint Demotion نقش مهمی در اقتباس خود دارند. نویسندگان یافته های خود را هم به صورت رسمی و هم از طریق شبیه سازی پشتیبانی می کنند. آنها همچنین نشان میدهند که چگونه رویکرد آنها میتواند به سایر مسائل یادگیری زبان، از جمله روابط زیر مجموعهها و یادگیری اشکال زیربنایی واجشناختی گسترش یابد.
Highlighting the close relationship between linguistic explanation and learnability, Bruce Tesar and Paul Smolensky examine the implications of Optimality Theory (OT) for language learnability. They show how the core principles of OT lead to the learning principle of constraint demotion, the basis for a family of algorithms that infer constraint rankings from linguistic forms.Of primary concern to the authors are the ambiguity of the data received by the learner and the resulting interdependence of the core grammar and the structural analysis of overt linguistic forms. The authors argue that iterative approaches to interdependencies, inspired by work in statistical learning theory, can be successfully adapted to address the interdependencies of language learning. Both OT and Constraint Demotion play critical roles in their adaptation. The authors support their findings both formally and through simulations. They also illustrate how their approach could be extended to other language learning issues, including subset relations and the learning of phonological underlying forms.