کلمات کلیدی مربوط به کتاب نکاتی در مورد واج شناسی محاسباتی: علوم و مهندسی کامپیوتر، هوش مصنوعی، زبانشناسی محاسباتی
در صورت تبدیل فایل کتاب Notes on Computational Phonology به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نکاتی در مورد واج شناسی محاسباتی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
دانشگاه کالیفرنیا، لس آنجلس، 1999، -128 صفحه.
این یادداشت ها برای
سمینار UCLA در مورد پیشنهادهای محاسباتی در واج شناسی اخیر تهیه
شده اند. تصحیحات و مشارکت های بسیار زیادی توسط شرکت کنندگان
سمینار، به ویژه آدام آلبرایت، دن آلبرو، مارکو بارونی، لستون
بوئل، بروس هیز، جیانلوکا استورتو، سیری تاتل انجام شد. همچنین از
Ed Keenan برای برخی اصلاحات و پیشنهادات تشکر می کنم. یادداشت ها
هنوز خشن هستند (مطمئنم که بسیاری از اشتباهات تایپی باقی مانده
است). من امیدوارم که آنها را بهبود بخشم! آنها قرار است همراهی
با ادبیات باشند، نه جایگزینی. آنها مستلزم آشنایی با منابع اصلی
مورد بحث هستند.
یکی از سنت های اصلی در واج شناسی محاسباتی بر اساس مدل های حالت
محدود محدودیت های واجی است. این شاید تعجبآور باشد، زیرا
مدلهای حالت محدود، حداقل در ابتدا، بسیار قوی و ضعیف به نظر
میرسند. آنها بیش از حد قوی به نظر می رسند، زیرا به نظر می رسد
روابط واج شناختی در بیشتر موارد محلی هستند، به گونه ای که
وابستگی ها در زبان های حالت محدود وجود ندارد. (به عنوان مثال،
به راحتی می توان یک زبان حالت محدود را با رشته هایی تعریف کرد
که دارای یک a یا b به دنبال هر تعداد c هستند و به دنبال آن نماد
اول تکرار می شود: (ac∗a) ∪ (bc∗b) نماد نهایی می تواند به نمادی
بستگی داشته باشد که به طور دلخواه در فاصله بسیار دور در دنباله
رخ داده است.) و از طرف دیگر، مدل های حالت محدود بسیار ضعیف
هستند به این معنا که برخی از پدیده ها وابستگی هایی را نشان می
دهند که توسط این دستگاه ها قابل درک نیستند: به ویژه، تکرار. این
مسائل به طور مکرر در این یادداشتها مطرح میشوند.
این یادداشتها کمی فراتر از آن چیزی است که قبلاً در ادبیات وجود
دارد فقط در چند جا. ما شاید در مورد تمایز یک سطحی / دو سطحی در
§§5.2،7.3 واضح تر از ادبیات موجود هستیم. و به جای محدود کردن
توجه به ترکیبهای حالت محدود، همانطور که گاهی اوقات انجام
میشود، راه شاید کمتر عملی اما از نظر علمی امیدوارکنندهتر را
برای تأکید بر دورنمای ساخت مدلهای حالت محدود با دستور زبانهای
خانوادههای انتزاعی بزرگتر زبانها در §§7.4،10.2 انتخاب
میکنیم.
مدلهای محاسباتی رسمی به دو دلیل در زبانشناسی مهم هستند.
اولاً، پروژه ای که ایده های مبهم ما در مورد زبان را زیبا و
کاملاً رسمی می کند، پروژه مفیدی است. درک ما از ادعاهای واقعی
دستور زبان را بهبود می بخشد و امکان مقایسه دقیق ایده های رقیب
را فراهم می کند. دوم، بهترین مدلهایی که ما برای فراگیری و
استفاده از زبان انسانی داریم، محاسباتی هستند. به این معنا که
آنها افرادی را که از زبان استفاده میکنند دچار تغییراتی میشوند
که میتوان آنها را به عنوان اشتقاقهای رسمی مدلسازی کرد. این
ایده که تغییرات مربوطه در یادگیری زبان و استفاده از زبان
مشتقاتی از نوعی هستند، یک فرضیه تجربی است که ممکن است نادرست
باشد، اما بهترین فرضیه ای است که ما داریم. به نظر من، پروژه
اصلی نظریه زبانشناسی ارائه این حساب محاسباتی است.
از آنجایی که زبانشناسی نظری مدلهای مولد رسمی از زبان را ارائه
میکند، به طور ضمنی با زبانآموزان و کاربران زبان انسانی مانند
رایانه رفتار میکند. وجود مصنوعاتی که معمولاً آنها را رایانه می
نامیم واقعاً دور از ذهن است. رایانهها در توسعه زبانشناسی به
همان اندازه مفید هستند که در فیزیک یا زیستشناسی مفید هستند:
آنها گاهی اوقات محاسبات را تسهیل میکنند. این محاسبات دلیل نمی
شود که به دنبال ما محاسباتی گفته شود. دلیل اینکه موضوع مورد بحث
واجشناسی محاسباتی نامیده میشود این است که این فرضیه برنامهای
را اتخاذ میکنیم که تواناییهایی که مدلسازی میکنیم محاسباتی
هستند. زبان ها
برخی پیشنهادات اولیه
استفاده از ماشین های غیر قطعی
آواشناسی یک سطح
نظریه بهینه: ایده های اولیه
OTP: نظریه بهینه اولیه
ترکیب های ملایم: درمان مناسب OT؟
مدل های اکتساب
تمرین ها و حدس و گمان ها
University of California, Los Angeles, 1999, -128 pp.
These notes were prepared for a UCLA
seminar on computational proposals in recent phonology. Very
many corrections and contributions were made by the seminar
participants, especially Adam Albright, Dan Albro, Marco
Baroni, Leston Buell, Bruce Hayes, Gianluca Storto, Siri
Tuttle. Thanks also to Ed Keenan for some corrections and
suggestions. The notes are still rough (many typos are left,
I’m sure). I hope to improve them! They are intended to be an
accompaniment to the literature, not a replacement; they
presuppose an acquaintance with the original sources that are
discussed.
One of the main traditions in computational phonology is based
on finite state models of phonological constraints. This is
perhaps surprising, since finite state models, at least at
first blush, seem to be too strong and too weak. They seem too
strong because phonological relations seem to be local for the
most part, in a way that dependencies in finite state languages
are not. (For example, it is easy to define a finite state
language with strings that have either a single a or b followed
by any number of c’s, followed by a repetition of the first
symbol: (ac∗a) ∪ (bc∗b). The final symbol can depend on a
symbol that occurred arbitrarily far back in the sequence.) And
on the other hand, finite state models are too weak in the
sense that some phenomena exhibit dependencies of a kind that
cannot be captured by these devices: notably, reduplication.
These issues come up repeatedly in these notes.
These notes go slightly beyond what is already in the
literature in only a couple of places. We are perhaps clearer
about the one-level/two-level distinction in §§5.2,7.3 than the
literature has been. And rather than restricting attention to
finite state compositions as is sometimes done, we take the
perhaps less practical but scientifically more promising route
of emphasizing the prospects for composing finite state models
witht he grammars of larger abstract families of languages in
§§7.4,10.2.
Formal, computational models are important in linguistics for
two main reasons. First, the project of making our vague ideas
about language elegant and fully formal is a useful one. It
improves our understanding of the real claims of the grammar,
and it enables careful comparisons of competing ideas. Second,
the best models we have of human language acquisition and use
are computational. That is, they regard people using language
as going through some changes which can be modeled as formal
derivations. The idea that the relevant changes in language
learning and language use are derivations of some kind is an
empirical hypothesis which may well be false, but it is the
best one we have. In my view, the main project of linguistic
theory is to provide this computational account.
Since theoretical linguistics provides formal generative models
of language, it implicitly treats human language learners and
language users as computers. The existence of the artifacts we
usually call computers is really beside the point. Computers
are useful in the development of linguistics in just the way
that they are useful in physics or biology: they sometimes
facilitate calculations. These calculations are not the reason
that our pursuit is called computational. The reason the
subject at hand is called computational phonology is that we
adopt the programmatic hypothesis that the abilities we are
modeling are computational.
Preface
Finite recognizers of languages
Some early proposals
Using non-deterministic machines
One level phonology
Optimality theory: first ideas
OTP: Primitive optimality theory
Lenient compositions: the proper treatment of OT?
Acquisition models
Exercises and speculations