دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Anders Sogaard
سری: Synthesis Lectures on Human Language Technologies
ISBN (شابک) : 9781608459858, 1608459853
ناشر: Morgan & Claypool Publishers
سال نشر: 2013
تعداد صفحات: 106
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 3 مگابایت
در صورت تبدیل فایل کتاب Semi-Supervised Learning and Domain Adaptation in Natural Language Processing به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری نیمه نظارتی و تطبیق دامنه در پردازش زبان طبیعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب الگوریتمهای یادگیری نظارتشده پایه را معرفی میکند که برای پردازش زبان طبیعی (NLP) قابل استفاده است و نشان میدهد که چگونه عملکرد این الگوریتمها اغلب با بهرهبرداری از توزیع حاشیهای مقادیر زیادی از دادههای بدون برچسب بهبود مییابد. یکی از دلایل آن پراکندگی داده ها است، به عنوان مثال، تعداد محدودی از داده های موجود در NLP. با این حال، در اکثر برنامه های کاربردی NLP در دنیای واقعی، داده های برچسب گذاری شده ما نیز به شدت سوگیری دارند. این کتاب توسعههایی از الگوریتمهای یادگیری تحت نظارت را برای مقابله با پراکندگی دادهها و انواع مختلف سوگیری نمونهگیری معرفی میکند. این کتاب برای دانش آموزان سال اول قابل خواندن و برای مخاطبان متخصص در نظر گرفته شده است. قصد من این بود که بدون اتلاف وقت زیاد بر روی جزئیات الگوریتم های یادگیری نظارت شده یا برنامه های کاربردی NLP خاص، آنچه را که برای درک چالش های اصلی ما در NLP معاصر مرتبط با پراکندگی داده ها و سوگیری نمونه گیری با آن روبرو هستیم، معرفی کنم. من از طبقهبندی متن، برچسبگذاری بخشی از گفتار و تجزیه وابستگی به عنوان مثالهای در حال اجرا استفاده میکنم و خودم را به مجموعه کوچکی از الگوریتمهای یادگیری اصلی محدود میکنم. من نگران ضمانتهای نظری (\"این الگوریتم هرگز خیلی بد عمل نمیکند\") نسبت به قوانین مفید مفید (\"در این مورد ممکن است این الگوریتم واقعاً خوب عمل کند\") نگران بودهام. در NLP، دادهها آنقدر پر سر و صدا، مغرضانه و غیر ثابت هستند که ضمانتهای نظری کمی را میتوان ایجاد کرد و ما معمولاً با احساسات درونی خود و فهرستی از ایدههای دیوانهکننده باقی میمانیم. امیدوارم این کتاب هر دو مورد را در اختیار خوانندگان خود قرار دهد. در سرتاسر کتاب، در صورت لزوم، قطعاتی از کد پایتون و ارزیابیهای تجربی را درج میکنیم. فهرست مطالب: مقدمه / پیش بینی نظارت شده و بدون نظارت / یادگیری نیمه نظارتی / یادگیری تحت تعصب / یادگیری تحت تعصب ناشناخته / ارزیابی تحت تعصب
This book introduces basic supervised learning algorithms applicable to natural language processing (NLP) and shows how the performance of these algorithms can often be improved by exploiting the marginal distribution of large amounts of unlabeled data. One reason for that is data sparsity, i.e., the limited amounts of data we have available in NLP. However, in most real-world NLP applications our labeled data is also heavily biased. This book introduces extensions of supervised learning algorithms to cope with data sparsity and different kinds of sampling bias. This book is intended to be both readable by first-year students and interesting to the expert audience. My intention was to introduce what is necessary to appreciate the major challenges we face in contemporary NLP related to data sparsity and sampling bias, without wasting too much time on details about supervised learning algorithms or particular NLP applications. I use text classification, part-of-speech tagging, and dependency parsing as running examples, and limit myself to a small set of cardinal learning algorithms. I have worried less about theoretical guarantees ("this algorithm never does too badly") than about useful rules of thumb ("in this case this algorithm may perform really well"). In NLP, data is so noisy, biased, and non-stationary that few theoretical guarantees can be established and we are typically left with our gut feelings and a catalogue of crazy ideas. I hope this book will provide its readers with both. Throughout the book we include snippets of Python code and empirical evaluations, when relevant. Table of Contents: Introduction / Supervised and Unsupervised Prediction / Semi-Supervised Learning / Learning under Bias / Learning under Unknown Bias / Evaluating under Bias
Introduction Introduction Learning under Bias Empirical Evaluations Supervised and Unsupervised Prediction Standard Assumptions in Supervised Learning How to Check whether the Assumptions Hold Nearest Neighbor Naive Bayes Perceptron Large-margin Methods Comparisons of Classification Algorithms Learning from Weighted Data Weighted k-nearest Neighbor Weighted Naive Bayes Weighted Perceptron Weighted Large-margin Learning Clustering Algorithms Hierarchical Clustering k-means Expectation Maximization Evaluating Clustering Algorithms Part-of-speech Tagging Dependency Parsing Transition-based Dependency Parsing Graph-based Dependency Parsing Semi-Supervised Learning Wrapper Methods Self-training Co-training Tri-training Soft Self-training, EM and co-EM Clusters-as-features Semi-supervised Nearest Neighbor Label Propagation Semi-supervised Nearest Neighbor Editing Semi-supervised Condensed Nearest Neighbor Learning under Bias Semi-supervised Learning as Transfer Learning Transferring Data Outlier Detection Importance Weighting Transferring Features Changing Feature Representation to Minimize Divergence Structural Correspondence Learning Transferring Parameters Learning under Unknown Bias Adversarial Learning Ensemble-based Methods and Meta-learning Evaluating under Bias What is Language? Significance Across Corpora Meta-analysis Performance and Data Characteristics Down-stream Evaluation Bibliography Author\'s Biography Blank Page Blank Page