ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Semi-Supervised Learning and Domain Adaptation in Natural Language Processing

دانلود کتاب یادگیری نیمه نظارتی و تطبیق دامنه در پردازش زبان طبیعی

Semi-Supervised Learning and Domain Adaptation in Natural Language Processing

مشخصات کتاب

Semi-Supervised Learning and Domain Adaptation in Natural Language Processing

ویرایش: 1 
نویسندگان:   
سری: Synthesis Lectures on Human Language Technologies 
ISBN (شابک) : 9781608459858, 1608459853 
ناشر: Morgan & Claypool Publishers 
سال نشر: 2013 
تعداد صفحات: 106 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 مگابایت 

قیمت کتاب (تومان) : 39,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Semi-Supervised Learning and Domain Adaptation in Natural Language Processing به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری نیمه نظارتی و تطبیق دامنه در پردازش زبان طبیعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری نیمه نظارتی و تطبیق دامنه در پردازش زبان طبیعی

این کتاب الگوریتم‌های یادگیری نظارت‌شده پایه را معرفی می‌کند که برای پردازش زبان طبیعی (NLP) قابل استفاده است و نشان می‌دهد که چگونه عملکرد این الگوریتم‌ها اغلب با بهره‌برداری از توزیع حاشیه‌ای مقادیر زیادی از داده‌های بدون برچسب بهبود می‌یابد. یکی از دلایل آن پراکندگی داده ها است، به عنوان مثال، تعداد محدودی از داده های موجود در NLP. با این حال، در اکثر برنامه های کاربردی NLP در دنیای واقعی، داده های برچسب گذاری شده ما نیز به شدت سوگیری دارند. این کتاب توسعه‌هایی از الگوریتم‌های یادگیری تحت نظارت را برای مقابله با پراکندگی داده‌ها و انواع مختلف سوگیری نمونه‌گیری معرفی می‌کند. این کتاب برای دانش آموزان سال اول قابل خواندن و برای مخاطبان متخصص در نظر گرفته شده است. قصد من این بود که بدون اتلاف وقت زیاد بر روی جزئیات الگوریتم های یادگیری نظارت شده یا برنامه های کاربردی NLP خاص، آنچه را که برای درک چالش های اصلی ما در NLP معاصر مرتبط با پراکندگی داده ها و سوگیری نمونه گیری با آن روبرو هستیم، معرفی کنم. من از طبقه‌بندی متن، برچسب‌گذاری بخشی از گفتار و تجزیه وابستگی به عنوان مثال‌های در حال اجرا استفاده می‌کنم و خودم را به مجموعه کوچکی از الگوریتم‌های یادگیری اصلی محدود می‌کنم. من نگران ضمانت‌های نظری (\"این الگوریتم هرگز خیلی بد عمل نمی‌کند\") نسبت به قوانین مفید مفید (\"در این مورد ممکن است این الگوریتم واقعاً خوب عمل کند\") نگران بوده‌ام. در NLP، داده‌ها آنقدر پر سر و صدا، مغرضانه و غیر ثابت هستند که ضمانت‌های نظری کمی را می‌توان ایجاد کرد و ما معمولاً با احساسات درونی خود و فهرستی از ایده‌های دیوانه‌کننده باقی می‌مانیم. امیدوارم این کتاب هر دو مورد را در اختیار خوانندگان خود قرار دهد. در سرتاسر کتاب، در صورت لزوم، قطعاتی از کد پایتون و ارزیابی‌های تجربی را درج می‌کنیم. فهرست مطالب: مقدمه / پیش بینی نظارت شده و بدون نظارت / یادگیری نیمه نظارتی / یادگیری تحت تعصب / یادگیری تحت تعصب ناشناخته / ارزیابی تحت تعصب


توضیحاتی درمورد کتاب به خارجی

This book introduces basic supervised learning algorithms applicable to natural language processing (NLP) and shows how the performance of these algorithms can often be improved by exploiting the marginal distribution of large amounts of unlabeled data. One reason for that is data sparsity, i.e., the limited amounts of data we have available in NLP. However, in most real-world NLP applications our labeled data is also heavily biased. This book introduces extensions of supervised learning algorithms to cope with data sparsity and different kinds of sampling bias. This book is intended to be both readable by first-year students and interesting to the expert audience. My intention was to introduce what is necessary to appreciate the major challenges we face in contemporary NLP related to data sparsity and sampling bias, without wasting too much time on details about supervised learning algorithms or particular NLP applications. I use text classification, part-of-speech tagging, and dependency parsing as running examples, and limit myself to a small set of cardinal learning algorithms. I have worried less about theoretical guarantees ("this algorithm never does too badly") than about useful rules of thumb ("in this case this algorithm may perform really well"). In NLP, data is so noisy, biased, and non-stationary that few theoretical guarantees can be established and we are typically left with our gut feelings and a catalogue of crazy ideas. I hope this book will provide its readers with both. Throughout the book we include snippets of Python code and empirical evaluations, when relevant. Table of Contents: Introduction / Supervised and Unsupervised Prediction / Semi-Supervised Learning / Learning under Bias / Learning under Unknown Bias / Evaluating under Bias



فهرست مطالب

Introduction
	Introduction
	Learning under Bias
	Empirical Evaluations
Supervised and Unsupervised Prediction
	Standard Assumptions in Supervised Learning
		How to Check whether the Assumptions Hold
	Nearest Neighbor
	Naive Bayes
	Perceptron
		Large-margin Methods
	Comparisons of Classification Algorithms
	Learning from Weighted Data
		Weighted k-nearest Neighbor
		Weighted Naive Bayes
		Weighted Perceptron
		Weighted Large-margin Learning
	Clustering Algorithms
		Hierarchical Clustering
		k-means
		Expectation Maximization
		Evaluating Clustering Algorithms
	Part-of-speech Tagging
	Dependency Parsing
		Transition-based Dependency Parsing
		Graph-based Dependency Parsing
Semi-Supervised Learning
	Wrapper Methods
		Self-training
		Co-training
		Tri-training
		Soft Self-training, EM and co-EM
	Clusters-as-features
	Semi-supervised Nearest Neighbor
		Label Propagation
		Semi-supervised Nearest Neighbor Editing
		Semi-supervised Condensed Nearest Neighbor
Learning under Bias
	Semi-supervised Learning as Transfer Learning
	Transferring Data
		Outlier Detection
		Importance Weighting
	Transferring Features
		Changing Feature Representation to Minimize Divergence
		Structural Correspondence Learning
	Transferring Parameters
Learning under Unknown Bias
	Adversarial Learning
	Ensemble-based Methods and Meta-learning
Evaluating under Bias
	What is Language?
	Significance Across Corpora
	Meta-analysis
	Performance and Data Characteristics
	Down-stream Evaluation
Bibliography
Author\'s Biography
Blank Page
Blank Page




نظرات کاربران