ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Deep Learning Approaches to Text Production

دانلود کتاب رویکردهای یادگیری عمیق در تولید متن

Deep Learning Approaches to Text Production

مشخصات کتاب

Deep Learning Approaches to Text Production

دسته بندی: سایبرنتیک: هوش مصنوعی
ویرایش: 1 
نویسندگان: ,   
سری: Synthesis Lectures on Human Language Technologies 
ISBN (شابک) : 1681737604, 9781681737584 
ناشر: Morgan & Claypool 
سال نشر: 2020 
تعداد صفحات: 201 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 10 مگابایت 

قیمت کتاب (تومان) : 43,000



کلمات کلیدی مربوط به کتاب رویکردهای یادگیری عمیق در تولید متن: یادگیری عمیق، پردازش زبان طبیعی، شبکه های عصبی کانولوشن، شبکه های عصبی تکراری، تولید متن، حافظه کوتاه مدت بلند مدت



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 13


در صورت تبدیل فایل کتاب Deep Learning Approaches to Text Production به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب رویکردهای یادگیری عمیق در تولید متن نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب رویکردهای یادگیری عمیق در تولید متن

تولید متن کاربردهای زیادی دارد. به عنوان مثال، برای ایجاد چرخش گفتگو از حرکات گفتگو، بیان کلامی محتوای پایگاه های دانش، یا تولید جملات انگلیسی از بازنمایی های زبانی غنی، مانند درختان وابستگی یا بازنمایی های معنایی انتزاعی استفاده می شود. تولید متن همچنین در تبدیل متن به متن مانند فشرده سازی جمله، ادغام جمله، بازنویسی، ساده سازی جمله (یا متن) و خلاصه سازی متن کار می کند. این کتاب مروری بر مبانی مدل های عصبی برای تولید متن ارائه می دهد. به طور خاص، ما در مورد سه جنبه اصلی رویکردهای عصبی برای تولید متن توضیح می‌دهیم: چگونه رمزگشاهای متوالی یاد می‌گیرند که متن کافی تولید کنند، چگونه رمزگذارها یاد می‌گیرند که نمایش‌های ورودی بهتری تولید کنند، و چگونه مولدهای عصبی اهداف خاص کار را محاسبه می‌کنند. در واقع، هر کار تولید متن چالش کمی متفاوت را ایجاد می‌کند (به عنوان مثال، نحوه در نظر گرفتن زمینه گفتگو هنگام تولید یک نوبت گفت و گو، نحوه شناسایی و ادغام اطلاعات مرتبط هنگام خلاصه کردن یک متن، یا نحوه تولید یک متن خوب که اطلاعات موجود در برخی از داده های ورودی را در مورد تولید داده به متن به درستی دریافت می کند). ما محدودیت‌های خاص برخی از این وظایف را ترسیم می‌کنیم و بررسی می‌کنیم که چگونه مدل‌های عصبی موجود برای آنها توضیح داده می‌شوند. به طور کلی تر، این کتاب تبدیل متن به متن، معنا به متن و تبدیل داده به متن را در نظر می گیرد. هدف آن ارائه دانش اولیه از رویکردهای عصبی برای تولید متن و نقشه راه برای شروع کار مرتبط با مخاطبان است. این کتاب عمدتاً برای محققین، دانشجویان فارغ التحصیل و صنایع علاقه مند به تولید متن از اشکال مختلف ورودی ها هدف قرار گرفته است.


توضیحاتی درمورد کتاب به خارجی

Text production has many applications. It is used, for instance, to generate dialogue turns from dialogue moves, verbalise the content of knowledge bases, or generate English sentences from rich linguistic representations, such as dependency trees or abstract meaning representations. Text production is also at work in text-to-text transformations such as sentence compression, sentence fusion, paraphrasing, sentence (or text) simplification, and text summarisation. This book offers an overview of the fundamentals of neural models for text production. In particular, we elaborate on three main aspects of neural approaches to text production: how sequential decoders learn to generate adequate text, how encoders learn to produce better input representations, and how neural generators account for task-specific objectives. Indeed, each text-production task raises a slightly different challenge (e.g, how to take the dialogue context into account when producing a dialogue turn, how to detect and merge relevant information when summarising a text, or how to produce a well-formed text that correctly captures the information contained in some input data in the case of data-to-text generation). We outline the constraints specific to some of these tasks and examine how existing neural models account for them. More generally, this book considers text-to-text, meaning-to-text, and data-to-text transformations. It aims to provide the audience with a basic knowledge of neural approaches to text production and a roadmap to get them started with the related work. The book is mainly targeted at researchers, graduate students, and industrials interested in text production from different forms of inputs.



فهرست مطالب

List of Figures
List of Tables
Preface
Introduction
	What is Text Production?
		Generating Text from Meaning Representations
		Generating Text from Data
		Generating Text from Text
	Roadmap
	What's Not Covered?
	Our Notations
Basics
	Pre-Neural Approaches
		Data-to-Text Generation
		Meaning Representations-to-Text Generation
			Grammar-Centric Approaches
			Statistical MR-to-Text Generation
		Text-to-Text Generation
			Sentence Simplification and Sentence Compression
			Document Summarisation
		Summary
	Deep Learning Frameworks
		Basics
			Convolutional Neural Networks
			Recurrent Neural Networks
			LSTMs and GRUs
			Word Embeddings
		The Encoder-Decoder Framework
			Learning Input Representations with Bidirectional RNNs
			Generating Text Using Recurrent Neural Networks
			Training and Decoding with Sequential Generators
		Differences with Pre-Neural Text-Production Approaches
		Summary
Neural Improvements
	Generating Better Text
		Attention
		Copy
		Coverage
		Summary
	Building Better Input Representations
		Pitfalls of Modelling Input as a Sequence of Tokens
			Modelling Long Text as a Sequence of Tokens
			Modelling Graphs or Trees as a Sequence of Tokens
			Limitations of Sequential Representation Learning
		Modelling Text Structures
			Modelling Documents with Hierarchical LSTMs
			Modelling Document with Ensemble Encoders
			Modelling Document With Convolutional Sentence Encoders
		Modelling Graph Structure
			Graph-to-Sequence Model for AMR Generation
			Graph-Based Triple Encoder for RDF Generation
			Graph Convolutional Networks as Graph Encoders
		Summary
	Modelling Task-Specific Communication Goals
		Task-Specific Knowledge for Content Selection
			Selective Encoding to Capture Salient Information
			Bottom-Up Copy Attention for Content Selection
			Graph-Based Attention for Salient Sentence Detection
			Multi-Instance and Multi-Task Learning for Content Selection
		Optimising Task-Specific Evaluation Metric with Reinforcement Learning
			The Pitfalls of Cross-Entropy Loss
			Text Production as a Reinforcement Learning Problem
			Reinforcement Learning Applications
		User Modelling in Neural Conversational Model
		Summary
Data Sets and Conclusion
	Data Sets and Challenges
		Data Sets for Data-to-Text Generation
			Generating Biographies from Structured Data
			Generating Entity Descriptions from Sets of RDF Triples
			Generating Summaries of Sports Games from Box-Score Data
		Data Sets for Meaning Representations to Text Generation
			Generating from Abstract Meaning Representations
			Generating Sentences from Dependency Trees
			Generating from Dialogue Moves
		Data Sets for Text-to-Text Generation
			Summarisation
			Simplification
			Compression
			Paraphrasing
	Conclusion
		Summarising
		Overview of Covered Neural Generators
		Two Key Issues with Neural NLG
		Challenges
		Recent Trends in Neural NLG
	Bibliography
	Authors' Biographies
Blank Page




نظرات کاربران