ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Neural Network Methods for Natural Language Processing

دانلود کتاب روش های شبکه عصبی برای پردازش زبان طبیعی

Neural Network Methods for Natural Language Processing

مشخصات کتاب

Neural Network Methods for Natural Language Processing

ویرایش:  
نویسندگان:   
سری: Synthesis Lectures on Human Language Technologies 
ISBN (شابک) : 9781627052955 
ناشر: Morgan & Claypool 
سال نشر: 2017 
تعداد صفحات: 282 
زبان: english 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 2 مگابایت 

قیمت کتاب (تومان) : 37,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 4


در صورت تبدیل فایل کتاب Neural Network Methods for Natural Language Processing به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب روش های شبکه عصبی برای پردازش زبان طبیعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب روش های شبکه عصبی برای پردازش زبان طبیعی

شبکه های عصبی خانواده ای از مدل های قدرتمند یادگیری ماشین هستند. این کتاب بر روی کاربرد مدل های شبکه عصبی در داده های زبان طبیعی تمرکز دارد. نیمه اول کتاب (قسمت اول و دوم) مبانی یادگیری ماشین نظارت شده و شبکه های عصبی پیشخور، اصول کار با یادگیری ماشین بر روی داده های زبان، و استفاده از نمایش های مبتنی بر برداری و نه نمادین برای کلمات را پوشش می دهد. . همچنین انتزاع نمودار محاسباتی را پوشش می‌دهد، که امکان تعریف و آموزش آسان شبکه‌های عصبی دلخواه را فراهم می‌کند و اساس طراحی کتابخانه‌های نرم‌افزار شبکه عصبی معاصر است. بخش دوم کتاب (قسمت سوم و چهارم) معماری‌های شبکه‌های عصبی تخصصی‌تر از جمله شبکه‌های عصبی کانولوشنیک 1 بعدی، شبکه‌های عصبی بازگشتی، مدل‌های نسل شرطی و مدل‌های مبتنی بر توجه را معرفی می‌کند. این معماری‌ها و تکنیک‌ها نیروی محرکه الگوریتم‌های پیشرفته برای ترجمه ماشینی، تجزیه نحوی و بسیاری از کاربردهای دیگر هستند. در نهایت، ما همچنین شبکه‌های درختی شکل، پیش‌بینی ساخت‌یافته، و چشم‌انداز یادگیری چند وظیفه‌ای را مورد بحث قرار می‌دهیم.


توضیحاتی درمورد کتاب به خارجی

Neural networks are a family of powerful machine learning models. This book focuses on the application of neural network models to natural language data. The first half of the book (Parts I and II) covers the basics of supervised machine learning and feed-forward neural networks, the basics of working with machine learning over language data, and the use of vector-based rather than symbolic representations for words. It also covers the computation-graph abstraction, which allows to easily define and train arbitrary neural networks, and is the basis behind the design of contemporary neural network software libraries. The second part of the book (Parts III and IV) introduces more specialized neural network architectures, including 1D convolutional neural networks, recurrent neural networks, conditioned-generation models, and attention-based models. These architectures and techniques are the driving force behind state-of-the-art algorithms for machine translation, syntactic parsing, and many other applications. Finally, we also discuss tree-shaped networks, structured prediction, and the prospects of multi-task learning.



فهرست مطالب

Preface
Acknowledgments

1  Introduction

PART I Supervised Classification and Feed-forward Neural Networks
2  Learning Basics and Linear Models
3  From Linear Models to Multi-layer Perceptrons
4  Feed-forward Neural Networks
5  Neural Network Training

PART II Working with Natural Language Data
6  Features for Textual Data
7  Case Studies of NLP Features
8  From Textual Features to Inputs
9  Language Modeling
10 Pre-trained Word Representations
11 Using Word Embeddings
12 Case Study: A Feed-forward Architecture for Sentence Meaning Inference

PART III Specialized Architectures
13 Ngram Detectors: Convolutional Neural Networks
14 Recurrent Neural Networks: Modeling Sequences and Stacks
15 Concrete Recurrent Neural Network Architectures
16 Modeling with Recurrent Networks
17 Conditioned Generation

PART IV Additional Topics
18 Modeling Trees with Recursive Neural Networks
19 Structured Output Prediction
20 Cascaded, Multi-task and Semi-supervised Learning
21 Conclusion

Bibliography
Author’s Biography




نظرات کاربران