دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Aman Kedia, Mayank Rasu سری: ISBN (شابک) : 9781838982584, 1838982582 ناشر: Packt Publishing Ltd سال نشر: 2020 تعداد صفحات: 0 زبان: English فرمت فایل : ZIP (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 81 مگابایت
در صورت تبدیل فایل کتاب Hands-On Python Natural Language Processing: Explore tools and techniques to analyze and process text with a view to building real-world NLP applications. Code به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب دستی پردازش زبان طبیعی Python: ابزارها و تکنیک ها را برای تجزیه و تحلیل و پردازش متن با هدف ساخت برنامه های NLP در دنیای واقعی کاوش کنید. کد نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
کد .با مفاهیم و تکنیک های پردازش زبان طبیعی سنتی و همچنین مدرن آشنا شوید ویژگی های کلیدی انجام وظایف مختلف NLP برای ساخت برنامه های زبانی با استفاده از کتابخانه های پایتون درک، تجزیه و تحلیل و تولید متن برای ارائه نتایج دقیق تفسیر زبان انسانی با استفاده از مفاهیم مختلف NLP، روششناسی و ابزار شرح کتاب پردازش زبان طبیعی (NLP) زیرشاخهای در زبانشناسی محاسباتی است که رایانهها را قادر میسازد تا متن را درک، پردازش و تجزیه و تحلیل کنند. این کتاب پاسخگوی تقاضای برآورده نشده برای آموزش عملی مفاهیم NLP است و قرار گرفتن در معرض کاربردهای دنیای واقعی را همراه با یک مبنای نظری محکم فراهم می کند. این کتاب با معرفی شما به حوزه NLP و کاربردهای آن، همراه با کتابخانههای مدرن پایتون که برای ساخت برنامههای مبتنی بر NLP خود استفاده خواهید کرد، شروع میشود. با کمک مثالهای عملی، یاد میگیرید که چگونه برنامههای NLP پیچیدهای بسازید و روشها و چالشهای مختلف را در استقرار برنامههای NLP در دنیای واقعی پوشش دهید. شما وظایف کلیدی NLP مانند طبقه بندی متن، تعبیه معنایی، تجزیه و تحلیل احساسات، ترجمه ماشینی، و توسعه یک ربات چت با استفاده از تکنیک های یادگیری ماشینی و یادگیری عمیق را پوشش خواهید داد. این کتاب همچنین به شما کمک میکند کشف کنید که چگونه تکنیکهای یادگیری ماشینی نقشی حیاتی در هوشمندسازی برنامههای زبانی شما دارند. هر فصل با نمونه هایی از برنامه های کاربردی در دنیای واقعی همراه است تا به شما کمک کند تا برنامه های NLP چشمگیر خود را بسازید. در پایان این کتاب NLP، میتوانید با دادههای زبان کار کنید، از یادگیری ماشین برای شناسایی الگوها در متن استفاده کنید و با پیشرفتهای NLP آشنا شوید. آنچه خواهید آموخت درک کنید که NLP چگونه برنامه های کاربردی مدرن را تقویت می کند. تکنیک های کلیدی NLP را برای ایجاد واژگان زبان طبیعی خود کاوش کنید. ساختن مدلهای پیچیده پردازش متن با استفاده از یادگیری ماشین و یادگیری عمیق، معماریهای پیشرفتهای را بررسی کنید که تحقیقات در حوزه NLP را متحول کرده است. . با اصول اولیه شروع میشود و به تدریج مفاهیم پیشرفته را پوشش میدهد تا برای خوانندگانی که سطوح مختلف مهارت NLP دارند، آن را آسان کند. این راهنمای جامع به شما کمک می کند تا درک کاملی از روش های NLP برای ساخت برنامه های زبانی ایجاد کنید. با این حال، دانش کاری زبان برنامه نویسی پایتون و ریاضیات سطح دبیرستان مورد انتظار است.
Code .Get well-versed with traditional as well as modern natural language processing concepts and techniques Key Features Perform various NLP tasks to build linguistic applications using Python libraries Understand, analyze, and generate text to provide accurate results Interpret human language using various NLP concepts, methodologies, and tools Book Description Natural Language Processing (NLP) is the subfield in computational linguistics that enables computers to understand, process, and analyze text. This book caters to the unmet demand for hands-on training of NLP concepts and provides exposure to real-world applications along with a solid theoretical grounding. This book starts by introducing you to the field of NLP and its applications, along with the modern Python libraries that you'll use to build your NLP-powered apps. With the help of practical examples, you’ll learn how to build reasonably sophisticated NLP applications, and cover various methodologies and challenges in deploying NLP applications in the real world. You'll cover key NLP tasks such as text classification, semantic embedding, sentiment analysis, machine translation, and developing a chatbot using machine learning and deep learning techniques. The book will also help you discover how machine learning techniques play a vital role in making your linguistic apps smart. Every chapter is accompanied by examples of real-world applications to help you build impressive NLP applications of your own. By the end of this NLP book, you’ll be able to work with language data, use machine learning to identify patterns in text, and get acquainted with the advancements in NLP. What you will learn Understand how NLP powers modern applications Explore key NLP techniques to build your natural language vocabulary Transform text data into mathematical data structures and learn how to improve text mining models Discover how various neural network architectures work with natural language data Get the hang of building sophisticated text processing models using machine learning and deep learning Check out state-of-the-art architectures that have revolutionized research in the NLP domain Who this book is for This NLP Python book is for anyone looking to learn NLP’s theoretical and practical aspects alike. It starts with the basics and gradually covers advanced concepts to make it easy to follow for readers with varying levels of NLP proficiency. This comprehensive guide will help you develop a thorough understanding of the NLP methodologies for building linguistic applications; however, working knowledge of Python programming language and high school level mathematics is expected.
Cover Title Page Copyright and Credits About Packt Contributors Table of Contents Preface Section 1: Introduction Chapter 1: Understanding the Basics of NLP Programming languages versus natural languages Understanding NLP Why should I learn NLP? Current applications of NLP Chatbots Sentiment analysis Machine translation Named-entity recognition Future applications of NLP Summary Chapter 2: NLP Using Python Technical requirements Understanding Python with NLP Python\'s utility in NLP Important Python libraries NLTK NLTK corpora Text processing Part of speech tagging Textblob Sentiment analysis Machine translation Part of speech tagging VADER Web scraping libraries and methodology Overview of Jupyter Notebook Summary Section 2: Natural Language Representation and Mathematics Chapter 3: Building Your NLP Vocabulary Technical requirements Lexicons Phonemes, graphemes, and morphemes Tokenization Issues with tokenization Different types of tokenizers Regular expressions Regular expressions-based tokenizers Treebank tokenizer TweetTokenizer Understanding word normalization Stemming Over-stemming and under-stemming Lemmatization WordNet lemmatizer Spacy lemmatizer Stopword removal Case folding N-grams Taking care of HTML tags How does all this fit into my NLP pipeline? Summary Chapter 4: Transforming Text into Data Structures Technical requirements Understanding vectors and matrices Vectors Matrices Exploring the Bag-of-Words architecture Understanding a basic CountVectorizer Out-of-the-box features offered by CountVectorizer Prebuilt dictionary and support for n-grams max_features Min_df and Max_df thresholds Limitations of the BoW representation TF-IDF vectors Building a basic TF-IDF vectorizer N-grams and maximum features in the TF-IDF vectorizer Limitations of the TF-IDF vectorizer\'s representation Distance/similarity calculation between document vectors Cosine similarity Solving Cosine math Cosine similarity on vectors developed using CountVectorizer Cosine similarity on vectors developed using TfIdfVectorizers tool One-hot vectorization Building a basic chatbot Summary Chapter 5: Word Embeddings and Distance Measurements for Text Technical requirements Understanding word embeddings Demystifying Word2vec Supervised and unsupervised learning Word2vec – supervised or unsupervised? Pretrained Word2vec Exploring the pretrained Word2vec model using gensim The Word2vec architecture The Skip-gram method How do you define target and context words? Exploring the components of a Skip-gram model Input vector Embedding matrix Context matrix Output vector Softmax Loss calculation and backpropagation Inference The CBOW method Computational limitations of the methods discussed and how to overcome them Subsampling Negative sampling How to select negative samples Training a Word2vec model Building a basic Word2vec model Modifying the min_count parameter Playing with the vector size Other important configurable parameters Limitations of Word2vec Applications of the Word2vec model Word mover’s distance Summary Chapter 6: Exploring Sentence-, Document-, and Character-Level Embeddings Technical requirements Venturing into Doc2Vec Building a Doc2Vec model Changing vector size and min_count The dm parameter for switching between modeling approaches The dm_concat parameter The dm_mean parameter Window size Learning rate Exploring fastText Building a fastText model Building a spelling corrector/word suggestion module using fastText fastText and document distances Understanding Sent2Vec and the Universal Sentence Encoder Sent2Vec The Universal Sentence Encoder Summary Section 3: NLP and Learning Chapter 7: Identifying Patterns in Text Using Machine Learning Technical requirements Introduction to ML Data preprocessing NaN values Label encoding and one-hot encoding Data standardization Min-max standardization Z-score standardization The Naive Bayes algorithm Building a sentiment analyzer using the Naive Bayes algorithm The SVM algorithm Building a sentiment analyzer using SVM Productionizing a trained sentiment analyzer Summary Chapter 8: From Human Neurons to Artificial Neurons for Understanding Text Technical requirements Exploring the biology behind neural networks Neurons Activation functions Sigmoid Tanh activation Rectified linear unit Layers in an ANN How does a neural network learn? How does the network get better at making predictions? Understanding regularization Dropout Let\'s talk Keras Building a question classifier using neural networks Summary Chapter 9: Applying Convolutions to Text Technical requirements What is a CNN? Understanding convolutions Let\'s pad our data Understanding strides in a CNN What is pooling? The fully connected layer Detecting sarcasm in text using CNNs Loading the libraries and the dataset Performing basic data analysis and preprocessing our data Loading the Word2Vec model and vectorizing our data Splitting our dataset into train and test sets Building the model Evaluating and saving our model Summary Chapter 10: Capturing Temporal Relationships in Text Technical requirements Baby steps toward understanding RNNs Forward propagation in an RNN Backpropagation through time in an RNN Vanishing and exploding gradients Architectural forms of RNNs Different flavors of RNN Carrying relationships both ways using bidirectional RNNs Going deep with RNNs Giving memory to our networks – LSTMs Understanding an LSTM cell Forget gate Input gate Output gate Backpropagation through time in LSTMs Building a text generator using LSTMs Exploring memory-based variants of the RNN architecture GRUs Stacked LSTMs Summary Chapter 11: State of the Art in NLP Technical requirements Seq2Seq modeling Encoders Decoders The training phase The inference phase Translating between languages using Seq2Seq modeling Let\'s pay some attention Transformers Understanding the architecture of Transformers Encoders Decoders Self-attention How does self-attention work mathematically? A small note on masked self-attention Feedforward neural networks Residuals and layer normalization Positional embeddings How the decoder works The linear layer and the softmax function Transformer model summary BERT The BERT architecture The BERT model input and output How did BERT the pre-training happen? The masked language model Next-sentence prediction BERT fine-tuning Summary Other Books You May Enjoy Index