دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Savaş Yıldırım. Meysam Asgari-Chenaghlu
سری:
ISBN (شابک) : 1801077657, 9781801077651
ناشر: Packt Publishing
سال نشر: 2021
تعداد صفحات: 374
زبان: English
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 15 Mb
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Mastering Transformers: Build state-of-the-art models from scratch with advanced natural language processing techniques به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تسلط بر ترانسفورماتورها: ساخت مدل های پیشرفته از ابتدا با تکنیک های پیشرفته پردازش زبان طبیعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
برای یادگیری همه چیز در مورد ترانسفورماتورها رویکرد حل مسئله را در نظر بگیرید و با پیاده سازی متدولوژی هایی که آینده NLP را می سازند در کمترین زمان راه اندازی و راه اندازی شوید
مدل های زبان مبتنی بر ترانسفورماتور دارای بر مطالعات پردازش زبان طبیعی (NLP) مسلط شد و اکنون به یک پارادایم جدید تبدیل شده است. با این کتاب، یاد خواهید گرفت که چگونه برنامههای NLP مبتنی بر ترانسفورماتور را با استفاده از کتابخانه Python Transformers بسازید.
این کتاب با نشان دادن نحوه نوشتن اولین برنامه hello-world خود، مقدمهای با Transformers را به شما میدهد. . سپس یاد خواهید گرفت که یک توکنایزر چگونه کار می کند و چگونه توکنایزر خود را آموزش دهید. با پیشروی، معماری مدلهای رمزگذاری خودکار، مانند BERT و مدلهای اتورگرسیو مانند GPT را بررسی خواهید کرد. نحوه آموزش و تنظیم مدلها را برای انواع مشکلات درک زبان طبیعی (NLU) و تولید زبان طبیعی (NLG) از جمله طبقهبندی متن، طبقهبندی نشانهها و نمایش متن مشاهده خواهید کرد. این کتاب همچنین به شما کمک میکند تا مدلهای کارآمد برای مشکلات چالش برانگیز، مانند وظایف NLP با زمینه طولانی با ظرفیت محاسباتی محدود را بیاموزید. شما همچنین با مشکلات چند زبانه و چند زبانه کار خواهید کرد، مدل ها را با نظارت بر عملکرد آنها بهینه سازی می کنید، و کشف می کنید که چگونه این مدل ها را برای تفسیرپذیری و توضیح پذیری تجزیه کنید. در نهایت، میتوانید مدلهای ترانسفورماتور خود را در یک محیط تولید مستقر کنید.
در پایان این کتاب NLP، نحوه استفاده از ترانسفورماتورها برای حل مشکلات پیشرفته NLP با استفاده از مدلهای پیشرفته را خواهید آموخت.
این کتاب برای محققان یادگیری عمیق، تمرینکنندگان عملی NLP، و همچنین مربیان ML/NLP و دانشآموزانی است که میخواهند سفر خود را با Transformers شروع کنند. دانش یادگیری ماشین در سطح مبتدی و تسلط خوب به Python به شما کمک می کند تا بهترین بهره را از این کتاب ببرید.
Take a problem-solving approach to learning all about transformers and get up and running in no time by implementing methodologies that will build the future of NLP
Transformer-based language models have dominated natural language processing (NLP) studies and have now become a new paradigm. With this book, you'll learn how to build various transformer-based NLP applications using the Python Transformers library.
The book gives you an introduction to Transformers by showing you how to write your first hello-world program. You'll then learn how a tokenizer works and how to train your own tokenizer. As you advance, you'll explore the architecture of autoencoding models, such as BERT, and autoregressive models, such as GPT. You'll see how to train and fine-tune models for a variety of natural language understanding (NLU) and natural language generation (NLG) problems, including text classification, token classification, and text representation. This book also helps you to learn efficient models for challenging problems, such as long-context NLP tasks with limited computational capacity. You'll also work with multilingual and cross-lingual problems, optimize models by monitoring their performance, and discover how to deconstruct these models for interpretability and explainability. Finally, you'll be able to deploy your transformer models in a production environment.
By the end of this NLP book, you'll have learned how to use Transformers to solve advanced NLP problems using advanced models.
This book is for deep learning researchers, hands-on NLP practitioners, as well as ML/NLP educators and students who want to start their journey with Transformers. Beginner-level machine learning knowledge and a good command of Python will help you get the best out of this book.
Cover Title page Copyright and Credits Contributors Table of Contents Preface Section 1: Introduction – Recent Developments in the Field, Installations, and Hello World Applications Chapter 1: From Bag-of-Words to the Transformer Technical requirements Evolution of NLP toward Transformers Understanding distributional semantics BoW implementation Overcoming the dimensionality problem Language modeling and generation Leveraging DL Learning word embeddings A brief overview of RNNs LSTMs and gated recurrent units A brief overview of CNNs Overview of the Transformer architecture Attention mechanism Multi-head attention mechanisms Using TL with Transformers Summary References Chapter 2: A Hands-On Introduction to the Subject Technical requirements Installing Transformer with Anaconda Installation on Linux Installation on Windows Installation on macOS Installing TensorFlow, PyTorch, and Transformer Installing using Google Colab Working with language models and tokenizers Working with community-provided models Working with benchmarks and datasets Important benchmarks Accessing the datasets with an Application Programming Interface Benchmarking for speed and memory Summary Section 2: Transformer Models – From Autoencoding to Autoregressive Models Chapter 3: Autoencoding Language Models Technical requirements BERT – one of the autoencoding language models BERT language model pretraining tasks A deeper look into the BERT language model Autoencoding language model training for any language Sharing models with the community Understanding other autoencoding models Introducing ALBERT RoBERTa ELECTRA Working with tokenization algorithms Byte pair encoding WordPiece tokenization Sentence piece tokenization The tokenizers library Summary Chapter 4: Autoregressive and Other Language Models Technical requirements Working with AR language models Introduction and training models with GPT Transformer-XL XLNet Working with Seq2Seq models T5 Introducing BART AR language model training NLG using AR models Summarization and MT fine-tuning using simpletransformers Summary References Chapter 5: Fine-Tuning Language Models for Text Classification Technical requirements Introduction to text classification Fine-tuning a BERT model for single-sentence binary classification Training a classification model with native PyTorch Fine-tuning BERT for multi-class classification with custom datasets Fine-tuning the BERT model for sentence-pair regression Utilizing run_glue.py to fine-tune the models Summary Chapter 6: Fine-Tuning Language Models for Token Classification Technical requirements Introduction to token classification Understanding NER Understanding POS tagging Understanding QA Fine-tuning language models for NER Question answering using token classification Summary Chapter 7: Text Representation Technical requirements Introduction to sentence embeddings Cross-encoder versus bi-encoder Benchmarking sentence similarity models Using BART for zero-shot learning Semantic similarity experiment with FLAIR Average word embeddings RNN-based document embeddings Transformer-based BERT embeddings Sentence-BERT embeddings Text clustering with Sentence-BERT Topic modeling with BERTopic Semantic search with Sentence-BERT Summary Further reading Section 3: Advanced Topics Chapter 8: Working with Efficient Transformers Technical requirements Introduction to efficient, light, and fast transformers Implementation for model size reduction Working with DistilBERT for knowledge distillation Pruning transformers Quantization Working with efficient self-attention Sparse attention with fixed patterns Learnable patterns Low-rank factorization, kernel methods, and other approaches Summary References Chapter 9: Cross-Lingual and Multilingual Language Modeling Technical requirements Translation language modeling and cross-lingual knowledge sharing XLM and mBERT mBERT XLM Cross-lingual similarity tasks Cross-lingual text similarity Visualizing cross-lingual textual similarity Cross-lingual classification Cross-lingual zero-shot learning Fundamental limitations of multilingual models Fine-tuning the performance of multilingual models Summary References Chapter 10: Serving Transformer Models Technical requirements fastAPI Transformer model serving Dockerizing APIs Faster Transformer model serving using TFX Load testing using Locust Summary References Chapter 11: Attention Visualization and Experiment Tracking Technical requirements Interpreting attention heads Visualizing attention heads with exBERT Multiscale visualization of attention heads with BertViz Understanding the inner parts of BERT with probing classifiers Tracking model metrics Tracking model training with TensorBoard Tracking model training live with W&B Summary References Why subscribe? About Packt Other Books You May Enjoy Index