ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Mastering Transformers: Build state-of-the-art models from scratch with advanced natural language processing techniques

دانلود کتاب تسلط بر ترانسفورماتورها: ساخت مدل های پیشرفته از ابتدا با تکنیک های پیشرفته پردازش زبان طبیعی

Mastering Transformers: Build state-of-the-art models from scratch with advanced natural language processing techniques

مشخصات کتاب

Mastering Transformers: Build state-of-the-art models from scratch with advanced natural language processing techniques

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1801077657, 9781801077651 
ناشر: Packt Publishing 
سال نشر: 2021 
تعداد صفحات: 374 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 15 Mb 

قیمت کتاب (تومان) : 41,000

در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 1


در صورت تبدیل فایل کتاب Mastering Transformers: Build state-of-the-art models from scratch with advanced natural language processing techniques به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تسلط بر ترانسفورماتورها: ساخت مدل های پیشرفته از ابتدا با تکنیک های پیشرفته پردازش زبان طبیعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تسلط بر ترانسفورماتورها: ساخت مدل های پیشرفته از ابتدا با تکنیک های پیشرفته پردازش زبان طبیعی



برای یادگیری همه چیز در مورد ترانسفورماتورها رویکرد حل مسئله را در نظر بگیرید و با پیاده سازی متدولوژی هایی که آینده NLP را می سازند در کمترین زمان راه اندازی و راه اندازی شوید

ویژگی های کلیدی

h4>
  • کاوش نمونه سازی سریع با کتابخانه های به روز پایتون برای ایجاد راه حل های موثر برای مشکلات صنعتی
  • حل مشکلات پیشرفته NLP مانند شناسایی موجودیت نام، استخراج اطلاعات، تولید زبان، و هوش مصنوعی مکالمه ای
  • با کمک BertViz، exBERT و TensorBoard عملکرد مدل خود را نظارت کنید

توضیحات کتاب

مدل های زبان مبتنی بر ترانسفورماتور دارای بر مطالعات پردازش زبان طبیعی (NLP) مسلط شد و اکنون به یک پارادایم جدید تبدیل شده است. با این کتاب، یاد خواهید گرفت که چگونه برنامه‌های NLP مبتنی بر ترانسفورماتور را با استفاده از کتابخانه Python Transformers بسازید.

این کتاب با نشان دادن نحوه نوشتن اولین برنامه hello-world خود، مقدمه‌ای با Transformers را به شما می‌دهد. . سپس یاد خواهید گرفت که یک توکنایزر چگونه کار می کند و چگونه توکنایزر خود را آموزش دهید. با پیشروی، معماری مدل‌های رمزگذاری خودکار، مانند BERT و مدل‌های اتورگرسیو مانند GPT را بررسی خواهید کرد. نحوه آموزش و تنظیم مدل‌ها را برای انواع مشکلات درک زبان طبیعی (NLU) و تولید زبان طبیعی (NLG) از جمله طبقه‌بندی متن، طبقه‌بندی نشانه‌ها و نمایش متن مشاهده خواهید کرد. این کتاب همچنین به شما کمک می‌کند تا مدل‌های کارآمد برای مشکلات چالش برانگیز، مانند وظایف NLP با زمینه طولانی با ظرفیت محاسباتی محدود را بیاموزید. شما همچنین با مشکلات چند زبانه و چند زبانه کار خواهید کرد، مدل ها را با نظارت بر عملکرد آنها بهینه سازی می کنید، و کشف می کنید که چگونه این مدل ها را برای تفسیرپذیری و توضیح پذیری تجزیه کنید. در نهایت، می‌توانید مدل‌های ترانسفورماتور خود را در یک محیط تولید مستقر کنید.

در پایان این کتاب NLP، نحوه استفاده از ترانسفورماتورها برای حل مشکلات پیشرفته NLP با استفاده از مدل‌های پیشرفته را خواهید آموخت.

آنچه یاد خواهید گرفت

  • راه حل های پیشرفته NLP را با کتابخانه Transformers کاوش کنید
  • آموزش یک مدل زبان به هر زبانی با هر معماری ترانسفورماتور
  • تنظیم دقیق یک مدل زبان از پیش آموزش دیده برای انجام چندین کار پایین دستی
  • چارچوب مناسب را برای آموزش، ارزیابی و تولید یک پایان به انتها انتخاب کنید. راه حل
  • در استفاده از TensorBoard و Weights & Biases تجربه عملی کسب کنید
  • تصویرسازی نمایش داخلی مدل های ترانسفورماتور برای تفسیرپذیری

این کتاب چه کسی است برای

این کتاب برای محققان یادگیری عمیق، تمرین‌کنندگان عملی NLP، و همچنین مربیان ML/NLP و دانش‌آموزانی است که می‌خواهند سفر خود را با Transformers شروع کنند. دانش یادگیری ماشین در سطح مبتدی و تسلط خوب به Python به شما کمک می کند تا بهترین بهره را از این کتاب ببرید.

فهرست محتوا

  1. از Bag-of-Words به the Transformers
  2. مقدمه ای عملی بر موضوع
  3. مدل های زبان رمزگذاری خودکار
  4. مدل های زبانی خود رگرسیون و دیگر
  5. زبان تنظیم دقیق مدل‌هایی برای طبقه‌بندی متن
  6. مدل‌های تنظیم دقیق زبان برای طبقه‌بندی نشانه‌ها
  7. نمایش متن
  8. کار با ترانسفورماتورهای کارآمد
  9. زبان‌های متقابل و مدل‌سازی زبان چند زبانه
  10. مدل‌های ترانسفورماتور ارائه‌شده
  11. تجسم توجه و ردیابی آزمایش

توضیحاتی درمورد کتاب به خارجی

Take a problem-solving approach to learning all about transformers and get up and running in no time by implementing methodologies that will build the future of NLP

Key Features

  • Explore quick prototyping with up-to-date Python libraries to create effective solutions to industrial problems
  • Solve advanced NLP problems such as named-entity recognition, information extraction, language generation, and conversational AI
  • Monitor your model's performance with the help of BertViz, exBERT, and TensorBoard

Book Description

Transformer-based language models have dominated natural language processing (NLP) studies and have now become a new paradigm. With this book, you'll learn how to build various transformer-based NLP applications using the Python Transformers library.

The book gives you an introduction to Transformers by showing you how to write your first hello-world program. You'll then learn how a tokenizer works and how to train your own tokenizer. As you advance, you'll explore the architecture of autoencoding models, such as BERT, and autoregressive models, such as GPT. You'll see how to train and fine-tune models for a variety of natural language understanding (NLU) and natural language generation (NLG) problems, including text classification, token classification, and text representation. This book also helps you to learn efficient models for challenging problems, such as long-context NLP tasks with limited computational capacity. You'll also work with multilingual and cross-lingual problems, optimize models by monitoring their performance, and discover how to deconstruct these models for interpretability and explainability. Finally, you'll be able to deploy your transformer models in a production environment.

By the end of this NLP book, you'll have learned how to use Transformers to solve advanced NLP problems using advanced models.

What you will learn

  • Explore state-of-the-art NLP solutions with the Transformers library
  • Train a language model in any language with any transformer architecture
  • Fine-tune a pre-trained language model to perform several downstream tasks
  • Select the right framework for the training, evaluation, and production of an end-to-end solution
  • Get hands-on experience in using TensorBoard and Weights & Biases
  • Visualize the internal representation of transformer models for interpretability

Who this book is for

This book is for deep learning researchers, hands-on NLP practitioners, as well as ML/NLP educators and students who want to start their journey with Transformers. Beginner-level machine learning knowledge and a good command of Python will help you get the best out of this book.

Table of Contents

  1. From Bag-of-Words to the Transformers
  2. A Hands-On Introduction to the Subject
  3. Autoencoding Language Models
  4. Autoregressive and Other Language Models
  5. Fine-Tuning Language Models for Text Classification
  6. Fine-Tuning Language Models for Token Classification
  7. Text Representation
  8. Working with Efficient Transformers
  9. Cross-Lingual and Multilingual Language Modeling
  10. Serving Transformer Models
  11. Attention Visualization and Experiment Tracking


فهرست مطالب

Cover
Title page
Copyright and Credits
Contributors
Table of Contents
Preface
Section 1: Introduction – Recent Developments in the Field, Installations, and Hello World Applications
Chapter 1: From Bag-of-Words to the Transformer
	Technical requirements
	Evolution of NLP toward Transformers
	Understanding distributional semantics
		BoW implementation
		Overcoming the dimensionality problem
		Language modeling and generation
	Leveraging DL
		Learning word embeddings
		A brief overview of RNNs
		LSTMs and gated recurrent units
		A brief overview of CNNs
	Overview of the Transformer architecture
		Attention mechanism
		Multi-head attention mechanisms
	Using TL with Transformers
	Summary
	References
Chapter 2: A Hands-On Introduction to the Subject
	Technical requirements
	Installing Transformer with Anaconda
		Installation on Linux
		Installation on Windows
		Installation on macOS
		Installing TensorFlow, PyTorch, and Transformer
		Installing using Google Colab
	Working with language models and tokenizers
	Working with community-provided models
	Working with benchmarks and datasets
		Important benchmarks
		Accessing the datasets with an Application Programming Interface
	Benchmarking for speed and memory
	Summary
Section 2: Transformer Models – From Autoencoding to Autoregressive Models
Chapter 3: Autoencoding Language Models
	Technical requirements
	BERT – one of the autoencoding language models
		BERT language model pretraining tasks
		A deeper look into the BERT language model
	Autoencoding language model training for any language
	Sharing models with the community
	Understanding other autoencoding models
		Introducing ALBERT
		RoBERTa
		ELECTRA
	Working with tokenization algorithms
		Byte pair encoding
		WordPiece tokenization
		Sentence piece tokenization
		The tokenizers library
	Summary
Chapter 4: Autoregressive and Other Language Models
	Technical requirements
	Working with AR language models
		Introduction and training models with GPT
		Transformer-XL
		XLNet
	Working with Seq2Seq models
		T5
		Introducing BART
	AR language model training
	NLG using AR models
	Summarization and MT fine-tuning using simpletransformers
	Summary
	References
Chapter 5: Fine-Tuning Language Models for Text Classification
	Technical requirements
	Introduction to text classification
	Fine-tuning a BERT model for single-sentence binary classification
	Training a classification model with native PyTorch
	Fine-tuning BERT for multi-class classification with custom datasets
	Fine-tuning the BERT model for sentence-pair regression
	Utilizing run_glue.py to fine-tune the models
	Summary
Chapter 6: Fine-Tuning Language Models for Token Classification
	Technical requirements
	Introduction to token classification
		Understanding NER
		Understanding POS tagging
		Understanding QA
	Fine-tuning language models for NER
	Question answering using token classification
	Summary
Chapter 7: Text Representation
	Technical requirements
	Introduction to sentence embeddings
		Cross-encoder versus bi-encoder
		Benchmarking sentence similarity models
		Using BART for zero-shot learning
	Semantic similarity experiment with FLAIR
		Average word embeddings
		RNN-based document embeddings
		Transformer-based BERT embeddings
		Sentence-BERT embeddings
	Text clustering with Sentence-BERT
		Topic modeling with BERTopic
	Semantic search with Sentence-BERT
	Summary
	Further reading
Section 3: Advanced Topics
Chapter 8: Working with Efficient Transformers
	Technical requirements
	Introduction to efficient, light, and fast transformers
	Implementation for model size reduction
		Working with DistilBERT for knowledge distillation
		Pruning transformers
		Quantization
	Working with efficient self-attention
		Sparse attention with fixed patterns
		Learnable patterns
		Low-rank factorization, kernel methods, and other approaches
	Summary
	References
Chapter 9: Cross-Lingual and Multilingual Language Modeling
	Technical requirements
	Translation language modeling and cross-lingual knowledge sharing
	XLM and mBERT
		mBERT
		XLM
	Cross-lingual similarity tasks
		Cross-lingual text similarity
		Visualizing cross-lingual textual similarity
	Cross-lingual classification
	Cross-lingual zero-shot learning
	Fundamental limitations of multilingual models
		Fine-tuning the performance of multilingual models
	Summary
	References
Chapter 10: Serving Transformer Models
	Technical requirements
	fastAPI Transformer model serving
	Dockerizing APIs
	Faster Transformer model serving using TFX
	Load testing using Locust
	Summary
	References
Chapter 11: Attention Visualization and Experiment Tracking
	Technical requirements
	Interpreting attention heads
		Visualizing attention heads with exBERT
		Multiscale visualization of attention heads with BertViz
		Understanding the inner parts of BERT with probing classifiers
	Tracking model metrics
		Tracking model training with TensorBoard
		Tracking model training live with W&B
	Summary
	References
	Why subscribe?
About Packt
Other Books You May Enjoy
Index




نظرات کاربران