ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Natural Language Processing with Transformers

دانلود کتاب پردازش زبان طبیعی با ترانسفورماتورها

Natural Language Processing with Transformers

مشخصات کتاب

Natural Language Processing with Transformers

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 9781098136796 
ناشر: O'Reilly Media 
سال نشر: 2022 
تعداد صفحات:  
زبان: English 
فرمت فایل : AZW3 (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 5 Mb 

قیمت کتاب (تومان) : 32,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Natural Language Processing with Transformers به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب پردازش زبان طبیعی با ترانسفورماتورها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب پردازش زبان طبیعی با ترانسفورماتورها

از زمان معرفی آنها در سال 2017، ترانسفورماتورها به سرعت به معماری غالب برای دستیابی به نتایج پیشرفته در انواع وظایف پردازش زبان طبیعی تبدیل شده اند. اگر دانشمند داده یا کدنویس هستید، این کتاب عملی -که اکنون به صورت تمام رنگی بازبینی شده است- به شما نشان می دهد که چگونه این مدل های بزرگ را با استفاده از Hugging Face Transformers، یک کتابخانه یادگیری عمیق مبتنی بر پایتون، آموزش دهید و مقیاس بندی کنید. ترانسفورماتورها برای نوشتن داستان های خبری واقع گرایانه، بهبود پرسش های جستجوی Google، و حتی ایجاد ربات های چت که جوک های عجیب و غریب را بیان می کنند، استفاده شده است. در این راهنما، نویسندگان Lewis Tunstall، Leandro von Werra و Thomas Wolf، از جمله سازندگان Hugging Face Transformers، از یک رویکرد عملی برای آموزش نحوه کار ترانسفورماتورها و نحوه ادغام آنها در برنامه های کاربردی خود استفاده می کنند. شما به سرعت کارهای مختلفی را یاد خواهید گرفت که می توانند به شما در حل آنها کمک کنند. ساخت، اشکال‌زدایی و بهینه‌سازی مدل‌های ترانسفورماتور برای وظایف اصلی NLP، مانند طبقه‌بندی متن، شناسایی موجودیت نام‌گذاری شده، و پاسخ‌گویی به سؤال، یاد بگیرید چگونه می‌توان از ترانسفورماتورها برای یادگیری انتقال بین زبانی استفاده کرد. استفاده از ترانسفورماتورها در سناریوهای دنیای واقعی که داده‌های برچسب‌گذاری شده کمیاب هستند. مدل‌های ترانسفورماتور کارآمد برای استقرار با استفاده از تکنیک‌هایی مانند تقطیر، هرس، و کوانتیزه کردن ترانسفورماتورها را از ابتدا آموزش دهید و یاد بگیرید که چگونه به چند پردازنده گرافیکی و محیط‌های توزیع شده مقیاس دهید.


توضیحاتی درمورد کتاب به خارجی

Since their introduction in 2017, transformers have quickly become the dominant architecture for achieving state-of-the-art results on a variety of natural language processing tasks. If you're a data scientist or coder, this practical book -now revised in full color- shows you how to train and scale these large models using Hugging Face Transformers, a Python-based deep learning library. Transformers have been used to write realistic news stories, improve Google Search queries, and even create chatbots that tell corny jokes. In this guide, authors Lewis Tunstall, Leandro von Werra, and Thomas Wolf, among the creators of Hugging Face Transformers, use a hands-on approach to teach you how transformers work and how to integrate them in your applications. You'll quickly learn a variety of tasks they can help you solve. Build, debug, and optimize transformer models for core NLP tasks, such as text classification, named entity recognition, and question answering Learn how transformers can be used for cross-lingual transfer learning Apply transformers in real-world scenarios where labeled data is scarce Make transformer models efficient for deployment using techniques such as distillation, pruning, and quantization Train transformers from scratch and learn how to scale to multiple GPUs and distributed environments





نظرات کاربران