ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Probabilistic Machine Learning: An Introduction

دانلود کتاب یادگیری ماشین احتمالی: مقدمه

Probabilistic Machine Learning: An Introduction

مشخصات کتاب

Probabilistic Machine Learning: An Introduction

ویرایش: [Illustrated] 
نویسندگان:   
سری:  
 
ناشر: The MIT Press 
سال نشر: 2021 
تعداد صفحات: 863 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 80 Mb 

قیمت کتاب (تومان) : 48,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Probabilistic Machine Learning: An Introduction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری ماشین احتمالی: مقدمه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری ماشین احتمالی: مقدمه

در سال 2012، من یک کتاب 1200 صفحه‌ای به نام «یادگیری ماشین: چشم‌انداز احتمالی» منتشر کردم که پوشش نسبتاً جامعی از حوزه یادگیری ماشین (ML) در آن زمان ارائه می‌کرد، زیر لنز یکپارچه مدل‌سازی احتمالی. این کتاب به خوبی مورد استقبال قرار گرفت و جایزه De Groot در سال 2013 را از آن خود کرد. سال 2012 همچنین به طور کلی شروع "انقلاب یادگیری عمیق" در نظر گرفته می شود. اصطلاح "یادگیری عمیق" به شاخه ای از ML اشاره دارد که بر اساس شبکه های عصبی با لایه های متعدد (از این رو اصطلاح "عمیق" است. اگرچه این فناوری پایه سال‌ها بود که وجود داشت، اما در سال 2012 بود که [KSH12] از شبکه‌های عصبی عمیق (DNN) برای برنده شدن در چالش طبقه‌بندی تصویر ImageNet با چنین حاشیه بزرگی استفاده کرد که توجه جامعه را به خود جلب کرد. کارهای مرتبط تقریباً در همان زمان در چندین مقاله دیگر از جمله [Cir 10; Cir 11; Hin 12] ظاهر شد. این پیشرفت‌ها با پیشرفت‌های فناوری سخت‌افزار (به‌ویژه، تغییر کاربری واحدهای پردازش گرافیکی سریع از بازی‌های ویدیویی به ML)، فناوری جمع‌آوری داده‌ها (به‌ویژه، استفاده از جمع‌سپاری برای جمع‌آوری مجموعه‌های داده بزرگ برچسب‌گذاری‌شده مانند ImageNet)، و همچنین مختلف امکان‌پذیر شد. ایده های الگوریتمی جدید. از سال 2012، زمینه یادگیری عمیق با پیشرفت های جدید با سرعت فزاینده ای منفجر شده است. علاقه به این زمینه نیز به دلیل موفقیت تجاری فناوری و گستردگی کاربردهایی که می توان آن را به کار برد، افزایش یافته است. بنابراین، در سال 2018، تصمیم گرفتم ویرایش دوم کتابم را بنویسم تا سعی کنم برخی از این پیشرفت ها را خلاصه کنم. تا مارس 2020، پیش نویس ویرایش دوم من به حدود 1600 صفحه افزایش یافت و هنوز کارم تمام نشده بود. سپس همه گیری COVID-19 رخ داد. تصمیم گرفتم نوشتن کتاب را به حالت تعلیق درآورم، و به سمت کمک به پروژه‌های مختلف COVID-19 "محور" کنم (به عنوان مثال، [MKS21; Wah 21] را ببینید). با این حال، در پاییز، زمانی که این پروژه‌ها کمتر از چرخه‌های من می‌گرفتند، تصمیم گرفتم کتاب را تمام کنم. برای جبران زمان از دست رفته، از چندین همکار خواستم تا به من کمک کنند تا آخرین ⇠10% از «مطالب گمشده» را به پایان برسانم. (تشکرات را در زیر ببینید.) در این بین، MIT Press به من گفت که نمی توانند یک کتاب 1600 صفحه ای منتشر کنند، و اینکه من باید آن را به دو جلد تقسیم کنم. نتیجه همه اینها دو کتاب جدید "آموزش ماشینی احتمالی: مقدمه" است که اکنون در حال خواندن آن هستید و "یادگیری ماشین احتمالی: موضوعات پیشرفته" که دنباله این کتاب است [Mur22]. این دو کتاب با هم تلاش می کنند تا پوشش نسبتاً گسترده ای از حوزه ML c را ارائه دهند. 2021، با استفاده از همان لنز یکپارچه مدل‌سازی احتمالی و نظریه تصمیم بیزی که در کتاب اول استفاده کردم. بیشتر محتوای کتاب اول دوباره استفاده شده است، اما اکنون به طور نسبتاً مساوی بین دو کتاب جدید تقسیم شده است. علاوه بر این، هر کتاب دارای بسیاری از مطالب جدید است که برخی از موضوعات را از یادگیری عمیق پوشش می دهد، اما همچنین پیشرفت هایی در سایر بخش ها، مانند مدل های تولیدی، استنتاج متغیر xxviii پیشگفتار و یادگیری تقویتی. برای اینکه کتاب خودکفاتر و برای دانش‌آموزان مفیدتر باشد، مطالب پیش‌زمینه دیگری نیز در موضوعاتی مانند بهینه‌سازی و جبر خطی اضافه کرده‌ام که به دلیل کمبود جا از کتاب اول حذف شده است. مطالب پیشرفته را که می توان در طول دوره مقدماتی نادیده گرفت، با علامت * در عنوان بخش یا فصل نشان داده می شود. در آینده، ما امیدواریم که نمونه برنامه های درسی و اسلایدها را به صورت آنلاین ارسال کنیم. تغییر عمده دیگر این است که تقریباً همه نرم افزارها اکنون به جای Matlab از Python استفاده می کنند. (در آینده، ما امیدواریم که یک نسخه جولیا از کد داشته باشیم.) کد جدید از کتابخانه‌های پایتون استاندارد، مانند numpy، scipy، scikit-learn و غیره استفاده می‌کند. برخی از نمونه‌ها نیز به کتابخانه‌های یادگیری عمیق مختلف، مانند TensorFlow، PyTorch، و JAX تکیه دارند. . علاوه بر کد ایجاد تمام شکل‌ها، نوت‌بوک‌های تکمیلی Jupyter برای همراهی هر فصل وجود دارد که جنبه‌های عملی را مورد بحث قرار می‌دهد که فضایی برای پوشش دادن در متن اصلی نداریم. جزئیات را می‌توانید در probml.ai بیابید.تشکر می‌خواهم از افراد زیر تشکر کنم که به من در نوشتن بخش‌های مختلف این کتاب کمک کردند: • فردریک کونستنر، سی یی منگ، آرون میشکین، شاران واسوانی و مارک اشمیت که در نوشتن بخش‌هایی از فصل 8 (بهینه‌سازی) کمک کردند. • لیهونگ لی، که به نوشتن Sec.5.3 (مشکلات راهزن *) کمک کرد. • ماتیو بلوندل، که به نوشتن Sec.13.3 (انتشار پس‌زمینه) کمک کرد. • روی فراستیگ، که Sec.7.8.8 (نشان‌گذاری مشتق تابعی *) وSec.13.3 را نوشت. 5(تمایز خودکار به شکل عملکردی *).•جاستین گیلمر، که به نوشتن Sec.14.7 کمک کرد (مثال های متخاصم *).•Krzysztof Choromanski، که به نوشتن Sec.15.6 کمک کرد (ترانسفورماتورهای کارآمد *).•Colin Raffel، که در نوشتن2Sec.19. Learning)andSec.19.3(Semi-Supervised Learning).•Bryan Perozzi، که در نوشتن Chapter23(Embeddings Graph*) کمک کرد.•Zico Kolter، که به نوشتن بخش هایی از Chapter7 (جبر خطی) کمک کرد. می خواهم از John Fearns و Peter Cerno برای دقت تشکر کنم. تصحیح کتاب، و همچنین بازخورد بسیاری از افراد دیگر، از جمله 4 داور ناشناس که توسط MIT Press درخواست شده‌اند. می‌خواهم از محمود سلیمان برای نوشتن تمام کدهای «پشت‌آفیس» که لاتکس، colab، github و GCP را به هم متصل می‌کند، تشکر کنم. می‌خواهم از نویسندگان [Zha 20]، [Gér17]و[Mar18] که اجازه استفاده مجدد یا اصلاح برخی از کدهای منبع باز خود را از کتاب‌های عالی خودشان دادند، تشکر کنم. من همچنین می‌خواهم از بسیاری دیگر از اعضای انجمن github برای مشارکت در کدشان تشکر کنم (لیست کامل نام‌ها را ببینید). در نهایت می‌خواهم از مدیرم در Google، داگ اک، که به من اجازه داد وقت شرکت را برای این کتاب صرف کنم و همسرم مارگارت تشکر کنم. برای اینکه به من اجازه داد تا وقت خانوادگی را نیز صرف آن کنم. امیدوارم تلاش‌های من برای ترکیب همه این مواد با هم در یک مکان به شما کمک کند تا در سفر اکتشاف خود به "سرزمین ML" صرفه جویی کنید. کوین پاتریک مورفی پالو آلتو، کالیفرنیا آوریل 2021


توضیحاتی درمورد کتاب به خارجی

In 2012, I published a 1200-page book called “Machine learning: a probabilistic perspective”, whichprovided a fairly comprehensive coverage of the field of machine learning (ML) at that time, underthe unifying lens of probabilistic modeling. The book was well received, and won theDe Groot prizein 2013.The year 2012 is also generally considered the start of the “deep learning revolution”. The term“deep learning” refers to a branch of ML that is based on neural networks with many layers (hencethe term “deep”). Although this basic technology had been around for many years, it was in 2012when [KSH12] used deep neural networks (DNNs) to win the ImageNet image classification challengeby such a large margin that it caught the attention of the community. Related work appeared aroundthe same time in several other papers, including [Cir+10;Cir+11;Hin+12]. These breakthroughswere enabled by advances in hardware technology (in particular, the repurposing of fast graphicsprocessing units from video games to ML), data collection technology (in particular, the use of crowdsourcing to collect large labeled datasets such as ImageNet), as well as various new algorithmic ideas.Since 2012, the field of deep learning has exploded, with new advances coming at an increasingpace. Interest in the field has also exploded, fueled by the commercial success of the technology,and the breadth of applications to which it can be applied. Therefore, in 2018, I decided to write asecond edition of my book, to attempt to summarize some of this progress.By March 2020, my draft of the second edition had swollen to about 1600 pages, and I was stillnot done. Then the COVID-19 pandemic struck. I decided to put the book writing on hold, and to“pivot” towards helping with various COVID-19 projects (see e.g., [MKS21;Wah+21]). However, inthe Fall, when these projects were taking less of my cycles, I decided to try to finish the book. Tomake up for lost time, I asked several colleagues to help me finish the last⇠10%of “missing content”.(See acknowledgements below.)In the meantime, MIT Press told me they could not publish a 1600 page book, and that I wouldneed to split it into two volumes. The result of all this is two new books, “Probabilistic MachineLearning: An Introduction”, which you are currently reading, and “Probabilistic Machine Learning:Advanced Topics”, which is the sequel to this book [Mur22]. Together these two books attempt topresent a fairly broad coverage of the field of ML c. 2021, using the same unifying lens of probabilisticmodeling and Bayesian decision theory that I used in the first book.Most of the content from the first book has been reused, but it is now split fairly evenly betweenthe two new books. In addition, each book has lots of new material, covering some topics from deeplearning, but also advances in other parts of the field, such as generative models, variational inference xxviiiPrefaceand reinforcement learning. To make the book more self-contained and useful for students, I havealso added some more background content, on topics such as optimization and linear algebra, thatwas omitted from the first book due to lack of space. Advanced material, that can be skipped duringan introductory level course, is denoted by an asterisk * in the section or chapter title. In the future,we hope to post sample syllabuses and slides online.Another major change is that nearly all of the software now uses Python instead of Matlab. (Inthe future, we hope to have a Julia version of the code.) The new code leverages standard Pythonlibraries, such as numpy, scipy, scikit-learn, etc. Some examples also rely on various deep learninglibraries, such asTensorFlow,PyTorch,andJAX. In addition to the code to create all the figures,there are supplementary Jupyter notebooks to accompany each chapter, which discuss practicalaspects that we don’t have space to cover in the main text. Details can be found atprobml.ai.AcknowledgementsI would like to thank the following people for helping me to write various parts of this book:•Frederik Kunstner, Si Yi Meng, Aaron Mishkin, Sharan Vaswani, and Mark Schmidt who helpedwrite parts ofChapter8(Optimization).•Lihong Li, who helped writeSec.5.3(Bandit problems *).•Mathieu Blondel, who helped writeSec.13.3(Backpropagation).•Roy Frostig, who wroteSec.7.8.8(Functional derivative notation *)andSec.13.3.5(Automaticdifferentiation in functional form *).•Justin Gilmer, who helped writeSec.14.7(Adversarial Examples *).•Krzysztof Choromanski, who helped writeSec.15.6(Efficient transformers *).•Colin Raffel, who helped writeSec.19.2(Transfer learning)andSec.19.3(Semi-supervisedlearning).•Bryan Perozzi, who helped writeChapter23(Graph embeddings *).•Zico Kolter, who helped write parts ofChapter7(Linear algebra).I would like to thank John Fearns and Peter Cerno for carefully proofreading the book, as well asfeedback from many other people, including 4 anonymous reviewers solicited by MIT Press.I would like to thank Mahmoud Soliman for writing all the “back-office” code, that connects latex,colab, github and GCP. I would like to thank the authors of [Zha+20], [Gér17]and[Mar18]forlettingme reuse or modify some of their open source code from their own excellent books. I would also liketo thank many other members of the github community for their code contrbutions (see thefull listof names).Finally I would like to thank my manager at Google, Doug Eck, for letting me spend companytime on this book, and my wife Margaret for letting me spend family time on it, too. I hope myefforts to synthesize all this material together in one place will help to save you time in your journeyof discovery into the “land of ML”.Kevin Patrick MurphyPalo Alto, CaliforniaApril 2021





نظرات کاربران