دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [Illustrated]
نویسندگان: Kevin P. Murphy
سری:
ناشر: The MIT Press
سال نشر: 2021
تعداد صفحات: 863
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 80 Mb
در صورت تبدیل فایل کتاب Probabilistic Machine Learning: An Introduction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری ماشین احتمالی: مقدمه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
در سال 2012، من یک کتاب 1200 صفحهای به نام «یادگیری ماشین: چشمانداز احتمالی» منتشر کردم که پوشش نسبتاً جامعی از حوزه یادگیری ماشین (ML) در آن زمان ارائه میکرد، زیر لنز یکپارچه مدلسازی احتمالی. این کتاب به خوبی مورد استقبال قرار گرفت و جایزه De Groot در سال 2013 را از آن خود کرد. سال 2012 همچنین به طور کلی شروع "انقلاب یادگیری عمیق" در نظر گرفته می شود. اصطلاح "یادگیری عمیق" به شاخه ای از ML اشاره دارد که بر اساس شبکه های عصبی با لایه های متعدد (از این رو اصطلاح "عمیق" است. اگرچه این فناوری پایه سالها بود که وجود داشت، اما در سال 2012 بود که [KSH12] از شبکههای عصبی عمیق (DNN) برای برنده شدن در چالش طبقهبندی تصویر ImageNet با چنین حاشیه بزرگی استفاده کرد که توجه جامعه را به خود جلب کرد. کارهای مرتبط تقریباً در همان زمان در چندین مقاله دیگر از جمله [Cir 10; Cir 11; Hin 12] ظاهر شد. این پیشرفتها با پیشرفتهای فناوری سختافزار (بهویژه، تغییر کاربری واحدهای پردازش گرافیکی سریع از بازیهای ویدیویی به ML)، فناوری جمعآوری دادهها (بهویژه، استفاده از جمعسپاری برای جمعآوری مجموعههای داده بزرگ برچسبگذاریشده مانند ImageNet)، و همچنین مختلف امکانپذیر شد. ایده های الگوریتمی جدید. از سال 2012، زمینه یادگیری عمیق با پیشرفت های جدید با سرعت فزاینده ای منفجر شده است. علاقه به این زمینه نیز به دلیل موفقیت تجاری فناوری و گستردگی کاربردهایی که می توان آن را به کار برد، افزایش یافته است. بنابراین، در سال 2018، تصمیم گرفتم ویرایش دوم کتابم را بنویسم تا سعی کنم برخی از این پیشرفت ها را خلاصه کنم. تا مارس 2020، پیش نویس ویرایش دوم من به حدود 1600 صفحه افزایش یافت و هنوز کارم تمام نشده بود. سپس همه گیری COVID-19 رخ داد. تصمیم گرفتم نوشتن کتاب را به حالت تعلیق درآورم، و به سمت کمک به پروژههای مختلف COVID-19 "محور" کنم (به عنوان مثال، [MKS21; Wah 21] را ببینید). با این حال، در پاییز، زمانی که این پروژهها کمتر از چرخههای من میگرفتند، تصمیم گرفتم کتاب را تمام کنم. برای جبران زمان از دست رفته، از چندین همکار خواستم تا به من کمک کنند تا آخرین ⇠10% از «مطالب گمشده» را به پایان برسانم. (تشکرات را در زیر ببینید.) در این بین، MIT Press به من گفت که نمی توانند یک کتاب 1600 صفحه ای منتشر کنند، و اینکه من باید آن را به دو جلد تقسیم کنم. نتیجه همه اینها دو کتاب جدید "آموزش ماشینی احتمالی: مقدمه" است که اکنون در حال خواندن آن هستید و "یادگیری ماشین احتمالی: موضوعات پیشرفته" که دنباله این کتاب است [Mur22]. این دو کتاب با هم تلاش می کنند تا پوشش نسبتاً گسترده ای از حوزه ML c را ارائه دهند. 2021، با استفاده از همان لنز یکپارچه مدلسازی احتمالی و نظریه تصمیم بیزی که در کتاب اول استفاده کردم. بیشتر محتوای کتاب اول دوباره استفاده شده است، اما اکنون به طور نسبتاً مساوی بین دو کتاب جدید تقسیم شده است. علاوه بر این، هر کتاب دارای بسیاری از مطالب جدید است که برخی از موضوعات را از یادگیری عمیق پوشش می دهد، اما همچنین پیشرفت هایی در سایر بخش ها، مانند مدل های تولیدی، استنتاج متغیر xxviii پیشگفتار و یادگیری تقویتی. برای اینکه کتاب خودکفاتر و برای دانشآموزان مفیدتر باشد، مطالب پیشزمینه دیگری نیز در موضوعاتی مانند بهینهسازی و جبر خطی اضافه کردهام که به دلیل کمبود جا از کتاب اول حذف شده است. مطالب پیشرفته را که می توان در طول دوره مقدماتی نادیده گرفت، با علامت * در عنوان بخش یا فصل نشان داده می شود. در آینده، ما امیدواریم که نمونه برنامه های درسی و اسلایدها را به صورت آنلاین ارسال کنیم. تغییر عمده دیگر این است که تقریباً همه نرم افزارها اکنون به جای Matlab از Python استفاده می کنند. (در آینده، ما امیدواریم که یک نسخه جولیا از کد داشته باشیم.) کد جدید از کتابخانههای پایتون استاندارد، مانند numpy، scipy، scikit-learn و غیره استفاده میکند. برخی از نمونهها نیز به کتابخانههای یادگیری عمیق مختلف، مانند TensorFlow، PyTorch، و JAX تکیه دارند. . علاوه بر کد ایجاد تمام شکلها، نوتبوکهای تکمیلی Jupyter برای همراهی هر فصل وجود دارد که جنبههای عملی را مورد بحث قرار میدهد که فضایی برای پوشش دادن در متن اصلی نداریم. جزئیات را میتوانید در probml.ai بیابید.تشکر میخواهم از افراد زیر تشکر کنم که به من در نوشتن بخشهای مختلف این کتاب کمک کردند: • فردریک کونستنر، سی یی منگ، آرون میشکین، شاران واسوانی و مارک اشمیت که در نوشتن بخشهایی از فصل 8 (بهینهسازی) کمک کردند. • لیهونگ لی، که به نوشتن Sec.5.3 (مشکلات راهزن *) کمک کرد. • ماتیو بلوندل، که به نوشتن Sec.13.3 (انتشار پسزمینه) کمک کرد. • روی فراستیگ، که Sec.7.8.8 (نشانگذاری مشتق تابعی *) وSec.13.3 را نوشت. 5(تمایز خودکار به شکل عملکردی *).•جاستین گیلمر، که به نوشتن Sec.14.7 کمک کرد (مثال های متخاصم *).•Krzysztof Choromanski، که به نوشتن Sec.15.6 کمک کرد (ترانسفورماتورهای کارآمد *).•Colin Raffel، که در نوشتن2Sec.19. Learning)andSec.19.3(Semi-Supervised Learning).•Bryan Perozzi، که در نوشتن Chapter23(Embeddings Graph*) کمک کرد.•Zico Kolter، که به نوشتن بخش هایی از Chapter7 (جبر خطی) کمک کرد. می خواهم از John Fearns و Peter Cerno برای دقت تشکر کنم. تصحیح کتاب، و همچنین بازخورد بسیاری از افراد دیگر، از جمله 4 داور ناشناس که توسط MIT Press درخواست شدهاند. میخواهم از محمود سلیمان برای نوشتن تمام کدهای «پشتآفیس» که لاتکس، colab، github و GCP را به هم متصل میکند، تشکر کنم. میخواهم از نویسندگان [Zha 20]، [Gér17]و[Mar18] که اجازه استفاده مجدد یا اصلاح برخی از کدهای منبع باز خود را از کتابهای عالی خودشان دادند، تشکر کنم. من همچنین میخواهم از بسیاری دیگر از اعضای انجمن github برای مشارکت در کدشان تشکر کنم (لیست کامل نامها را ببینید). در نهایت میخواهم از مدیرم در Google، داگ اک، که به من اجازه داد وقت شرکت را برای این کتاب صرف کنم و همسرم مارگارت تشکر کنم. برای اینکه به من اجازه داد تا وقت خانوادگی را نیز صرف آن کنم. امیدوارم تلاشهای من برای ترکیب همه این مواد با هم در یک مکان به شما کمک کند تا در سفر اکتشاف خود به "سرزمین ML" صرفه جویی کنید. کوین پاتریک مورفی پالو آلتو، کالیفرنیا آوریل 2021
In 2012, I published a 1200-page book called “Machine learning: a probabilistic perspective”, whichprovided a fairly comprehensive coverage of the field of machine learning (ML) at that time, underthe unifying lens of probabilistic modeling. The book was well received, and won theDe Groot prizein 2013.The year 2012 is also generally considered the start of the “deep learning revolution”. The term“deep learning” refers to a branch of ML that is based on neural networks with many layers (hencethe term “deep”). Although this basic technology had been around for many years, it was in 2012when [KSH12] used deep neural networks (DNNs) to win the ImageNet image classification challengeby such a large margin that it caught the attention of the community. Related work appeared aroundthe same time in several other papers, including [Cir+10;Cir+11;Hin+12]. These breakthroughswere enabled by advances in hardware technology (in particular, the repurposing of fast graphicsprocessing units from video games to ML), data collection technology (in particular, the use of crowdsourcing to collect large labeled datasets such as ImageNet), as well as various new algorithmic ideas.Since 2012, the field of deep learning has exploded, with new advances coming at an increasingpace. Interest in the field has also exploded, fueled by the commercial success of the technology,and the breadth of applications to which it can be applied. Therefore, in 2018, I decided to write asecond edition of my book, to attempt to summarize some of this progress.By March 2020, my draft of the second edition had swollen to about 1600 pages, and I was stillnot done. Then the COVID-19 pandemic struck. I decided to put the book writing on hold, and to“pivot” towards helping with various COVID-19 projects (see e.g., [MKS21;Wah+21]). However, inthe Fall, when these projects were taking less of my cycles, I decided to try to finish the book. Tomake up for lost time, I asked several colleagues to help me finish the last⇠10%of “missing content”.(See acknowledgements below.)In the meantime, MIT Press told me they could not publish a 1600 page book, and that I wouldneed to split it into two volumes. The result of all this is two new books, “Probabilistic MachineLearning: An Introduction”, which you are currently reading, and “Probabilistic Machine Learning:Advanced Topics”, which is the sequel to this book [Mur22]. Together these two books attempt topresent a fairly broad coverage of the field of ML c. 2021, using the same unifying lens of probabilisticmodeling and Bayesian decision theory that I used in the first book.Most of the content from the first book has been reused, but it is now split fairly evenly betweenthe two new books. In addition, each book has lots of new material, covering some topics from deeplearning, but also advances in other parts of the field, such as generative models, variational inference xxviiiPrefaceand reinforcement learning. To make the book more self-contained and useful for students, I havealso added some more background content, on topics such as optimization and linear algebra, thatwas omitted from the first book due to lack of space. Advanced material, that can be skipped duringan introductory level course, is denoted by an asterisk * in the section or chapter title. In the future,we hope to post sample syllabuses and slides online.Another major change is that nearly all of the software now uses Python instead of Matlab. (Inthe future, we hope to have a Julia version of the code.) The new code leverages standard Pythonlibraries, such as numpy, scipy, scikit-learn, etc. Some examples also rely on various deep learninglibraries, such asTensorFlow,PyTorch,andJAX. In addition to the code to create all the figures,there are supplementary Jupyter notebooks to accompany each chapter, which discuss practicalaspects that we don’t have space to cover in the main text. Details can be found atprobml.ai.AcknowledgementsI would like to thank the following people for helping me to write various parts of this book:•Frederik Kunstner, Si Yi Meng, Aaron Mishkin, Sharan Vaswani, and Mark Schmidt who helpedwrite parts ofChapter8(Optimization).•Lihong Li, who helped writeSec.5.3(Bandit problems *).•Mathieu Blondel, who helped writeSec.13.3(Backpropagation).•Roy Frostig, who wroteSec.7.8.8(Functional derivative notation *)andSec.13.3.5(Automaticdifferentiation in functional form *).•Justin Gilmer, who helped writeSec.14.7(Adversarial Examples *).•Krzysztof Choromanski, who helped writeSec.15.6(Efficient transformers *).•Colin Raffel, who helped writeSec.19.2(Transfer learning)andSec.19.3(Semi-supervisedlearning).•Bryan Perozzi, who helped writeChapter23(Graph embeddings *).•Zico Kolter, who helped write parts ofChapter7(Linear algebra).I would like to thank John Fearns and Peter Cerno for carefully proofreading the book, as well asfeedback from many other people, including 4 anonymous reviewers solicited by MIT Press.I would like to thank Mahmoud Soliman for writing all the “back-office” code, that connects latex,colab, github and GCP. I would like to thank the authors of [Zha+20], [Gér17]and[Mar18]forlettingme reuse or modify some of their open source code from their own excellent books. I would also liketo thank many other members of the github community for their code contrbutions (see thefull listof names).Finally I would like to thank my manager at Google, Doug Eck, for letting me spend companytime on this book, and my wife Margaret for letting me spend family time on it, too. I hope myefforts to synthesize all this material together in one place will help to save you time in your journeyof discovery into the “land of ML”.Kevin Patrick MurphyPalo Alto, CaliforniaApril 2021