دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Stephen J. Wright, Benjamin Recht سری: ISBN (شابک) : 1316518981, 9781316518984 ناشر: Cambridge University Press سال نشر: 2022 تعداد صفحات: 238 [239] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 Mb
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Optimization for Data Analysis به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب بهینه سازی برای تجزیه و تحلیل داده ها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
تکنیکهای بهینهسازی در هسته علم داده قرار دارند، از جمله تجزیه و تحلیل دادهها و یادگیری ماشین. درک تکنیکهای بهینهسازی اولیه و ویژگیهای اساسی آنها زمینههای مهمی را برای دانشجویان، محققان و شاغلین در این زمینهها فراهم میکند. این متن اصول الگوریتمهای بهینهسازی را به روشی فشرده و مستقل پوشش میدهد و بر تکنیکهای مرتبط با علم داده تمرکز دارد. یک فصل مقدماتی نشان می دهد که بسیاری از مسائل استاندارد در علم داده را می توان به عنوان مسائل بهینه سازی فرموله کرد. در مرحله بعد، بسیاری از روشهای اساسی در بهینهسازی توصیف و تحلیل میشوند، از جمله: روشهای گرادیان و شیب شتابدار برای بهینهسازی نامحدود توابع صاف (بهویژه محدب). روش گرادیان تصادفی، یک الگوریتم اسب کاری در یادگیری ماشین. رویکرد نزول مختصات؛ چندین الگوریتم کلیدی برای مسائل بهینه سازی محدود. الگوریتم هایی برای به حداقل رساندن توابع غیرهموار ناشی از علم داده. مبانی تحلیل توابع غیرهموار و دوگانگی بهینه سازی. و رویکرد انتشار معکوس، مربوط به شبکه های عصبی.
Optimization techniques are at the core of data science, including data analysis and machine learning. An understanding of basic optimization techniques and their fundamental properties provides important grounding for students, researchers, and practitioners in these areas. This text covers the fundamentals of optimization algorithms in a compact, self-contained way, focusing on the techniques most relevant to data science. An introductory chapter demonstrates that many standard problems in data science can be formulated as optimization problems. Next, many fundamental methods in optimization are described and analyzed, including: gradient and accelerated gradient methods for unconstrained optimization of smooth (especially convex) functions; the stochastic gradient method, a workhorse algorithm in machine learning; the coordinate descent approach; several key algorithms for constrained optimization problems; algorithms for minimizing nonsmooth functions arising in data science; foundations of the analysis of nonsmooth functions and optimization duality; and the back-propagation approach, relevant to neural networks.