دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: کامپیوتر ویرایش: نویسندگان: Tanay Agrawal سری: ISBN (شابک) : 9781484265789, 9781484265796 ناشر: Apress سال نشر: 2020 تعداد صفحات: 177 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 3 مگابایت
در صورت تبدیل فایل کتاب Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب بهینه سازی ابر پارامتر در یادگیری ماشین: مدل های یادگیری ماشین و یادگیری عمیق خود را کارآمدتر کنید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
در تنظیم هایپرپارامتر مدل های یادگیری ماشین غوطه ور شوید و روی این که فراپارامترها چیست و چگونه کار می کنند تمرکز کنید. این کتاب تکنیکهای مختلف تنظیم فراپارامترها، از اصول اولیه تا روشهای پیشرفته را مورد بحث قرار میدهد. این یک راهنمای گام به گام برای بهینهسازی هایپرپارامتر است، که از چیستی فراپارامترها و نحوه تأثیر آنها بر جنبههای مختلف مدلهای یادگیری ماشین شروع میشود. سپس از طریق برخی از الگوریتمهای اولیه (بروت فورس) بهینهسازی هایپرپارامتر میگذرد. علاوه بر این، نویسنده با استفاده از روشهای بهینهسازی توزیع شده، به مشکل محدودیتهای زمان و حافظه میپردازد. در ادامه در مورد بهینه سازی بیزی برای جستجوی فراپارامتر بحث خواهید کرد که از تاریخچه قبلی خود درس می گیرد. این کتاب چارچوبهای مختلفی مانند Hyperopt و Optuna را مورد بحث قرار میدهد که الگوریتمهای بهینهسازی جهانی مبتنی بر مدل متوالی (SMBO) را پیادهسازی میکند. در طول این بحث ها، شما بر جنبه های مختلفی مانند ایجاد فضاهای جستجو و بهینه سازی توزیع شده این کتابخانه ها تمرکز خواهید کرد. بهینهسازی فراپارامتر در یادگیری ماشین، درک درستی از نحوه کار این الگوریتمها و نحوه استفاده از آنها در مسائل علم داده واقعی ایجاد میکند. فصل آخر نقش بهینه سازی هایپرپارامتر در یادگیری ماشین خودکار را خلاصه می کند و با آموزش ایجاد اسکریپت AutoML خود به پایان می رسد. بهینه سازی هایپرپارامتر کاری خسته کننده است، پس بنشینید و اجازه دهید این الگوریتم ها کار شما را انجام دهند. آنچه شما یاد خواهید گرفت کشف کنید که چگونه تغییرات در فراپارامترها بر عملکرد مدل تأثیر می گذارد. استفاده از الگوریتم های مختلف تنظیم فراپارامتر برای مسائل علم داده برای ایجاد یادگیری ماشینی کارآمد و مدلهای یادگیری عمیق، با روشهای بهینهسازی بیزی کار کنید توزیع بهینه سازی هایپرپارامتر با استفاده از خوشه ای از ماشین ها با استفاده از بهینه سازی هایپرپارامتر به یادگیری ماشین خودکار نزدیک شوید این کتاب برای چه کسی است متخصصان و دانشجویانی که با یادگیری ماشین کار می کنند.
Dive into hyperparameter tuning of machine learning models and focus on what hyperparameters are and how they work. This book discusses different techniques of hyperparameters tuning, from the basics to advanced methods. This is a step-by-step guide to hyperparameter optimization, starting with what hyperparameters are and how they affect different aspects of machine learning models. It then goes through some basic (brute force) algorithms of hyperparameter optimization. Further, the author addresses the problem of time and memory constraints, using distributed optimization methods. Next you’ll discuss Bayesian optimization for hyperparameter search, which learns from its previous history. The book discusses different frameworks, such as Hyperopt and Optuna, which implements sequential model-based global optimization (SMBO) algorithms. During these discussions, you’ll focus on different aspects such as creation of search spaces and distributed optimization of these libraries. Hyperparameter Optimization in Machine Learning creates an understanding of how these algorithms work and how you can use them in real-life data science problems. The final chapter summaries the role of hyperparameter optimization in automated machine learning and ends with a tutorial to create your own AutoML script. Hyperparameter optimization is tedious task, so sit back and let these algorithms do your work. What You Will Learn Discover how changes in hyperparameters affect the model’s performance. Apply different hyperparameter tuning algorithms to data science problems Work with Bayesian optimization methods to create efficient machine learning and deep learning models Distribute hyperparameter optimization using a cluster of machines Approach automated machine learning using hyperparameter optimization Who This Book Is For Professionals and students working with machine learning.
Table of Contents About the Author About the Technical Reviewer Acknowledgments Foreword 1 Foreword 2 Introduction Chapter 1: Introduction to Hyperparameters Introduction to Machine Learning Understanding Hyperparameters The Need for Hyperparameter Optimization Algorithms and Their Hyperparameters K-Nearest Neighbor Support Vector Machine Decision Tree Neural Networks Distribution of Possible Hyperparameter Values Discrete Variables Continuous Variables Probabilistic Distributions Uniform Distribution Gaussian Distribution Exponential Distribution Chapter 2: Hyperparameter Optimization Using Scikit-Learn Changing Hyperparameters Grid Search Random Search Parallel Hyperparameter Optimization Chapter 3: Solving Time and Memory Constraints Dask Dask Distributed Parallel Collections Dynamic Task Scheduling Hyperparameter Optimization with Dask Dask Random Search and Grid Search Incremental Search Successive Halving Search Hyperband Search Distributing Deep Learning Models PyTorch Distributed Horovod Chapter 4: Bayesian Optimization Sequential Model-Based Global Optimization Tree-Structured Parzen Estimator Hyperopt Search Space Parallelizing Trials in TPE Hyperopt-Sklearn Hyperas Chapter 5: Optuna and AutoML Optuna Search Space Underlying Algorithms Visualization Distributed Optimization Automated Machine Learning Building Your Own AutoML Module TPOT Appendix I Data Cleaning and Preprocessing Dealing with Nonnumerical Columns Label Encoding One-Hot Encoding Missing Values Drop the Rows Mean/Median or Most Frequent/Constant Imputation Using Regression or Classification Multivariate Imputation by Chained Equations1 Outlier Detection Z-score Density-Based Spatial Clustering of Applications with Noise Feature Selection F-Test Mutual Information Test Recursive Feature Selection Applying the Techniques Applying Machine Learning Algorithms Model Evaluation Methods Appendix II: Neural Networks: A Brief Introduction to PyTorch and Keras API Index