ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

دانلود کتاب بهینه سازی ابر پارامتر در یادگیری ماشین: مدل های یادگیری ماشین و یادگیری عمیق خود را کارآمدتر کنید

Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

مشخصات کتاب

Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

دسته بندی: کامپیوتر
ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9781484265789, 9781484265796 
ناشر: Apress 
سال نشر: 2020 
تعداد صفحات: 177 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 مگابایت 

قیمت کتاب (تومان) : 33,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب بهینه سازی ابر پارامتر در یادگیری ماشین: مدل های یادگیری ماشین و یادگیری عمیق خود را کارآمدتر کنید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب بهینه سازی ابر پارامتر در یادگیری ماشین: مدل های یادگیری ماشین و یادگیری عمیق خود را کارآمدتر کنید

در تنظیم هایپرپارامتر مدل های یادگیری ماشین غوطه ور شوید و روی این که فراپارامترها چیست و چگونه کار می کنند تمرکز کنید. این کتاب تکنیک‌های مختلف تنظیم فراپارامترها، از اصول اولیه تا روش‌های پیشرفته را مورد بحث قرار می‌دهد. این یک راهنمای گام به گام برای بهینه‌سازی هایپرپارامتر است، که از چیستی فراپارامترها و نحوه تأثیر آنها بر جنبه‌های مختلف مدل‌های یادگیری ماشین شروع می‌شود. سپس از طریق برخی از الگوریتم‌های اولیه (بروت فورس) بهینه‌سازی هایپرپارامتر می‌گذرد. علاوه بر این، نویسنده با استفاده از روش‌های بهینه‌سازی توزیع شده، به مشکل محدودیت‌های زمان و حافظه می‌پردازد. در ادامه در مورد بهینه سازی بیزی برای جستجوی فراپارامتر بحث خواهید کرد که از تاریخچه قبلی خود درس می گیرد. این کتاب چارچوب‌های مختلفی مانند Hyperopt و Optuna را مورد بحث قرار می‌دهد که الگوریتم‌های بهینه‌سازی جهانی مبتنی بر مدل متوالی (SMBO) را پیاده‌سازی می‌کند. در طول این بحث ها، شما بر جنبه های مختلفی مانند ایجاد فضاهای جستجو و بهینه سازی توزیع شده این کتابخانه ها تمرکز خواهید کرد. بهینه‌سازی فراپارامتر در یادگیری ماشین، درک درستی از نحوه کار این الگوریتم‌ها و نحوه استفاده از آنها در مسائل علم داده واقعی ایجاد می‌کند. فصل آخر نقش بهینه سازی هایپرپارامتر در یادگیری ماشین خودکار را خلاصه می کند و با آموزش ایجاد اسکریپت AutoML خود به پایان می رسد. بهینه سازی هایپرپارامتر کاری خسته کننده است، پس بنشینید و اجازه دهید این الگوریتم ها کار شما را انجام دهند. آنچه شما یاد خواهید گرفت کشف کنید که چگونه تغییرات در فراپارامترها بر عملکرد مدل تأثیر می گذارد. استفاده از الگوریتم های مختلف تنظیم فراپارامتر برای مسائل علم داده برای ایجاد یادگیری ماشینی کارآمد و مدل‌های یادگیری عمیق، با روش‌های بهینه‌سازی بیزی کار کنید توزیع بهینه سازی هایپرپارامتر با استفاده از خوشه ای از ماشین ها با استفاده از بهینه سازی هایپرپارامتر به یادگیری ماشین خودکار نزدیک شوید این کتاب برای چه کسی است متخصصان و دانشجویانی که با یادگیری ماشین کار می کنند.


توضیحاتی درمورد کتاب به خارجی

Dive into hyperparameter tuning of machine learning models and focus on what hyperparameters are and how they work. This book discusses different techniques of hyperparameters tuning, from the basics to advanced methods. This is a step-by-step guide to hyperparameter optimization, starting with what hyperparameters are and how they affect different aspects of machine learning models. It then goes through some basic (brute force) algorithms of hyperparameter optimization. Further, the author addresses the problem of time and memory constraints, using distributed optimization methods. Next you’ll discuss Bayesian optimization for hyperparameter search, which learns from its previous history. The book discusses different frameworks, such as Hyperopt and Optuna, which implements sequential model-based global optimization (SMBO) algorithms. During these discussions, you’ll focus on different aspects such as creation of search spaces and distributed optimization of these libraries. Hyperparameter Optimization in Machine Learning creates an understanding of how these algorithms work and how you can use them in real-life data science problems. The final chapter summaries the role of hyperparameter optimization in automated machine learning and ends with a tutorial to create your own AutoML script. Hyperparameter optimization is tedious task, so sit back and let these algorithms do your work. What You Will Learn Discover how changes in hyperparameters affect the model’s performance. Apply different hyperparameter tuning algorithms to data science problems Work with Bayesian optimization methods to create efficient machine learning and deep learning models Distribute hyperparameter optimization using a cluster of machines Approach automated machine learning using hyperparameter optimization Who This Book Is For Professionals and students working with machine learning.



فهرست مطالب

Table of Contents
About the Author
About the Technical Reviewer
Acknowledgments
Foreword 1
Foreword 2
Introduction
Chapter 1: Introduction to Hyperparameters
	Introduction to Machine Learning
	Understanding Hyperparameters
	The Need for Hyperparameter Optimization
	Algorithms and Their Hyperparameters
		K-Nearest Neighbor
		Support Vector Machine
		Decision Tree
		Neural Networks
	Distribution of Possible Hyperparameter Values
		Discrete Variables
		Continuous Variables
		Probabilistic Distributions
			Uniform Distribution
			Gaussian Distribution
			Exponential Distribution
Chapter 2: Hyperparameter Optimization Using Scikit-Learn
	Changing Hyperparameters
	Grid Search
	Random Search
	Parallel Hyperparameter Optimization
Chapter 3: Solving Time and Memory Constraints
	Dask
		Dask Distributed
		Parallel Collections
		Dynamic Task Scheduling
		Hyperparameter Optimization with Dask
			Dask Random Search and Grid Search
			Incremental Search
			Successive Halving Search
			Hyperband Search
	Distributing Deep Learning Models
		PyTorch Distributed
		Horovod
Chapter 4: Bayesian Optimization
	Sequential Model-Based Global Optimization
	Tree-Structured Parzen Estimator
	Hyperopt
		Search Space
		Parallelizing Trials in TPE
	Hyperopt-Sklearn
	Hyperas
Chapter 5: Optuna and AutoML
	Optuna
		Search Space
		Underlying Algorithms
		Visualization
		Distributed Optimization
	Automated Machine Learning
		Building Your Own AutoML Module
		TPOT
Appendix I
	Data Cleaning and Preprocessing
		Dealing with Nonnumerical Columns
			Label Encoding
			One-Hot Encoding
		Missing Values
			Drop the Rows
			Mean/Median or Most Frequent/Constant
			Imputation Using Regression or Classification
			Multivariate Imputation by Chained Equations1
		Outlier Detection
			Z-score
			Density-Based Spatial Clustering of Applications with Noise
		Feature Selection
			F-Test
			Mutual Information Test
			Recursive Feature Selection
		Applying the Techniques
	Applying Machine Learning Algorithms
	Model Evaluation Methods
Appendix II:
Neural Networks: A Brief Introduction to PyTorch and Keras API
Index




نظرات کاربران