دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1st ed. 2023] نویسندگان: Eva Bartz, Thomas Bartz-Beielstein, Martin Zaefferer, Olaf Mersmann سری: ISBN (شابک) : 9811951691, 9789811951695 ناشر: Springer سال نشر: 2023 تعداد صفحات: 340 [327] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 Mb
در صورت تبدیل فایل کتاب Hyperparameter Tuning for Machine and Deep Learning with R: A Practical Guide به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تنظیم فراپارامتر برای یادگیری ماشینی و عمیق با R: راهنمای عملی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب دسترسی آزاد تعداد زیادی مثال کاربردی ارائه میکند که نشان میدهد چگونه تنظیم فراپارامتر را میتوان در عمل اعمال کرد و بینش عمیقی در مورد مکانیسمهای کار روشهای یادگیری ماشین (ML) و یادگیری عمیق (DL) ارائه میدهد. هدف کتاب تجهیز خوانندگان به توانایی دستیابی به نتایج بهتر با زمان، هزینه، تلاش و منابع بسیار کمتر با استفاده از روشهایی است که در اینجا توضیح داده شده است. مطالعات موردی ارائه شده در این کتاب را می توان بر روی یک کامپیوتر رومیزی یا نوت بوک معمولی اجرا کرد. هیچ امکانات محاسباتی با کارایی بالا مورد نیاز نیست.
ایده کتاب در مطالعهای که توسط Bartz & Bartz GmbH برای اداره آمار فدرال آلمان (Destatis) انجام شد، سرچشمه گرفت. بر اساس آن مطالعه، کتاب خطاب به شاغلان در صنعت و همچنین محققان، معلمان و دانش آموزان در دانشگاه است. محتوا بر تنظیم فراپارامتر الگوریتمهای ML و DL تمرکز دارد و به دو بخش اصلی تقسیم میشود: تئوری (بخش اول) و کاربرد (بخش دوم). موضوعات ضروری تحت پوشش عبارتند از: بررسی پارامترهای مدل مهم. چهار مطالعه تنظیم پارامتر و یک مطالعه گسترده تنظیم پارامتر جهانی. تجزیه و تحلیل آماری از عملکرد روش های ML و DL بر اساس شدت. و روشی جدید و مبتنی بر رتبهبندی اجماع برای تجمیع و تجزیه و تحلیل نتایج از الگوریتمهای متعدد. این کتاب تجزیه و تحلیل بیش از 30 فراپارامتر از شش روش مرتبط ML و DL را ارائه میکند و کد منبع را ارائه میدهد تا کاربران بتوانند نتایج را تولید کنند. بر این اساس، به عنوان کتاب راهنما و کتاب درسی به طور یکسان عمل می کند.
This open access book provides a wealth of hands-on examples that illustrate how hyperparameter tuning can be applied in practice and gives deep insights into the working mechanisms of machine learning (ML) and deep learning (DL) methods. The aim of the book is to equip readers with the ability to achieve better results with significantly less time, costs, effort and resources using the methods described here. The case studies presented in this book can be run on a regular desktop or notebook computer. No high-performance computing facilities are required.
The idea for the book originated in a study conducted by Bartz & Bartz GmbH for the Federal Statistical Office of Germany (Destatis). Building on that study, the book is addressed to practitioners in industry as well as researchers, teachers and students in academia. The content focuses on the hyperparameter tuning of ML and DL algorithms, and is divided into two main parts: theory (Part I) and application (Part II). Essential topics covered include: a survey of important model parameters; four parameter tuning studies and one extensive global parameter tuning study; statistical analysis of the performance of ML and DL methods based on severity; and a new, consensus-ranking-based way to aggregate and analyze results from multiple algorithms. The book presents analyses of more than 30 hyperparameters from six relevant ML and DL methods, and provides source code so that users can reproduce the results. Accordingly, it serves as a handbook and textbook alike.
Foreword Contents Contributors Abbreviations 1 Introduction Part I Theory 2 Tuning: Methodology 2.1 Introduction to Hyperparameter Tuning 2.2 Performance Measures for Hyperparameter Tuning 2.2.1 Metrics 2.2.2 Performance Measures 2.2.3 Measures for Classification 2.2.4 Measures for Regression 2.3 Hyperparameter Tuning 2.4 Model Selection and Assessment 2.5 Tunability and Complexity 2.6 The Basic HPT Process 2.7 Practical Considerations 2.7.1 Some Thoughts on Cross Validation 2.7.2 Replicability and Stochasticity 2.7.3 Implementation in R 3 Models 3.1 Methods and Hyperparameters 3.2 k-Nearest Neighbor 3.2.1 Description 3.2.2 Hyperparameters of k-Nearest Neighbor 3.3 Regularized Regression (Elastic Net) 3.3.1 Description 3.3.2 Hyperparameters of Elastic Net 3.4 Decision Trees 3.4.1 Description 3.4.2 Hyperparameters of Decision Trees 3.5 Random Forest 3.5.1 Description 3.5.2 Hyperparameters of Random Forests 3.6 Gradient Boosting (xgboost) 3.6.1 Description 3.6.2 Hyperparameters of Gradient Boosting 3.7 Support Vector Machines 3.7.1 Description 3.7.2 Hyperparameters of the SVM 3.8 Deep Neural Networks 3.8.1 Description 3.8.2 Hyperparameters of Deep Neural Networks 3.9 Summary and Discussion 4 Hyperparameter Tuning Approaches 4.1 Hyperparameter Tuning: Approaches and Goals 4.2 Special Case: Monotonous Hyperparameters 4.3 Model-Free Search 4.3.1 Manual Search 4.3.2 Undirected Search 4.3.3 Directed Search 4.4 Model-Based Search 4.5 Sequential Parameter Optimization Toolbox 4.5.1 spot as an Optimizer 4.5.2 spot's Initial Phase 4.5.3 The Function spotLoop 4.5.4 Entering the Main Loop 4.5.5 Final Steps 4.6 Kriging 4.6.1 The Kriging Model 4.6.2 Kriging Prediction 4.6.3 Expected Improvement 4.6.4 Infill Criteria with Noisy Data 4.6.5 spot's Workhorse: Kriging 4.6.6 krigingLikelihood 4.6.7 Predictions 4.7 Program Code 5 Ranking and Result Aggregation 5.1 Comparing Algorithms 5.2 Ranking 5.3 Rank Aggregation 5.4 Result Analysis 5.5 Statistical Inference 5.6 Definitions 5.6.1 Hypothesis Testing 5.6.2 Power 5.6.3 p-Value 5.6.4 Effect Size 5.6.5 Sample Size Determination and Power Calculations 5.6.6 Issues 5.7 Severity 5.7.1 Motivation 5.7.2 Severity: Definition 5.7.3 Two Examples 5.7.4 Discussion of the 80% Threshold 5.7.5 A Comment on the Normality Assumption 5.8 Severity: Application in Benchmarking 5.8.1 Experiment I: Rosenbrock 5.8.2 Experiment II: Freudenstein-Roth 5.8.3 Experiment III: Powell's Badly Scaled Test Function 5.9 Summary and Discussion Part II Applications 6 Hyperparameter Tuning and Optimization Applications 6.1 Surrogate Optimization 6.2 Hyperparameter Tuning in Machine and Deep Learning 6.3 HPT Software Tools 6.4 Summary and Discussion 7 Hyperparameter Tuning in German Official Statistics 7.1 Official Statistics 7.2 Machine Learning in Official Statistics 7.3 Challenges in Tuning for the Federal Statistical Office 7.4 Dealing with the Challenges 8 Case Study I: Tuning Random Forest (Ranger) 8.1 Introduction 8.2 Data Description 8.2.1 The Census Data Set 8.2.2 getDataCensus: Getting the Data from OML 8.3 Experimental Setup and Configuration of the Random Forest Model 8.3.1 getMlConfig: Configuration of the ML Models 8.3.2 Implementation Details: getMlConfig 8.4 Objective Function (Model Performance) 8.4.1 Performance Measures 8.4.2 Handling Errors 8.4.3 Imputation of Missing Data 8.4.4 getObjf: The Objective Function 8.5 spot: Experimental Setup for the Hyperparameter Tuner 8.6 Tunability 8.6.1 Progress 8.6.2 evalParamCensus: Comparing Default and Tuned Parameters on Test Data 8.7 Analyzing the Random Forest Tuning Process 8.8 Severity: Validating the Results 8.9 Summary and Discussion 8.10 Program Code 9 Case Study II: Tuning of Gradient Boosting (xgboost) 9.1 Introduction 9.2 Data Description 9.3 getMlConfig: Experimental Setup and Configuration of the Gradient Boosting Model 9.3.1 getMlrTask: Problem Design and Definition of the Machine Learning Task 9.3.2 getModelConf Algorithm Design—Hyperparameters of the Models 9.3.3 getMlrResample: Training and Test Data 9.4 Objective Function (Model Performance) 9.5 spot: Experimental Setup for the Hyperparameter Tuner 9.6 Tunability 9.6.1 Progress 9.6.2 evalParamCensus: Comparing Default and Tuned Parameters on Test Data 9.7 Analyzing the Gradient Boosting Tuning Process 9.8 Severity: Validating the Results 9.9 Summary and Discussion 9.10 Program Code 10 Case Study III: Tuning of Deep Neural Networks 10.1 Introduction 10.2 Data Description 10.2.1 getDataCensus: Getting the Data from OpenML 10.2.2 getGenericTrainValTestData: Split Data in Train, Validation, and Test Data 10.2.3 genericDataPrep: Spec 10.3 Experimental Setup and Configuration of the Deep Learning Models 10.3.1 getKerasConf: keras and Tensorflow Configuration 10.3.2 getModelConf: DL Hyperparameters 10.3.3 The Neural Network 10.4 funKerasGeneric: The Objective Function 10.5 spot: Experimental Setup for the Hyperparameter Tuner 10.6 Tunability 10.6.1 Progress 10.6.2 evalParamCensus: Comparing Default and Tuned Parameters on Test Data 10.7 Analysing the Deep Learning Tuning Process 10.8 Severity: Validating the Results 10.9 Summary and Discussion 10.10 Program Code 11 Case Study IV: Tuned Reinforcement Learning (in Python) 11.1 Introduction 11.2 Materials and Methods 11.2.1 Software 11.2.2 Task Environment: Inverted Pendulum 11.2.3 Learning Algorithm 11.3 Setting up the Tuning Experiment 11.3.1 File: run.py 11.3.2 Tuned Parameters 11.3.3 Further Configuration of SPOT 11.3.4 Post-processing and Validating the Results 11.4 Results 11.5 Severity: Validating the Results 11.6 Summary and Discussion 12 Global Study: Influence of Tuning 12.1 Introduction 12.2 Research Questions 12.3 Setup 12.3.1 Model Configuration 12.3.2 Runtime For the Global Study 12.3.3 Benchmark of Runtime 12.3.4 Defaults and Replications 12.4 Results 12.5 Discussion 12.5.1 Rank-Analysis 12.5.2 Rank-Analysis: Classification 12.5.3 Rank-Analysis: Regression 12.5.4 Problem Analysis: Difficulty 12.6 Summary and Discussion Appendix Software Installations A.1 Installing SPOT and SPOTMisc A.2 Installing Python A.2.1 Create and Activate a Python Environment in the Project A.2.2 Install Python Packages in the Environment A.2.3 Install and Configure Reticulate to Use the Correct Python Version A.3 Installing Keras A.4 Installing SPOT A.5 Installation on ARM Macs Appendix References Index