دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Alok Kumar. Mayank Jain
سری:
ISBN (شابک) : 1484259394, 9781484259399
ناشر: Apress
سال نشر: 2020
تعداد صفحات: 146
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 3 مگابایت
در صورت تبدیل فایل کتاب Ensemble Learning for Ai Developers: Learn Bagging, Stacking, and Boosting Methods With Use Cases به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب آموزش گروهی برای توسعه دهندگان هوش مصنوعی: روش های بسته بندی، انباشتن و تقویت را با موارد استفاده بیاموزید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
آنچه یاد خواهید گرفت
< p>
دانشمندان داده و مهندسان یادگیری ماشین مشتاق کاوش در یادگیری گروهی هستند
What You Will Learn
Who This Book Is For
Data scientists and machine learning engineers keen on exploring ensemble learning
Table of Contents About the Authors About the Technical Reviewer Acknowledgments Introduction Chapter 1: Why Ensemble Techniques Are Needed Mixing Training Data Mixing Combinations Mixing Models Summary Chapter 2: Mixing Training Data Decision Trees Sampling a Dataset Sampling Without Replacement (WOR) Sampling with Replacement (WR) Bagging (Bootstrap Aggregating) k-Fold Cross-Validation Stratified k-Fold Cross-Validation Summary Chapter 3: Mixing Models Voting Ensembles Hard Voting Averaging/Soft Voting Hyperparameter Tuning Ensembles Horizontal Voting Ensembles Snapshot Ensembles Summary Chapter 4: Mixing Combinations Boosting AdaBoost Gradient Boosting XGBoost Stacking Summary Chapter 5: Using Ensemble Learning Libraries ML-Ensemble Multilayer Ensembles Ensemble Model Selection The Scoring Function Evaluator Preprocessing Summary Scale XGBoost via Dask Dask Arrays and Dataframes Dask-ML Scaling XGBoost Microsoft LightGBM Why LightGBM Architecture Is Best Growing the Tree Finding the Best Split Histogram-based Methods Treating Missing Values Gradient-based One-Side Sampling Exclusive Feature Bundling Parameters LightGBM in Python Code AdaNet Summary Chapter 6: Tips and Best Practices Feature Selection Using Random Forests Feature Transformations with Ensembles of Trees Building a Preprocessing Pipeline for a Random Forest Classifier Isolation Forest for Outlier Detection Scaling Ensembles with Dask Preprocessing Hyperparameter Search Drop-in Replacement for scikit-learn Incremental Hyperparameter Optimization Distributed Ensemble Fitting Summary Thank You Index