ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Ensemble Learning for Ai Developers: Learn Bagging, Stacking, and Boosting Methods With Use Cases

دانلود کتاب آموزش گروهی برای توسعه دهندگان هوش مصنوعی: روش های بسته بندی، انباشتن و تقویت را با موارد استفاده بیاموزید

Ensemble Learning for Ai Developers: Learn Bagging, Stacking, and Boosting Methods With Use Cases

مشخصات کتاب

Ensemble Learning for Ai Developers: Learn Bagging, Stacking, and Boosting Methods With Use Cases

ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 1484259394, 9781484259399 
ناشر: Apress 
سال نشر: 2020 
تعداد صفحات: 146 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 مگابایت 

قیمت کتاب (تومان) : 43,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 13


در صورت تبدیل فایل کتاب Ensemble Learning for Ai Developers: Learn Bagging, Stacking, and Boosting Methods With Use Cases به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب آموزش گروهی برای توسعه دهندگان هوش مصنوعی: روش های بسته بندی، انباشتن و تقویت را با موارد استفاده بیاموزید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب آموزش گروهی برای توسعه دهندگان هوش مصنوعی: روش های بسته بندی، انباشتن و تقویت را با موارد استفاده بیاموزید

از تکنیک‌ها و مدل‌های یادگیری گروهی برای بهبود نتایج یادگیری ماشینی خود استفاده کنید.

Ensemble Learning برای توسعه‌دهندگان هوش مصنوعی شما را در شروع با مروری تاریخی است و تکنیک های کلیدی مجموعه و چرایی نیاز آنها را توضیح می دهد. سپس یاد خواهید گرفت که چگونه داده‌های آموزشی را با استفاده از بسته‌بندی، جمع‌آوری بوت استرپ، مدل‌های جنگل تصادفی و روش‌های اعتبارسنجی متقابل تغییر دهید. نویسندگان کومار و جین بهترین شیوه‌ها را برای راهنمایی شما در ترکیب مدل‌ها و استفاده از ابزارها برای افزایش عملکرد پروژه‌های یادگیری ماشین ارائه می‌کنند. آنها به شما می آموزند که چگونه به طور مؤثر مفاهیم گروهی مانند stacking و boosting را پیاده سازی کنید و از کتابخانه های محبوب مانند Keras، Scikit Learn، TensorFlow، PyTorch و Microsoft LightGBM استفاده کنید. نکاتی برای اعمال یادگیری گروهی در مسائل مختلف علوم داده، از جمله داده‌های سری زمانی، داده‌های تصویربرداری و NLP ارائه شده است. پیشرفت های اخیر در یادگیری گروهی مورد بحث قرار گرفته است. کد نمونه در قالب اسکریپت و نوت بوک IPython ارائه شده است.

آنچه یاد خواهید گرفت

< p>
  • تکنیک‌ها و روش‌های مورد استفاده در یادگیری گروهی را درک کنید
  • برای بهبود عملکرد پروژه‌های یادگیری ماشینی خود با ترکیب مدل‌ها برای کاهش واریانس، از بسته‌بندی، چیدن و تقویت استفاده کنید. بهبود پیش‌بینی‌ها و کاهش تعصب
  • با یادگیری گروهی معماری یادگیری ماشین خود را تقویت کنید


< p>این کتاب برای چه کسی است

دانشمندان داده و مهندسان یادگیری ماشین مشتاق کاوش در یادگیری گروهی هستند


توضیحاتی درمورد کتاب به خارجی

Use ensemble learning techniques and models to improve your machine learning results.

Ensemble Learning for AI Developers&nbsp;starts you at the beginning with an historical overview and explains key ensemble techniques and why they are needed. You then will learn how to change training data using bagging, bootstrap aggregating, random forest models, and cross-validation methods. Authors Kumar and Jain provide best practices to guide you in combining models and using tools to boost performance of your machine learning projects. They teach you how to effectively implement ensemble concepts such as stacking and boosting and to utilize popular libraries such as Keras, Scikit Learn, TensorFlow, PyTorch, and Microsoft LightGBM. Tips are presented to apply ensemble learning in different data science problems, including time series data, imaging data, and NLP. Recent advances in ensemble learning are discussed. Sample code is provided in the form of scripts and the IPython notebook.

What You Will Learn

  • Understand the techniques and methods utilized in ensemble learning
  • Use bagging, stacking, and boosting to improve performance of your machine learning projects by combining models to decrease variance, improve predictions, and reduce bias
  • Enhance your machine learning architecture with ensemble learning


Who This Book Is For

Data scientists and machine learning engineers keen on exploring ensemble learning



فهرست مطالب

Table of Contents
About the Authors
About the Technical Reviewer
Acknowledgments
Introduction
Chapter 1: Why Ensemble Techniques Are Needed
	Mixing Training Data
	Mixing Combinations
	Mixing Models
	Summary
Chapter 2: Mixing Training Data
	Decision Trees
	Sampling a Dataset
		Sampling Without Replacement (WOR)
		Sampling with Replacement (WR)
	Bagging (Bootstrap Aggregating)
		k-Fold Cross-Validation
	Stratified k-Fold Cross-Validation
	Summary
Chapter 3: Mixing Models
	Voting Ensembles
		Hard Voting
		Averaging/Soft Voting
		Hyperparameter Tuning Ensembles
		Horizontal Voting Ensembles
		Snapshot Ensembles
	Summary
Chapter 4: Mixing Combinations
	Boosting
	AdaBoost
	Gradient Boosting
	XGBoost
	Stacking
	Summary
Chapter 5: Using Ensemble Learning Libraries
	ML-Ensemble
		Multilayer Ensembles
		Ensemble Model Selection
			The Scoring Function
			Evaluator
			Preprocessing
			Summary
	Scale XGBoost via Dask
		Dask Arrays and Dataframes
		Dask-ML
		Scaling XGBoost
		Microsoft LightGBM
			Why LightGBM Architecture Is Best
				Growing the Tree
				Finding the Best Split
					Histogram-based Methods
					Treating Missing Values
					Gradient-based One-Side Sampling
					Exclusive Feature Bundling
			Parameters
			LightGBM in Python Code
		AdaNet
	Summary
Chapter 6: Tips and Best Practices
	Feature Selection Using Random Forests
	Feature Transformations with Ensembles of Trees
	Building a Preprocessing Pipeline for a Random Forest Classifier
	Isolation Forest for Outlier Detection
	Scaling Ensembles with Dask
		Preprocessing
		Hyperparameter Search
			Drop-in Replacement for scikit-learn
			Incremental Hyperparameter Optimization
		Distributed Ensemble Fitting
	Summary
	Thank You
Index




نظرات کاربران