ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Automated Deep Learning Using Neural Network Intelligence: Develop and Design PyTorch and TensorFlow Models Using Python

دانلود کتاب یادگیری عمیق خودکار با استفاده از هوش شبکه عصبی: توسعه و طراحی مدل‌های PyTorch و TensorFlow با استفاده از پایتون

Automated Deep Learning Using Neural Network Intelligence: Develop and Design PyTorch and TensorFlow Models Using Python

مشخصات کتاب

Automated Deep Learning Using Neural Network Intelligence: Develop and Design PyTorch and TensorFlow Models Using Python

ویرایش: [1 ed.] 
نویسندگان:   
سری:  
ISBN (شابک) : 1484281489, 9781484281482 
ناشر: Apress 
سال نشر: 2022 
تعداد صفحات: 401
[396] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 12 Mb 

قیمت کتاب (تومان) : 47,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 5


در صورت تبدیل فایل کتاب Automated Deep Learning Using Neural Network Intelligence: Develop and Design PyTorch and TensorFlow Models Using Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری عمیق خودکار با استفاده از هوش شبکه عصبی: توسعه و طراحی مدل‌های PyTorch و TensorFlow با استفاده از پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری عمیق خودکار با استفاده از هوش شبکه عصبی: توسعه و طراحی مدل‌های PyTorch و TensorFlow با استفاده از پایتون



بهینه سازی، توسعه، و طراحی مدل های PyTorch و TensorFlow برای یک مشکل خاص با استفاده از جعبه ابزار هوش شبکه عصبی مایکروسافت (NNI). این کتاب شامل مثال‌های عملی است که رویکردهای یادگیری عمیق خودکار را نشان می‌دهد و تکنیک‌هایی را برای تسهیل توسعه مدل یادگیری عمیق شما ارائه می‌کند.

فصل‌های اول این کتاب اصول استفاده از جعبه ابزار NNI و روش‌های حل وظایف بهینه‌سازی فراپارامتر را پوشش می‌دهد. شما با استفاده از NNI مشکل به حداکثر رساندن تابع جعبه سیاه را درک خواهید کرد و می دانید که چگونه یک مدل TensorFlow یا PyTorch برای تنظیم هایپرپارامتر آماده کنید، آزمایشی را اجرا کنید و نتایج را تفسیر کنید. این کتاب به تیونرهای بهینه‌سازی و الگوریتم‌های جستجوی مبتنی بر آنها می‌پردازد: جستجوی تکاملی، جستجوی آنیلینگ و رویکرد بهینه‌سازی بیزی. Neural Architecture Search پوشش داده شده است و شما یاد خواهید گرفت که چگونه مدل های یادگیری عمیق را از ابتدا توسعه دهید. رویکردهای جستجوی چند آزمایشی و تک شات طراحی شبکه عصبی خودکار ارائه شده است. این کتاب به شما می آموزد که چگونه یک فضای جستجو بسازید و یک جستجوی معماری را با استفاده از آخرین استراتژی های اکتشاف پیشرفته راه اندازی کنید: جستجوی معماری عصبی کارآمد (ENAS) و جستجوی معماری متفاوت (DARTS). شما یاد خواهید گرفت که چگونه ساخت یک معماری شبکه عصبی را برای یک مشکل و مجموعه داده خاص به صورت خودکار انجام دهید. این کتاب بر روی فشرده سازی مدل و روش های مهندسی ویژگی که در یادگیری عمیق خودکار ضروری هستند، تمرکز دارد. همچنین شامل تکنیک‌های عملکردی است که امکان ایجاد پلتفرم‌های آموزشی توزیعی در مقیاس بزرگ را با استفاده از NNI فراهم می‌کند.

پس از خواندن این کتاب، می‌دانید چگونه از مجموعه ابزار کامل روش‌های یادگیری عمیق خودکار استفاده کنید. تکنیک ها و مثال های عملی ارائه شده در این کتاب به شما این امکان را می دهد که روال شبکه های عصبی خود را به سطح بالاتری برسانید.


چه خواهید آموخت
  • مفاهیم اصلی تیونرهای بهینه سازی، فضای جستجو و آزمایشات را بدانید
  • کاربردهای مختلف الگوریتم های بهینه سازی فراپارامتر برای توسعه شبکه های عصبی موثر
  • ساخت مدل های یادگیری عمیق جدید از ابتدا
  • جستجوی خودکار معماری عصبی را برای ایجاد مدل های پیشرفته یادگیری عمیق اجرا کنید
  • فشرده کردن مدلی برای حذف لایه‌های یادگیری عمیق غیر ضروری

این کتاب برای چه کسی است 
دانشمندان داده متوسط ​​تا پیشرفته و مهندسان یادگیری ماشین که در یادگیری عمیق و توسعه عملی شبکه عصبی دخیل هستند

توضیحاتی درمورد کتاب به خارجی

Optimize, develop, and design PyTorch and TensorFlow models for a specific problem using the Microsoft Neural Network Intelligence (NNI) toolkit. This book includes practical examples illustrating automated deep learning approaches and provides techniques to facilitate your deep learning model development.

The first chapters of this book cover the basics of NNI toolkit usage and methods for solving hyper-parameter optimization tasks. You will understand the black-box function maximization problem using NNI, and know how to prepare a TensorFlow or PyTorch model for hyper-parameter tuning, launch an experiment, and interpret the results. The book dives into optimization tuners and the search algorithms they are based on: Evolution search, Annealing search, and the Bayesian Optimization approach. The Neural Architecture Search is covered and you will learn how to develop deep learning models from scratch. Multi-trial and one-shot searching approaches of automatic neural network design are presented. The book teaches you how to construct a search space and launch an architecture search using the latest state-of-the-art exploration strategies: Efficient Neural Architecture Search (ENAS) and Differential Architectural Search (DARTS). You will learn how to automate the construction of a neural network architecture for a particular problem and dataset. The book focuses on model compression and feature engineering methods that are essential in automated deep learning. It also includes performance techniques that allow the creation of large-scale distributive training platforms using NNI.

After reading this book, you will know how to use the full toolkit of automated deep learning methods. The techniques and practical examples presented in this book will allow you to bring your neural network routines to a higher level.


What You Will Learn
  • Know the basic concepts of optimization tuners, search space, and trials
  • Apply different hyper-parameter optimization algorithms to develop effective neural networks
  • Construct new deep learning models from scratch
  • Execute the automated Neural Architecture Search to create state-of-the-art deep learning models
  • Compress the model to eliminate unnecessary deep learning layers

Who This Book Is For 
Intermediate to advanced data scientists and machine learning engineers involved in deep learning and practical neural network development


فهرست مطالب

Table of Contents
About the Author
About the Technical Reviewer
Introduction
Chapter 1: Introduction to Neural Network Intelligence
	What Is Automated Deep Learning?
		No Free Lunch Theorem
		Injecting New Deep Learning Techniques into Existing Model
		Adjusting Model to a New Dataset
		Creating a New Model from Scratch
		Reinventing the Wheel
	Working with Source Code
	Neural Network Intelligence Installation
		Install
		Docker
		Search Space, Tuner, and Trial
		Black-Box Function Optimization
	Web User Interface
		Overview Page
		Trials Details Page
		NNI Command Line
		NNI Experiment Configuration
		Embedded NNI
		Troubleshooting
		TensorFlow and PyTorch
		Summary
Chapter 2: Hyperparameter Optimization
	What Is Hyperparameter?
		Layer Hyperparameter
		Training Hyperparameter
		Feature Hyperparameter
		Design Hyperparameter
		Search Space
		choice
		randomint
		uniform
		quniform
		loguniform
		qloguniform
		normal
		qnormal
		lognormal
		qlognormal
		Tuners
		Random Search Tuner
		Grid Search Tuner
		Organizing Experiment
		Optimizing LeNet for MNIST Problem
		TensorFlow LeNet Implementation
		PyTorch LeNet Implementation
		Performing LeNet HPO Experiment
		Upgrading LeNet with ReLU and Dropout
		TensorFlow LeNet Upgrade Implementation
		PyTorch LeNet Upgrade Implementation
		Performing LeNet Upgrade HPO Experiment
		From LeNet to AlexNet
		TensorFlow LeNet Evolution Implementation
		PyTorch LeNet Evolution Implementation
		Performing LeNet Evolution HPO Experiment
		Summary
Chapter 3: Hyperparameter Optimization Under Shell
	Tuners
	Evolution Tuner
	Anneal Tuner
	Sequential Model-Based Optimization Tuners
	Tree-Structured Parzen Estimator Tuner
	Gaussian Process Tuner
	Which Tuner to Choose?
	Custom Tuner
	Tuner Internals
	New Evolution Custom Tuner
		Early Stopping
		Median Stop
		Curve Fitting
		Risk to Stop a Good Trial
		Searching for Optimal Functional Pipeline and Classical AutoML
		Problem
		Operators
		Search Space
		Model
		Tuner
		Experiment
		Limits of HPO Applying to Neural Architecture Search
		Hyperparameters for Hyperparameter Optimization
		Summary
Chapter 4: Multi-trial Neural Architecture Search
	Neural Architecture As Data Flow Graph
	Neural Architecture Search Using Retiarii (PyTorch)
		Introduction to NAS Using Retiarii
		Retiarii Framework
		Base Model
		Mutators
			LayerChoice
			ValueChoice
			InputChoice
			Repeat
			Labeling
			Example
		Evaluators
		Exploration Strategies
			Random Strategy
			Grid Search
			Regularized Evolution
			TPE Strategy
			RL Strategy
		Experiment
		CIFAR-10 LeNet NAS
		CIFAR-10 ResNet NAS
	Classic Neural Architecture Search (TensorFlow)
		Base Model
		Mutators
		Trial
		Search Space
		Search Strategy
		Experiment
		Summary
Chapter 5: One-Shot Neural Architecture Search
	One-Shot NAS in Action
	Supernet Architecture
	One-Shot Algorithms
	Efficient Neural Architecture Search (ENAS)
	TensorFlow ENAS Implementation
	PyTorch ENAS Implementation
	Differentiable Architecture Search (DARTS)
	GeneralSupernet Solving CIFAR-10
	Training GeneralSupernet Using TensorFlow and ENAS
	Training GeneralSupernet Using PyTorch and DARTS
	HPO vs. Multi-trial NAS vs. One-Shot NAS
	Summary
Chapter 6: Model Pruning
	What Is Model Pruning?
	LeNet Model Pruning
	One-Shot Pruners
	Pruner Configuration
	Level Pruner
	FPGM Pruner
	L1Norm and L2Norm Pruners
	Iterative Pruners
	Linear Pruner
	AGP Pruner
	Iterative Pruner Configuration
	Iterative Pruning Scenarios
	Best Accuracy Under Size Threshold Scenario
	Minimal Size Above Accuracy Threshold Scenario
	Summary
Chapter 7: NNI Recipes
	Speed Up Trials
	Start–Stop–Resume
	Continue Finished Experiment
	NNI and TensorBoard
	Move Experiment to Another Server
	Scaling Experiments
	Shared Storage
	One-Shot NAS with Checkpoints and TensorBoard
	Summary
Index




نظرات کاربران