دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1 ed.]
نویسندگان: Ivan Gridin
سری:
ISBN (شابک) : 1484281489, 9781484281482
ناشر: Apress
سال نشر: 2022
تعداد صفحات: 401
[396]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 12 Mb
در صورت تبدیل فایل کتاب Automated Deep Learning Using Neural Network Intelligence: Develop and Design PyTorch and TensorFlow Models Using Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری عمیق خودکار با استفاده از هوش شبکه عصبی: توسعه و طراحی مدلهای PyTorch و TensorFlow با استفاده از پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
بهینه سازی، توسعه، و طراحی مدل های PyTorch و TensorFlow
برای یک مشکل خاص با استفاده از جعبه ابزار هوش شبکه عصبی
مایکروسافت (NNI). این کتاب شامل مثالهای عملی است که
رویکردهای یادگیری عمیق خودکار را نشان میدهد و تکنیکهایی را
برای تسهیل توسعه مدل یادگیری عمیق شما ارائه میکند.
فصلهای اول این کتاب اصول استفاده از جعبه ابزار NNI و روشهای
حل وظایف بهینهسازی فراپارامتر را پوشش میدهد. شما با استفاده
از NNI مشکل به حداکثر رساندن تابع جعبه سیاه را درک خواهید کرد
و می دانید که چگونه یک مدل TensorFlow یا PyTorch برای تنظیم
هایپرپارامتر آماده کنید، آزمایشی را اجرا کنید و نتایج را
تفسیر کنید. این کتاب به تیونرهای بهینهسازی و الگوریتمهای
جستجوی مبتنی بر آنها میپردازد: جستجوی تکاملی، جستجوی آنیلینگ
و رویکرد بهینهسازی بیزی. Neural Architecture Search پوشش
داده شده است و شما یاد خواهید گرفت که چگونه مدل های یادگیری
عمیق را از ابتدا توسعه دهید. رویکردهای جستجوی چند آزمایشی و
تک شات طراحی شبکه عصبی خودکار ارائه شده است. این کتاب به شما
می آموزد که چگونه یک فضای جستجو بسازید و یک جستجوی معماری را
با استفاده از آخرین استراتژی های اکتشاف پیشرفته راه اندازی
کنید: جستجوی معماری عصبی کارآمد (ENAS) و جستجوی معماری متفاوت
(DARTS). شما یاد خواهید گرفت که چگونه ساخت یک معماری شبکه
عصبی را برای یک مشکل و مجموعه داده خاص به صورت خودکار انجام
دهید. این کتاب بر روی فشرده سازی مدل و روش های مهندسی ویژگی
که در یادگیری عمیق خودکار ضروری هستند، تمرکز دارد. همچنین
شامل تکنیکهای عملکردی است که امکان ایجاد پلتفرمهای آموزشی
توزیعی در مقیاس بزرگ را با استفاده از NNI فراهم میکند.
پس از خواندن این کتاب، میدانید چگونه از مجموعه ابزار کامل
روشهای یادگیری عمیق خودکار استفاده کنید. تکنیک ها و مثال های
عملی ارائه شده در این کتاب به شما این امکان را می دهد که روال
شبکه های عصبی خود را به سطح بالاتری برسانید.
Optimize, develop, and design PyTorch and TensorFlow
models for a specific problem using the Microsoft Neural
Network Intelligence (NNI) toolkit. This book includes
practical examples illustrating automated deep learning
approaches and provides techniques to facilitate your deep
learning model development.
The first chapters of this book cover the basics of NNI
toolkit usage and methods for solving hyper-parameter
optimization tasks. You will understand the black-box
function maximization problem using NNI, and know how to
prepare a TensorFlow or PyTorch model for hyper-parameter
tuning, launch an experiment, and interpret the results. The
book dives into optimization tuners and the search algorithms
they are based on: Evolution search, Annealing search, and
the Bayesian Optimization approach. The Neural Architecture
Search is covered and you will learn how to develop deep
learning models from scratch. Multi-trial and one-shot
searching approaches of automatic neural network design are
presented. The book teaches you how to construct a search
space and launch an architecture search using the latest
state-of-the-art exploration strategies: Efficient Neural
Architecture Search (ENAS) and Differential Architectural
Search (DARTS). You will learn how to automate the
construction of a neural network architecture for a
particular problem and dataset. The book focuses on model
compression and feature engineering methods that are
essential in automated deep learning. It also includes
performance techniques that allow the creation of large-scale
distributive training platforms using NNI.
After reading this book, you will know how to use the full
toolkit of automated deep learning methods. The techniques
and practical examples presented in this book will allow you
to bring your neural network routines to a higher
level.
Table of Contents About the Author About the Technical Reviewer Introduction Chapter 1: Introduction to Neural Network Intelligence What Is Automated Deep Learning? No Free Lunch Theorem Injecting New Deep Learning Techniques into Existing Model Adjusting Model to a New Dataset Creating a New Model from Scratch Reinventing the Wheel Working with Source Code Neural Network Intelligence Installation Install Docker Search Space, Tuner, and Trial Black-Box Function Optimization Web User Interface Overview Page Trials Details Page NNI Command Line NNI Experiment Configuration Embedded NNI Troubleshooting TensorFlow and PyTorch Summary Chapter 2: Hyperparameter Optimization What Is Hyperparameter? Layer Hyperparameter Training Hyperparameter Feature Hyperparameter Design Hyperparameter Search Space choice randomint uniform quniform loguniform qloguniform normal qnormal lognormal qlognormal Tuners Random Search Tuner Grid Search Tuner Organizing Experiment Optimizing LeNet for MNIST Problem TensorFlow LeNet Implementation PyTorch LeNet Implementation Performing LeNet HPO Experiment Upgrading LeNet with ReLU and Dropout TensorFlow LeNet Upgrade Implementation PyTorch LeNet Upgrade Implementation Performing LeNet Upgrade HPO Experiment From LeNet to AlexNet TensorFlow LeNet Evolution Implementation PyTorch LeNet Evolution Implementation Performing LeNet Evolution HPO Experiment Summary Chapter 3: Hyperparameter Optimization Under Shell Tuners Evolution Tuner Anneal Tuner Sequential Model-Based Optimization Tuners Tree-Structured Parzen Estimator Tuner Gaussian Process Tuner Which Tuner to Choose? Custom Tuner Tuner Internals New Evolution Custom Tuner Early Stopping Median Stop Curve Fitting Risk to Stop a Good Trial Searching for Optimal Functional Pipeline and Classical AutoML Problem Operators Search Space Model Tuner Experiment Limits of HPO Applying to Neural Architecture Search Hyperparameters for Hyperparameter Optimization Summary Chapter 4: Multi-trial Neural Architecture Search Neural Architecture As Data Flow Graph Neural Architecture Search Using Retiarii (PyTorch) Introduction to NAS Using Retiarii Retiarii Framework Base Model Mutators LayerChoice ValueChoice InputChoice Repeat Labeling Example Evaluators Exploration Strategies Random Strategy Grid Search Regularized Evolution TPE Strategy RL Strategy Experiment CIFAR-10 LeNet NAS CIFAR-10 ResNet NAS Classic Neural Architecture Search (TensorFlow) Base Model Mutators Trial Search Space Search Strategy Experiment Summary Chapter 5: One-Shot Neural Architecture Search One-Shot NAS in Action Supernet Architecture One-Shot Algorithms Efficient Neural Architecture Search (ENAS) TensorFlow ENAS Implementation PyTorch ENAS Implementation Differentiable Architecture Search (DARTS) GeneralSupernet Solving CIFAR-10 Training GeneralSupernet Using TensorFlow and ENAS Training GeneralSupernet Using PyTorch and DARTS HPO vs. Multi-trial NAS vs. One-Shot NAS Summary Chapter 6: Model Pruning What Is Model Pruning? LeNet Model Pruning One-Shot Pruners Pruner Configuration Level Pruner FPGM Pruner L1Norm and L2Norm Pruners Iterative Pruners Linear Pruner AGP Pruner Iterative Pruner Configuration Iterative Pruning Scenarios Best Accuracy Under Size Threshold Scenario Minimal Size Above Accuracy Threshold Scenario Summary Chapter 7: NNI Recipes Speed Up Trials Start–Stop–Resume Continue Finished Experiment NNI and TensorBoard Move Experiment to Another Server Scaling Experiments Shared Storage One-Shot NAS with Checkpoints and TensorBoard Summary Index