دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Lei Huang
سری: Synthesis Lectures on Computer Vision
ISBN (شابک) : 3031145941, 9783031145940
ناشر: Springer
سال نشر: 2022
تعداد صفحات: 116
[117]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 3 Mb
در صورت تبدیل فایل کتاب Normalization Techniques in Deep Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تکنیک های عادی سازی در یادگیری عمیق نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب تکنیکهای عادیسازی را با تحلیل عمیق در آموزش
شبکههای عصبی عمیق ارائه و بررسی میکند. علاوه بر این، نویسنده
جزئیات فنی را در طراحی روش های عادی سازی جدید و معماری های شبکه
متناسب با وظایف خاص ارائه می دهد. روشهای عادیسازی میتوانند
ثبات آموزشی، کارایی بهینهسازی و توانایی تعمیم شبکههای عصبی
عمیق (DNN) را بهبود بخشند و به اجزای اساسی در اکثر معماریهای
پیشرفته DNN تبدیل شدهاند. نویسنده دستورالعمل هایی را برای
توضیح، درک و به کارگیری روش های عادی سازی ارائه می دهد. این
کتاب برای خوانندگانی که روی توسعه الگوریتمهای یادگیری عمیق
جدید و/یا کاربردهای آنها برای حل مشکلات عملی در بینایی کامپیوتر
و وظایف یادگیری ماشین کار میکنند ایدهآل است. این کتاب همچنین
به عنوان منبعی برای محققان، مهندسان و دانشجویانی که در این
زمینه تازه کار هستند و نیاز به درک و آموزش DNN ها دارند، عمل می
کند.
This book presents and surveys normalization techniques
with a deep analysis in training deep neural networks. In
addition, the author provides technical details in designing
new normalization methods and network architectures tailored to
specific tasks. Normalization methods can improve the
training stability, optimization efficiency, and generalization
ability of deep neural networks (DNNs) and have become basic
components in most state-of-the-art DNN architectures.
The author provides guidelines for elaborating, understanding,
and applying normalization methods. This book is ideal
for readers working on the development of novel deep learning
algorithms and/or their applications to solve practical
problems in computer vision and machine learning tasks.
The book also serves as a resource researchers, engineers, and
students who are new to the field and need to understand and
train DNNs.
Preface Reference Acknowledgements References Contents About the Author 1 Introduction [DELETE] 1.1 Denotations and Definitions 1.1.1 Optimization Objective 1.1.2 Neural Networks 1.1.3 Training DNNs 1.1.4 Normalization 2 Motivation and Overview of Normalization in DNNs [DELETE] 2.1 Theory of Normalizing Input 2.2 Towards Normalizing Activations 2.2.1 Proximal Back-Propagation Framework 2.2.2 K-FAC Approximation 2.2.3 Highlights of Motivation 3 A General View of Normalizing Activations [DELETE] 3.1 Normalizing Activations by Population Statistics 3.2 Local Statistics in a Sample 3.3 Batch Normalization 4 A Framework for Normalizing Activations as Functions [DELETE] 4.1 Normalization Area Partitioning 4.2 Normalization Operation 4.2.1 Beyond Standardization Towards Whitening 4.2.2 Variations of Standardization 4.2.3 Reduced Standardization 4.3 Normalization Representation Recovery 5 Multi-mode and Combinational Normalization [DELETE] 5.1 Multiple Modes 5.2 Combination 6 BN for More Robust Estimation [DELETE] 6.1 Normalization as Functions Combining Population Statistics 6.2 Robust Inference Methods for BN 7 Normalizing Weights [DELETE] 7.1 Constraints on Weights 7.2 Training with Constraints 8 Normalizing Gradients [DELETE] 9 Analysis of Normalization [DELETE] 9.1 Scale Invariance in Stabilizing Training 9.1.1 Auto-Tuning on Learning Rate 9.2 Improved Conditioning in Optimization 9.3 Stochasticity for Generalization 9.3.1 Theoretical Model for Stochasticity 9.3.2 Empirical Analyses for Stochasticity 9.4 Effects on Representation 9.4.1 Constraint on Feature Representation 9.4.2 Effect on Representational Capacity of Model 10 Normalization in Task-Specific Applications [DELETE] 10.1 Domain Adaptation 10.1.1 Domain Generalization 10.1.2 Robust Deep Learning Under Covariate Shift 10.1.3 Learning Universal Representations 10.2 Image Style Transfer 10.2.1 Image Translation 10.3 Training GANs 10.4 Efficient Deep Models 11 Summary and Discussion A Appendix A.1 Back-Propagation Through Eigenvalue Decomposition A.2 Derivation of Constraint Number of Normalization Methods A.3 Proofs of Theorems