ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Normalization Techniques in Deep Learning

دانلود کتاب تکنیک های عادی سازی در یادگیری عمیق

Normalization Techniques in Deep Learning

مشخصات کتاب

Normalization Techniques in Deep Learning

ویرایش:  
نویسندگان:   
سری: Synthesis Lectures on Computer Vision 
ISBN (شابک) : 3031145941, 9783031145940 
ناشر: Springer 
سال نشر: 2022 
تعداد صفحات: 116
[117] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 Mb 

قیمت کتاب (تومان) : 44,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 8


در صورت تبدیل فایل کتاب Normalization Techniques in Deep Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تکنیک های عادی سازی در یادگیری عمیق نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تکنیک های عادی سازی در یادگیری عمیق

​این کتاب تکنیک‌های عادی‌سازی را با تحلیل عمیق در آموزش شبکه‌های عصبی عمیق ارائه و بررسی می‌کند. علاوه بر این، نویسنده جزئیات فنی را در طراحی روش های عادی سازی جدید و معماری های شبکه متناسب با وظایف خاص ارائه می دهد. روش‌های عادی‌سازی می‌توانند ثبات آموزشی، کارایی بهینه‌سازی و توانایی تعمیم شبکه‌های عصبی عمیق (DNN) را بهبود بخشند و به اجزای اساسی در اکثر معماری‌های پیشرفته DNN تبدیل شده‌اند. نویسنده دستورالعمل هایی را برای توضیح، درک و به کارگیری روش های عادی سازی ارائه می دهد. این کتاب برای خوانندگانی که روی توسعه الگوریتم‌های یادگیری عمیق جدید و/یا کاربردهای آنها برای حل مشکلات عملی در بینایی کامپیوتر و وظایف یادگیری ماشین کار می‌کنند ایده‌آل است. این کتاب همچنین به عنوان منبعی برای محققان، مهندسان و دانشجویانی که در این زمینه تازه کار هستند و نیاز به درک و آموزش DNN ها دارند، عمل می کند.


توضیحاتی درمورد کتاب به خارجی

​This book presents and surveys normalization techniques with a deep analysis in training deep neural networks.  In addition, the author provides technical details in designing new normalization methods and network architectures tailored to specific tasks.  Normalization methods can improve the training stability, optimization efficiency, and generalization ability of deep neural networks (DNNs) and have become basic components in most state-of-the-art DNN architectures.  The author provides guidelines for elaborating, understanding, and applying normalization methods.  This book is ideal for readers working on the development of novel deep learning algorithms and/or their applications to solve practical problems in computer vision and machine learning tasks.  The book also serves as a resource researchers, engineers, and students who are new to the field and need to understand and train DNNs.



فهرست مطالب

Preface
	Reference
Acknowledgements
	References
Contents
About the Author
1 Introduction
	[DELETE]
	1.1 Denotations and Definitions
		1.1.1 Optimization Objective
		1.1.2 Neural Networks
		1.1.3 Training DNNs
		1.1.4 Normalization
2 Motivation and Overview of Normalization in DNNs
	[DELETE]
		2.1 Theory of Normalizing Input
		2.2 Towards Normalizing Activations
			2.2.1 Proximal Back-Propagation Framework
			2.2.2 K-FAC Approximation
			2.2.3 Highlights of Motivation
3 A General View of Normalizing Activations
	[DELETE]
	3.1 Normalizing Activations by Population Statistics
	3.2 Local Statistics in a Sample
	3.3 Batch Normalization
4 A Framework for Normalizing Activations as Functions
	[DELETE]
	4.1 Normalization Area Partitioning
	4.2 Normalization Operation
		4.2.1 Beyond Standardization Towards Whitening
		4.2.2 Variations of Standardization
		4.2.3 Reduced Standardization
	4.3 Normalization Representation Recovery
5 Multi-mode and Combinational Normalization
	[DELETE]
	5.1 Multiple Modes
	5.2 Combination
6 BN for More Robust Estimation
	[DELETE]
	6.1 Normalization as Functions Combining Population Statistics
	6.2 Robust Inference Methods for BN
7 Normalizing Weights
	[DELETE]
	7.1 Constraints on Weights
	7.2 Training with Constraints
8 Normalizing Gradients
	[DELETE]
9 Analysis of Normalization
	[DELETE]
	9.1 Scale Invariance in Stabilizing Training
		9.1.1 Auto-Tuning on Learning Rate
	9.2 Improved Conditioning in Optimization
	9.3 Stochasticity for Generalization
		9.3.1 Theoretical Model for Stochasticity
		9.3.2 Empirical Analyses for Stochasticity
	9.4 Effects on Representation
		9.4.1 Constraint on Feature Representation
		9.4.2 Effect on Representational Capacity of Model
10 Normalization in Task-Specific Applications
	[DELETE]
	10.1 Domain Adaptation
		10.1.1 Domain Generalization
		10.1.2 Robust Deep Learning Under Covariate Shift
		10.1.3 Learning Universal Representations
	10.2 Image Style Transfer
		10.2.1 Image Translation
	10.3 Training GANs
	10.4 Efficient Deep Models
11 Summary and Discussion
A Appendix
	A.1  Back-Propagation Through Eigenvalue Decomposition
	A.2 Derivation of Constraint Number of Normalization Methods
	A.3 Proofs of Theorems




نظرات کاربران