ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Recurrent Neural Networks: From Simple to Gated Architectures

دانلود کتاب شبکه های عصبی مکرر: از معماری های ساده تا دروازه ای

Recurrent Neural Networks: From Simple to Gated Architectures

مشخصات کتاب

Recurrent Neural Networks: From Simple to Gated Architectures

ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 9783030899288, 9783030899295 
ناشر: Springer 
سال نشر: 2022 
تعداد صفحات: 130 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 2 مگابایت 

قیمت کتاب (تومان) : 52,000

در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Recurrent Neural Networks: From Simple to Gated Architectures به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب شبکه های عصبی مکرر: از معماری های ساده تا دروازه ای نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب شبکه های عصبی مکرر: از معماری های ساده تا دروازه ای



این کتاب درسی یک درمان فشرده اما جامع ارائه می دهد که مراحل تحلیلی و طراحی را برای شبکه های عصبی مکرر از ابتدا ارائه می دهد. این درمان شبکه‌های عصبی عودکننده عمومی را با روش‌های اصولی برای آموزش ارائه می‌کند که انتشار پس‌انداز (تعمیم‌شده) در طول زمان (BPTT) را ارائه می‌کند. این نویسنده با تمرکز بر مبانی و تفاوت های ظریف شبکه های عصبی مکرر، ارائه درمان فنی و اصولی موضوع، با دیدگاهی به سمت استفاده از چارچوب های محاسباتی کدگذاری و یادگیری عمیق، به عنوان مثال، Python و Tensorflow-Keras. شبکه‌های عصبی مکرر به‌طور کلی از معماری‌های ساده گرفته تا دروازه‌دار بررسی می‌شوند، و از ماشین‌آلات فنی بهینه‌سازی غیرمحدب تطبیقی ​​با محدودیت‌های دینامیکی استفاده می‌کنند تا از قدرت سیستماتیک آن در سازمان‌دهی فرآیندهای یادگیری و آموزش استفاده کنند. این امکان جریان مفاهیم و تکنیک هایی را فراهم می کند که از طراحی و انتخاب های آموزشی پشتیبانی می کنند. رویکرد نویسنده آموزش استراتژیک لایه‌های خروجی را با استفاده از یادگیری نظارت شده و لایه‌های پنهان با استفاده از یادگیری بدون نظارت امکان می‌دهد تا نمایش‌های داخلی کارآمدتر و عملکرد دقیق‌تری ایجاد کند. در نتیجه، خوانندگان قادر خواهند بود تا طرح‌هایی ایجاد کنند که رویه‌های ماهر را برای شبکه‌های عصبی مکرر در برنامه‌های هدفمند خود ایجاد کنند.


توضیحاتی درمورد کتاب به خارجی

This textbook provides a compact but comprehensive treatment that provides analytical and design steps to recurrent neural networks from scratch. It provides a treatment of the general recurrent neural networks with principled methods for training that render the (generalized) backpropagation through time (BPTT).  This author focuses on the basics and nuances of recurrent neural networks, providing technical and principled treatment of the subject, with a view toward using coding and deep learning computational frameworks, e.g., Python and Tensorflow-Keras. Recurrent neural networks are treated holistically from simple to gated architectures, adopting the technical machinery of adaptive non-convex optimization with dynamic constraints to leverage its systematic power in organizing the learning and training processes. This permits the flow of concepts and techniques that provide grounded support for design and training choices. The author’s approach enables strategic co-training of output layers, using supervised learning, and hidden layers, using unsupervised learning, to generate more efficient internal representations and accuracy performance. As a result, readers will be enabled to create designs tailoring proficient procedures for recurrent neural networks in their targeted applications.



فهرست مطالب

Preface
Contents
Notation
	Numbers and Arrays
	Indexing
	Linear Algebra Operations
	Sets and Graphs
	Calculus
	Probability and Information Theory
	Functions
	Datasets and Distributions
Introduction to the Book
Part I Basic Elements of Neural Networks
1 Network Architectures
	1.1 The Elements of Neural Models
		1.1.1 The Elements of a Biological Neuron
		1.1.2 Models of a Neuron—Simple Forms
		1.1.3 The Connection Parameters: Weights
		1.1.4 Activation Functions: Types of Nonlinearities
	1.2 Network Architectures: Feedforward, Recurrent, and Deep Networks
		1.2.1 Feedback Neural Networks: Vector Form
		1.2.2 An Alternate View Diagram of Feedforward Network Architectures
		1.2.3 Convolution Connection
			1.2.3.1 Convolutional Operations in 1D
			1.2.3.2 Tensor Processing
		1.2.4 Deep Learning or Deep Networks
2 Learning Processes
	2.1 Adaptive Learning
		2.1.1 Learning Types
	2.2 Optimization of Loss Functions
		2.2.1 The Stochastic Gradient Descent (SGD)
	2.3 Popular Loss Functions
	2.4 Appendix 2.1: Gradient System Basics
	2.5 Appendix 2.2: The LMS Algorithm
Part II Recurrent Neural Networks (RNN)
3 Recurrent Neural Networks (RNN)
	3.1 Simple Recurrent Neural Networks (sRNN)
		3.1.1 The (Stochastic) Gradient Descent for sRNN: The Backpropagation Through Time (BPTT))
	3.2 Basic Recurrent Neural Networks (bRNN)—the General Case
	3.3 Basic Recurrent Neural Networks (bRNN)—a Special Case
	3.4 Basic Recurrent Neural Networks (bRNN): Summary Equations
	3.5 Concluding Remarks
	3.6 Appendix 3.1: Global Stability of bRNN
	3.7 Appendix 3.2: Update Laws Derivation Details
Part III Gated Recurrent Neural Networks: The LSTM RNN
4 Gated RNN: The Long Short-Term Memory (LSTM) RNN
	4.1 Introduction and Background
	4.2 The Standard LSTM RNN
		4.2.1 The Long Short-Term Memory (LSTM) RNN
	4.3 Slim LSTMs: Reductions within the Gate(s)
		4.3.1 The Rationale in Developing the Slim LSTMs
		4.3.2 Variant 1: The LSTM_1 RNN
		4.3.3 Variant 2: The LSTM_2 RNN
		4.3.4 Variant 3: The LSTM_3 RNN
		4.3.5 Variant 4: The LSTM_4 RNN
		4.3.6 Variant 5: The LSTM_5 RNN
	4.4 Comparative Experiments of LSTM RNN Variants
		4.4.1 Experiments on the MNIST Dataset
		4.4.2 Experiments on the IMDB Dataset
	4.5 Concluding Remarks
Part IV Gated Recurrent Neural Networks: The GRU and The MGU RNN
5 Gated RNN: The Gated Recurrent Unit (GRU) RNN
	5.1 Introduction and Background
	5.2 The Standard GRU RNN
		5.2.1 The Long Short-Term Memory (LSTM) RNN
		5.2.2 The Gated Recurrent Unit (GRU) RNN
		5.2.3 The Gated Recurrent Unit (GRU) RNN vs. the LSTM RNN
	5.3 Slim GRU RNN: Reductions within the Gate(s)
		5.3.1 Variant 1: The GRU_1 RNN
		5.3.2 Variant 2: The GRU_2 RNN
		5.3.3 Variant 3: The GRU_3 RNN
		5.3.4 Variant 4: The GRU_4 RNN
		5.3.5 Variant 5: The GRU_5 RNN
	5.4 Sample Comparative Performance Evaluation
		5.4.1 Application to MNIST Dataset (Pixel-Wise)
		5.4.2 Application to MNIST Dataset (Row-Wise)
		5.4.3 Application to the IMDB Dataset (Text Sequence)
	5.5 Concluding Remarks
6 Gated RNN: The Minimal Gated Unit (MGU) RNN
	6.1 Introduction and Background
		6.1.1 Simple RNN Architectures
		6.1.2 LSTM RNN
		6.1.3 GRU RNN
		6.1.4 Gated Recurrent Unit (GRU) RNNs vs. the LSTM RNNs
	6.2 The Standard MGU RNN
	6.3 Slim MGU RNN: Reductions within the Gate(s)
		6.3.1 Variant 1: MGU_1 RNN
		6.3.2 Variant 2: MGU_2 RNN
		6.3.3 Variant 3: MGU_3 RNN
		6.3.4 Variant 4: MGU_4 RNN
		6.3.5 Variant 5: MGU_5 RNN
	6.4 Sample Comparative Performance Evaluation
		6.4.1 Sample Comparative MGU RNN Performance
		6.4.2 The Network Architecture
		6.4.3 Comparative Performance on the MNIST Dataset
		6.4.4 Reuters Newswire Topics Dataset
		6.4.5 Summary Discussion
	6.5 Concluding Remarks
References
Index




نظرات کاربران