دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Fathi M. Salem
سری:
ISBN (شابک) : 9783030899288, 9783030899295
ناشر: Springer
سال نشر: 2022
تعداد صفحات: 130
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 2 مگابایت
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Recurrent Neural Networks: From Simple to Gated Architectures به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکه های عصبی مکرر: از معماری های ساده تا دروازه ای نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب درسی یک درمان فشرده اما جامع ارائه می دهد که مراحل تحلیلی و طراحی را برای شبکه های عصبی مکرر از ابتدا ارائه می دهد. این درمان شبکههای عصبی عودکننده عمومی را با روشهای اصولی برای آموزش ارائه میکند که انتشار پسانداز (تعمیمشده) در طول زمان (BPTT) را ارائه میکند. این نویسنده با تمرکز بر مبانی و تفاوت های ظریف شبکه های عصبی مکرر، ارائه درمان فنی و اصولی موضوع، با دیدگاهی به سمت استفاده از چارچوب های محاسباتی کدگذاری و یادگیری عمیق، به عنوان مثال، Python و Tensorflow-Keras. شبکههای عصبی مکرر بهطور کلی از معماریهای ساده گرفته تا دروازهدار بررسی میشوند، و از ماشینآلات فنی بهینهسازی غیرمحدب تطبیقی با محدودیتهای دینامیکی استفاده میکنند تا از قدرت سیستماتیک آن در سازماندهی فرآیندهای یادگیری و آموزش استفاده کنند. این امکان جریان مفاهیم و تکنیک هایی را فراهم می کند که از طراحی و انتخاب های آموزشی پشتیبانی می کنند. رویکرد نویسنده آموزش استراتژیک لایههای خروجی را با استفاده از یادگیری نظارت شده و لایههای پنهان با استفاده از یادگیری بدون نظارت امکان میدهد تا نمایشهای داخلی کارآمدتر و عملکرد دقیقتری ایجاد کند. در نتیجه، خوانندگان قادر خواهند بود تا طرحهایی ایجاد کنند که رویههای ماهر را برای شبکههای عصبی مکرر در برنامههای هدفمند خود ایجاد کنند.
This textbook provides a compact but comprehensive treatment that provides analytical and design steps to recurrent neural networks from scratch. It provides a treatment of the general recurrent neural networks with principled methods for training that render the (generalized) backpropagation through time (BPTT). This author focuses on the basics and nuances of recurrent neural networks, providing technical and principled treatment of the subject, with a view toward using coding and deep learning computational frameworks, e.g., Python and Tensorflow-Keras. Recurrent neural networks are treated holistically from simple to gated architectures, adopting the technical machinery of adaptive non-convex optimization with dynamic constraints to leverage its systematic power in organizing the learning and training processes. This permits the flow of concepts and techniques that provide grounded support for design and training choices. The author’s approach enables strategic co-training of output layers, using supervised learning, and hidden layers, using unsupervised learning, to generate more efficient internal representations and accuracy performance. As a result, readers will be enabled to create designs tailoring proficient procedures for recurrent neural networks in their targeted applications.
Preface Contents Notation Numbers and Arrays Indexing Linear Algebra Operations Sets and Graphs Calculus Probability and Information Theory Functions Datasets and Distributions Introduction to the Book Part I Basic Elements of Neural Networks 1 Network Architectures 1.1 The Elements of Neural Models 1.1.1 The Elements of a Biological Neuron 1.1.2 Models of a Neuron—Simple Forms 1.1.3 The Connection Parameters: Weights 1.1.4 Activation Functions: Types of Nonlinearities 1.2 Network Architectures: Feedforward, Recurrent, and Deep Networks 1.2.1 Feedback Neural Networks: Vector Form 1.2.2 An Alternate View Diagram of Feedforward Network Architectures 1.2.3 Convolution Connection 1.2.3.1 Convolutional Operations in 1D 1.2.3.2 Tensor Processing 1.2.4 Deep Learning or Deep Networks 2 Learning Processes 2.1 Adaptive Learning 2.1.1 Learning Types 2.2 Optimization of Loss Functions 2.2.1 The Stochastic Gradient Descent (SGD) 2.3 Popular Loss Functions 2.4 Appendix 2.1: Gradient System Basics 2.5 Appendix 2.2: The LMS Algorithm Part II Recurrent Neural Networks (RNN) 3 Recurrent Neural Networks (RNN) 3.1 Simple Recurrent Neural Networks (sRNN) 3.1.1 The (Stochastic) Gradient Descent for sRNN: The Backpropagation Through Time (BPTT)) 3.2 Basic Recurrent Neural Networks (bRNN)—the General Case 3.3 Basic Recurrent Neural Networks (bRNN)—a Special Case 3.4 Basic Recurrent Neural Networks (bRNN): Summary Equations 3.5 Concluding Remarks 3.6 Appendix 3.1: Global Stability of bRNN 3.7 Appendix 3.2: Update Laws Derivation Details Part III Gated Recurrent Neural Networks: The LSTM RNN 4 Gated RNN: The Long Short-Term Memory (LSTM) RNN 4.1 Introduction and Background 4.2 The Standard LSTM RNN 4.2.1 The Long Short-Term Memory (LSTM) RNN 4.3 Slim LSTMs: Reductions within the Gate(s) 4.3.1 The Rationale in Developing the Slim LSTMs 4.3.2 Variant 1: The LSTM_1 RNN 4.3.3 Variant 2: The LSTM_2 RNN 4.3.4 Variant 3: The LSTM_3 RNN 4.3.5 Variant 4: The LSTM_4 RNN 4.3.6 Variant 5: The LSTM_5 RNN 4.4 Comparative Experiments of LSTM RNN Variants 4.4.1 Experiments on the MNIST Dataset 4.4.2 Experiments on the IMDB Dataset 4.5 Concluding Remarks Part IV Gated Recurrent Neural Networks: The GRU and The MGU RNN 5 Gated RNN: The Gated Recurrent Unit (GRU) RNN 5.1 Introduction and Background 5.2 The Standard GRU RNN 5.2.1 The Long Short-Term Memory (LSTM) RNN 5.2.2 The Gated Recurrent Unit (GRU) RNN 5.2.3 The Gated Recurrent Unit (GRU) RNN vs. the LSTM RNN 5.3 Slim GRU RNN: Reductions within the Gate(s) 5.3.1 Variant 1: The GRU_1 RNN 5.3.2 Variant 2: The GRU_2 RNN 5.3.3 Variant 3: The GRU_3 RNN 5.3.4 Variant 4: The GRU_4 RNN 5.3.5 Variant 5: The GRU_5 RNN 5.4 Sample Comparative Performance Evaluation 5.4.1 Application to MNIST Dataset (Pixel-Wise) 5.4.2 Application to MNIST Dataset (Row-Wise) 5.4.3 Application to the IMDB Dataset (Text Sequence) 5.5 Concluding Remarks 6 Gated RNN: The Minimal Gated Unit (MGU) RNN 6.1 Introduction and Background 6.1.1 Simple RNN Architectures 6.1.2 LSTM RNN 6.1.3 GRU RNN 6.1.4 Gated Recurrent Unit (GRU) RNNs vs. the LSTM RNNs 6.2 The Standard MGU RNN 6.3 Slim MGU RNN: Reductions within the Gate(s) 6.3.1 Variant 1: MGU_1 RNN 6.3.2 Variant 2: MGU_2 RNN 6.3.3 Variant 3: MGU_3 RNN 6.3.4 Variant 4: MGU_4 RNN 6.3.5 Variant 5: MGU_5 RNN 6.4 Sample Comparative Performance Evaluation 6.4.1 Sample Comparative MGU RNN Performance 6.4.2 The Network Architecture 6.4.3 Comparative Performance on the MNIST Dataset 6.4.4 Reuters Newswire Topics Dataset 6.4.5 Summary Discussion 6.5 Concluding Remarks References Index