دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: آموزشی ویرایش: 1st Edition. نویسندگان: Colin Fyfe سری: ISBN (شابک) : 1852338830, 9781852338831 ناشر: سال نشر: 2004 تعداد صفحات: 388 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 7 مگابایت
در صورت تبدیل فایل کتاب Hebbian Learning and Negative Feedback Networks (Advanced Information and Knowledge Processing) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکه های یادگیری هبی و بازخورد منفی (پیشرفته اطلاعات و پردازش دانش) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
ایده اصلی شبکههای یادگیری و بازخورد منفی هبیان این است که شبکههای عصبی مصنوعی با استفاده از بازخورد منفی فعالسازی میتوانند از یادگیری ساده هبی برای خودسازماندهی استفاده کنند تا ساختارهای جالبی را در مجموعه دادهها کشف کنند. دو نوع در نظر گرفته شده است: اولی از یک جریان واحد داده برای خودسازماندهی استفاده می کند. با تغییر قوانین یادگیری برای شبکه، نحوه انجام تجزیه و تحلیل مؤلفه اصلی، پیگیری طرح ریزی اکتشافی، تجزیه و تحلیل مؤلفه مستقل، تحلیل عاملی و انواع نگاشتهای حفظ توپولوژی برای این مجموعه داده ها نشان داده می شود. انواع دوم از دو جریان داده ورودی استفاده می کنند که بر اساس آنها خود سازماندهی می شوند. در شکل اصلی خود، این شبکهها نشان داده شدهاند که تجزیه و تحلیل همبستگی متعارف را انجام میدهند، تکنیک آماری که فیلترهایی را پیدا میکند که پیشبینیهای دو جریان داده با آنها بیشترین همبستگی را دارند. این کتاب طیف گستردهای از آزمایشهای واقعی را در بر میگیرد و نشان میدهد که چگونه رویکردهایی که فرموله میکند میتواند برای تجزیه و تحلیل مسائل واقعی اعمال شود.
The central idea of Hebbian Learning and Negative Feedback Networks is that artificial neural networks using negative feedback of activation can use simple Hebbian learning to self-organise so that they uncover interesting structures in data sets. Two variants are considered: the first uses a single stream of data to self-organise. By changing the learning rules for the network, it is shown how to perform Principal Component Analysis, Exploratory Projection Pursuit, Independent Component Analysis, Factor Analysis and a variety of topology preserving mappings for such data sets. The second variants use two input data streams on which they self-organise. In their basic form, these networks are shown to perform Canonical Correlation Analysis, the statistical technique which finds those filters onto which projections of the two data streams have greatest correlation. The book encompasses a wide range of real experiments and displays how the approaches it formulates can be applied to the analysis of real problems.
Contents......Page 3
Acronyms......Page 11
Preface......Page 12
Introduction......Page 14
Artificial Neural Networks......Page 15
The Organisation of this Book......Page 16
--- Single Stream Networks......Page 19
Hebbian Learning......Page 22
Quantification of Information......Page 24
Principal Component Analysis......Page 27
Weight Decay in Hebbian Learning......Page 29
ANNs and PCA......Page 32
Anti-Hebbian Learning......Page 34
Independent Component Analysis......Page 36
Conclusion......Page 40
Introduction......Page 41
Model......Page 51
Using Distance Differences......Page 56
Minor Components Analysis......Page 58
Conclusion......Page 64
Peer-Inhibitory Neurons......Page 67
Analysis of Differential Learning Rates......Page 69
Differential Activation Functions......Page 80
Emergent Properties of the Peer-Inhibition Network......Page 92
Conclusion......Page 93
Multiple Cause Data......Page 95
Non-negative Weights......Page 98
Factor Analysis......Page 102
Conclusion......Page 118
Exploratory Data Analysis......Page 120
Exploratory Projection Pursuit......Page 121
The Data and Sphering......Page 122
The Projection Pursuit Network......Page 123
Other Indices......Page 132
Using Exploratory Projection Pursuit......Page 136
Independent Component Analysis......Page 142
Conclusion......Page 145
Background......Page 146
The Classification Network......Page 149
The Scale Invariant Map......Page 152
The Subspace Map......Page 158
The Negative Feedback Coding Network......Page 167
Conclusion......Page 176
The Negative Feedback Network and Cost Functions......Page 178
-Insensitive Hebbian Learning......Page 180
The Maximum Likelihood EPP Algorithm......Page 185
A Combined Algorithm......Page 190
Conclusion......Page 195
--- Dual Stream Networks......Page 196
Statistical Canonical Correlation Analysis......Page 199
The First Canonical Correlation Network......Page 200
Experimental Results......Page 202
A Second Neural Implementation of CCA......Page 210
Simulations......Page 212
Linear Discriminant Analysis......Page 214
Discussion......Page 215
A Probabilistic Perspective......Page 217
Robust CCA......Page 219
A Model Derived from Becker’s Model 1......Page 220
Discussion......Page 223
Nonlinear Correlations......Page 225
The Search for Independence......Page 229
Kernel Canonical Correlation Analysis......Page 233
Relevance Vector Regression......Page 242
Appearance-Based Object Recognition......Page 245
Mixtures of Linear Correlations......Page 248
Exploratory Correlation Analysis......Page 255
Experiments......Page 259
Connection to CCA......Page 261
FastECA......Page 262
Local Filter Formation From Natural Stereo Images......Page 264
Twinned Maximum Likelihood Learning......Page 274
Unmixing of Sound Signals......Page 278
Conclusion......Page 279
Multicollinearity & Partial Least Squares......Page 282
Application to CCA......Page 283
Extracting Multiple Canonical Correlations......Page 287
Experiments on Multicollinear Data......Page 288
A Neural Implementation of Partial Least Squares......Page 291
Conclusion......Page 295
Twinned Principal Curves......Page 297
Properties of Twinned Principal Curves......Page 299
Twinned Self-Organising Maps......Page 311
Discussion......Page 313
Review......Page 314
Current and Future Work......Page 317
A.1 The Interneuron Model......Page 319
A.2 Other Models......Page 321
A.3 Related Biological Models......Page 324
B.1 F¨oldi´ak’s Sixth Model......Page 326
B.2 Competitive Hebbian Learning......Page 329
B.3 Multiple Cause Models......Page 330
B.4 Predictability Minimisation......Page 333
B.5 Mixtures of Experts......Page 335
B.6 Probabilistic Models......Page 337
C.1 Jutten and Herault......Page 344
C.2 Nonlinear PCA......Page 347
C.3 Information Maximisation......Page 348
C.4 Penalised Minimum Reconstruction Error......Page 353
C.5 FastICA......Page 354
D.1 The I-Max Model......Page 356
D.2 Stone’s Model......Page 358
D.3 Kay’s Neural Models......Page 359
D.4 Borga’s Algorithm......Page 361
E.1 Artificial Data Sets......Page 366
E.2 Real Data Sets......Page 369
Refs......Page 373
Index......Page 382