دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: الگوریتم ها و ساختارهای داده ها: شناخت الگو ویرایش: 1 نویسندگان: Brian D. Ripley سری: ISBN (شابک) : 0521717701, 9780521717700 ناشر: Cambridge University Press سال نشر: 2008 تعداد صفحات: 410 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 48 مگابایت
در صورت تبدیل فایل کتاب Pattern recognition and neural networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شناسایی الگوها و شبکه های عصبی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
Amazon.com بررسی این کتاب از ابزارهای تئوری تصمیمگیری آماری و نظریه یادگیری محاسباتی برای ایجاد پایهای دقیق برای نظریه شبکه های عصبی از جنبه نظری، تشخیص الگو و شبکه های عصبی بر احتمال و آمار تاکید دارد. تقریباً همه نتایج دارای شواهدی هستند که اغلب اصلی هستند. در سمت کاربرد، تاکید بر تشخیص الگو است. بیشتر نمونه ها مربوط به مشکلات دنیای واقعی است. علاوه بر انواع رایجتر شبکهها، این کتاب دارای فصلهایی درباره درختهای تصمیمگیری و شبکههای باور از حوزه یادگیری ماشینی است. این کتاب برای استفاده در دوره های تحصیلات تکمیلی که آمار و مهندسی را آموزش می دهند در نظر گرفته شده است. برای درک کامل پیشرفتها و شواهد نظری به پیشینه قوی در آمار نیاز است. با این حال، دانش جبر خطی، حساب دیفرانسیل و انتگرال و احتمالات در مقطع کارشناسی برای دنبال کردن کتاب کافی است.
Amazon.com Review This book uses tools from statistical decision theory and computational learning theory to create a rigorous foundation for the theory of neural networks. On the theoretical side, Pattern Recognition and Neural Networks emphasizes probability and statistics. Almost all the results have proofs that are often original. On the application side, the emphasis is on pattern recognition. Most of the examples are from real world problems. In addition to the more common types of networks, the book has chapters on decision trees and belief networks from the machine-learning field. This book is intended for use in graduate courses that teach statistics and engineering. A strong background in statistics is needed to fully appreciate the theoretical developments and proofs. However, undergraduate-level linear algebra, calculus, and probability knowledge is sufficient to follow the book.
Cover\r......Page 1
Back Cover\r......Page 3
Contents\r......Page 5
Preface......Page 9
Notation\r......Page 12
1 \rIntroduction and Examples......Page 13
1.1 How do neural methods differ?......Page 16
1.2 The pattern recognition task......Page 17
1.3 Overview of the remaining chapters......Page 21
1.4 Examples......Page 22
1.5 Literature......Page 27
2 \rStatistical Decision Theory......Page 29
2.1 Bayes rules for known distributions......Page 30
2.2 Parametric models......Page 38
2.3 Logistic discrimination......Page 55
2.4 Predictive classification......Page 57
2.5 Alternative estimation procedures......Page 67
2.6 How complex a model do we need?......Page 71
2. 7 Performance assessment......Page 78
2.8 Computational learning approaches......Page 89
3 \rLinear Discriminant Analysis......Page 103
3.1 Classical linear discrimination......Page 104
3.2 Linear discriminants via regression......Page 113
3.3 Robustness......Page 117
3.4 Shrinkage methods......Page 118
3.5 Logistic discrimination......Page 121
3.6 Linear separation and perceptrons......Page 128
4 \rFlexible Discriminants......Page 133
4.1 Fitting smooth parametric functions......Page 134
4.2 Radial basis functions......Page 143
4.3 Regularization......Page 148
5 \rFeed-forward Neural Networks......Page 155
5.1 Biological motivation......Page 157
5.2 Theory......Page 159
5.3 Learning algorithms......Page 160
5.4 Examples......Page 172
5.5 Bayesian perspectives......Page 175
5.6 Network complexity......Page 180
5.7 Approximation results......Page 185
6.1 Non-parametric estimation of class densities......Page 193
6.2 Nearest neighbour methods......Page 203
6.3 Learning vector quantization......Page 213
6.4 Mixture representations......Page 219
7 \rTree-structured Classifiers......Page 225
7.1 Splitting rules......Page 228
7.2 Pruning rules......Page 233
7.3 Missing values......Page 243
7.4 Earlier approaches......Page 247
7.5 Refinements......Page 249
7.6 Relationships to neural networks......Page 252
7.7 Bayesian trees......Page 253
8 \rBelief Networks......Page 255
8.1 Graphical models and networks......Page 258
8.2 Causal networks......Page 274
8.3 Learning the network structure......Page 287
8.4 Boltzmann machines......Page 291
8.5 Hierarchical mixtures of experts......Page 295
9 \rUnsupervised Methods......Page 299
9.1 Projection methods......Page 300
9.2 Multidimensional scaling......Page 317
9.3 Clustering algorithms......Page 323
10 Finding Good Pattern \rFeatures......Page 339
10.1 Bounds for the Bayes error......Page 340
10.2 Normal class distributions......Page 341
10.3 Branch-and-bound techniques......Page 342
10.4 Feature extraction......Page 343
A.1 Maximum likelihood and MAP estimation......Page 345
A.2 The EM algorithm......Page 346
A.3 Markov chain Monte Carlo......Page 349
A.4 Axioms for conditional independence......Page 351
A.5 Optimization......Page 354
Glossary......Page 359
References......Page 367
Author Index......Page 403
Subject Index......Page 411
Blank Page......Page 2