ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Statistical Pattern Recognition, Second Edition

دانلود کتاب شناخت الگوي آماري ، چاپ دوم

Statistical Pattern Recognition, Second Edition

مشخصات کتاب

Statistical Pattern Recognition, Second Edition

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9780470845134, 9780470854778 
ناشر: John Wiley & Sons, Ltd 
سال نشر: 2002 
تعداد صفحات: 504 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 مگابایت 

قیمت کتاب (تومان) : 56,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 16


در صورت تبدیل فایل کتاب Statistical Pattern Recognition, Second Edition به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب شناخت الگوي آماري ، چاپ دوم نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب شناخت الگوي آماري ، چاپ دوم

تشخیص الگوی آماری یک حوزه مطالعاتی و تحقیقاتی بسیار فعال است که در سال‌های اخیر پیشرفت‌های زیادی داشته است. برنامه های کاربردی جدید و در حال ظهور - مانند داده کاوی، جستجوی وب، بازیابی داده های چند رسانه ای، تشخیص چهره، و تشخیص دست خط شکسته - به تکنیک های قوی و کارآمد تشخیص الگو نیاز دارند. تصمیم گیری و برآورد آماری برای مطالعه تشخیص الگوی اساسی در نظر گرفته می شود.


تشخیص الگوی آماری، ویرایش دوم به طور کامل با روش ها، برنامه ها و مراجع جدید به روز شده است. این یک مقدمه جامع برای این منطقه پر جنب و جوش - با مطالبی که از مهندسی، آمار، علوم کامپیوتر و علوم اجتماعی گرفته شده است - ارائه می دهد و بسیاری از زمینه های کاربردی مانند طراحی پایگاه داده، شبکه های عصبی مصنوعی و سیستم های پشتیبانی تصمیم را پوشش می دهد.


* مقدمه ای مستقل برای تشخیص الگوی آماری ارائه می دهد.
* هر تکنیک شرح داده شده است. با مثال‌های واقعی نشان داده شده است.
* روش‌های بیزی، شبکه‌های عصبی، ماشین‌های بردار پشتیبان و طبقه‌بندی بدون نظارت را پوشش می‌دهد. تئوری.
* شامل مطالب پس زمینه در مورد عدم تشابه، تخمین پارامترها، داده ها، جبر خطی و احتمال است.
* دارای انواع تمرینات، از سوالات "کتاب باز" تا پروژه های طولانی تر.


این کتاب عمدتاً برای دانشجویان ارشد و کارشناسی ارشد که در زمینه‌های تشخیص الگوی آماری، پردازش الگو، عصبی مطالعه می‌کنند، طراحی شده است. شبکه ها و داده کاوی، هم در بخش آمار و هم در بخش مهندسی. همچنین یک منبع مرجع عالی برای متخصصان فنی است که در محیط های توسعه اطلاعات پیشرفته کار می کنند.

برای اطلاعات بیشتر در مورد تکنیک ها و کاربردهای مورد بحث در این کتاب، لطفاً به www.statistical-pattern-recognition.net

محتوا:
فصل 1 مقدمه ای بر تشخیص الگوی آماری ( صفحات 1-31):
فصل 2 تخمین چگالی - پارامتری (صفحه های 33-80):
فصل 3 تخمین چگالی - ناپارامتریک (صفحات 81-122):
فصل 4 تجزیه و تحلیل تفکیک خطی (صفحات 123-) 168):
فصل 5 تجزیه و تحلیل تفکیک غیرخطی - روش های هسته (صفحه های 169-202):
فصل 6 تجزیه و تحلیل تفکیک غیرخطی - روش های طرح ریزی (صفحات 203-224):
درخت فصل 7 (روش های مبتنی بر صفحه) 225-249):
عملکرد فصل 8 (صفحات 251-303):
فصل 9 انتخاب و استخراج ویژگی (صفحات 305-360):
فصل 10 خوشه بندی (صفحات 361-407):
فصل 11 موضوعات اضافی (صفحات 409-418):

توضیحاتی درمورد کتاب به خارجی

Statistical pattern recognition is a very active area of study and research, which has seen many advances in recent years. New and emerging applications - such as data mining, web searching, multimedia data retrieval, face recognition, and cursive handwriting recognition - require robust and efficient pattern recognition techniques. Statistical decision making and estimation are regarded as fundamental to the study of pattern recognition.


Statistical Pattern Recognition, Second Edition has been fully updated with new methods, applications and references. It provides a comprehensive introduction to this vibrant area - with material drawn from engineering, statistics, computer science and the social sciences - and covers many application areas, such as database design, artificial neural networks, and decision support systems.


* Provides a self-contained introduction to statistical pattern recognition.
* Each technique described is illustrated by real examples.
* Covers Bayesian methods, neural networks, support vector machines, and unsupervised classification.
* Each section concludes with a description of the applications that have been addressed and with further developments of the theory.
* Includes background material on dissimilarity, parameter estimation, data, linear algebra and probability.
* Features a variety of exercises, from 'open-book' questions to more lengthy projects.


The book is aimed primarily at senior undergraduate and graduate students studying statistical pattern recognition, pattern processing, neural networks, and data mining, in both statistics and engineering departments. It is also an excellent source of reference for technical professionals working in advanced information development environments.

For further information on the techniques and applications discussed in this book please visit www.statistical-pattern-recognition.net

Content:
Chapter 1 Introduction to Statistical Pattern Recognition (pages 1–31):
Chapter 2 Density Estimation – Parametric (pages 33–80):
Chapter 3 Density Estimation – Nonparametric (pages 81–122):
Chapter 4 Linear Discriminant Analysis (pages 123–168):
Chapter 5 Nonlinear Discriminant Analysis – Kernel Methods (pages 169–202):
Chapter 6 Nonlinear Discriminant Analysis – Projection Methods (pages 203–224):
Chapter 7 Tree?Based Methods (pages 225–249):
Chapter 8 Performance (pages 251–303):
Chapter 9 Feature Selection and Extraction (pages 305–360):
Chapter 10 Clustering (pages 361–407):
Chapter 11 Additional Topics (pages 409–418):


فهرست مطالب

Cover......Page 1
Contents......Page 7
Preface......Page 15
Notation......Page 17
1.1.1 Introduction......Page 19
1.1.2 The basic model......Page 20
1.2 Stages in a pattern recognition problem......Page 21
1.3 Issues......Page 22
1.4 Supervised versus unsupervised......Page 23
1.5.1 Elementary decision theory......Page 24
1.5.2 Discriminant functions......Page 37
1.6 Multiple regression......Page 43
1.7 Outline of book......Page 45
1.8 Notes and references......Page 46
Exercises......Page 48
2.1 Introduction......Page 51
2.2.1 Linear and quadratic discriminant functions......Page 52
2.2.2 Regularised discriminant analysis......Page 55
2.2.3 Example application study......Page 56
2.2.5 Summary......Page 58
2.3.1 Maximum likelihood estimation via EM......Page 59
2.3.2 Mixture models for discrimination......Page 63
2.3.3 How many components?......Page 64
2.3.4 Example application study......Page 65
2.3.6 Summary......Page 67
2.4.1 Bayesian learning methods......Page 68
2.4.2 Markov chain Monte Carlo......Page 73
2.4.3 Bayesian approaches to discrimination......Page 88
2.4.4 Example application study......Page 90
2.5 Application studies......Page 93
2.8 Notes and references......Page 95
Exercises......Page 96
3.1 Introduction......Page 99
3.2 Histogram method......Page 100
3.2.1 Data-adaptive histograms......Page 101
3.2.2 Independence assumption......Page 102
3.2.4 Maximum weight dependence trees......Page 103
3.2.5 Bayesian networks......Page 106
3.2.7 Further developments......Page 109
3.2.8 Summary......Page 110
3.3.1 k-nearest-neighbour decision rule......Page 111
3.3.3 Algorithms......Page 113
3.3.4 Editing techniques......Page 116
3.3.5 Choice of distance metric......Page 119
3.3.6 Example application study......Page 120
3.3.7 Further developments......Page 121
3.3.8 Summary......Page 122
3.4 Expansion by basis functions......Page 123
3.5 Kernel methods......Page 124
3.5.1 Choice of smoothing parameter......Page 129
3.5.2 Choice of kernel......Page 131
3.5.3 Example application study......Page 132
3.5.5 Summary......Page 133
3.6 Application studies......Page 134
3.7 Summary and discussion......Page 137
3.9 Notes and references......Page 138
Exercises......Page 139
4.1 Introduction......Page 141
4.2.2 Perceptron criterion......Page 142
4.2.3 Fisher’s criterion......Page 146
4.2.4 Least mean squared error procedures......Page 148
4.2.5 Support vector machines......Page 152
4.2.6 Example application study......Page 159
4.2.8 Summary......Page 160
4.3.1 General ideas......Page 162
4.3.3 Fisher’s criterion – linear discriminant analysis......Page 163
4.3.4 Least mean squared error procedures......Page 166
4.3.5 Optimal scaling......Page 170
4.3.7 Multiclass support vector machines......Page 173
4.3.9 Further developments......Page 174
4.4.1 Two-group case......Page 176
4.4.2 Maximum likelihood estimation......Page 177
4.4.3 Multiclass logistic discrimination......Page 179
4.4.4 Example application study......Page 180
4.5 Application studies......Page 181
4.6 Summary and discussion......Page 182
Exercises......Page 183
5.1 Introduction......Page 187
5.2.1 Least squares error measure......Page 189
5.2.2 Maximum likelihood......Page 193
5.2.3 Entropy......Page 194
5.3.1 Introduction......Page 195
5.3.2 Motivation......Page 196
5.3.3 Specifying the model......Page 199
5.3.6 Example application study......Page 205
5.3.8 Summary......Page 207
5.4 Nonlinear support vector machines......Page 208
5.4.1 Types of kernel......Page 209
5.4.3 Support vector machines for regression......Page 210
5.4.4 Example application study......Page 213
5.4.5 Further developments......Page 214
5.5 Application studies......Page 215
5.7 Recommendations......Page 217
Exercises......Page 218
6.1 Introduction......Page 221
6.2.1 Introduction......Page 222
6.2.3 Determining the multilayer perceptron weights......Page 223
6.2.4 Properties......Page 230
6.2.5 Example application study......Page 231
6.2.6 Further developments......Page 232
6.3.1 Introduction......Page 234
6.3.2 Projection pursuit for discrimination......Page 236
6.3.3 Example application study......Page 237
6.3.5 Summary......Page 238
6.5 Summary and discussion......Page 239
6.6 Recommendations......Page 240
Exercises......Page 241
7.2.1 Introduction......Page 243
7.2.2 Classifier tree construction......Page 246
7.2.3 Other issues......Page 255
7.2.5 Further developments......Page 257
7.2.6 Summary......Page 258
7.3.2 Recursive partitioning model......Page 259
7.3.3 Example application study......Page 262
7.4 Application studies......Page 263
7.6 Recommendations......Page 265
Exercises......Page 266
8.1 Introduction......Page 269
8.2.1 Discriminability......Page 270
8.2.2 Reliability......Page 276
8.2.3 ROC curves for two-class rules......Page 278
8.2.4 Example application study......Page 281
8.2.5 Further developments......Page 282
8.2.6 Summary......Page 283
8.3.1 Which technique is best?......Page 284
are uncertain......Page 285
8.3.4 Example application study......Page 287
8.3.5 Further developments......Page 288
8.4.1 Introduction......Page 289
8.4.2 Motivation......Page 290
8.4.3 Characteristics of a combination scheme......Page 293
8.4.4 Data fusion......Page 296
8.4.5 Classifier combination methods......Page 302
8.4.6 Example application study......Page 315
8.4.8 Summary......Page 316
8.6 Summary and discussion......Page 317
8.8 Notes and references......Page 318
Exercises......Page 319
9.1 Introduction......Page 323
9.2 Feature selection......Page 325
9.2.1 Feature selection criteria......Page 326
9.2.2 Search algorithms for feature selection......Page 329
9.2.3 Suboptimal search algorithms......Page 332
9.2.5 Further developments......Page 335
9.3 Linear feature extraction......Page 336
9.3.1 Principal components analysis......Page 337
9.3.2 Karhunen–Lo `eve transformation......Page 347
9.3.3 Factor analysis......Page 353
9.3.4 Example application study......Page 360
9.3.5 Further developments......Page 361
9.4 Multidimensional scaling......Page 362
9.4.1 Classical scaling......Page 363
9.4.2 Metric multidimensional scaling......Page 364
9.4.3 Ordinal scaling......Page 365
9.4.4 Algorithms......Page 368
9.4.5 Multidimensional scaling for feature extraction......Page 369
9.4.6 Example application study......Page 370
9.4.8 Summary......Page 371
9.5 Application studies......Page 372
9.7 Recommendations......Page 373
9.8 Notes and references......Page 374
Exercises......Page 375
10.1 Introduction......Page 379
10.2 Hierarchical methods......Page 380
10.2.1 Single-link method......Page 382
10.2.2 Complete-link method......Page 385
10.2.4 General agglomerative algorithm......Page 386
10.2.5 Properties of a hierarchical classification......Page 387
10.2.7 Summary......Page 388
10.3 Quick partitions......Page 389
10.4.1 Model description......Page 390
10.5 Sum-of-squares methods......Page 392
10.5.1 Clustering criteria......Page 393
10.5.2 Clustering algorithms......Page 394
10.5.3 Vector quantisation......Page 400
10.5.4 Example application study......Page 412
10.5.6 Summary......Page 413
10.6.1 Introduction......Page 414
10.6.3 Choosing the number of clusters......Page 415
10.6.4 Identifying genuine clusters......Page 417
10.7 Application studies......Page 418
10.8 Summary and discussion......Page 420
10.9 Recommendations......Page 422
10.10 Notes and references......Page 423
Exercises......Page 424
11.1 Model selection......Page 427
11.1.2 Cross-validation......Page 428
11.1.4 Akaike’s information criterion......Page 429
11.2 Learning with unreliable classification......Page 430
11.3 Missing data......Page 431
11.4 Outlier detection and robust procedures......Page 432
11.5 Mixed continuous and discrete variables......Page 433
11.6.1 Bounds on the expected risk......Page 434
11.6.2 The Vapnik–Chervonenkis dimension......Page 435
A.1.1 Numeric variables......Page 437
A.1.3 Binary variables......Page 441
A.1.4 Summary......Page 442
A.2.2 Methods based on probabilistic distance......Page 443
A.2.3 Probabilistic dependence......Page 446
A.3 Discussion......Page 447
B.1.1 Properties of estimators......Page 449
B.1.2 Maximum likelihood......Page 451
B.1.4 Bayesian estimates......Page 452
C.1 Basic properties and definitions......Page 455
C.2 Notes and references......Page 459
D.2 Formulating the problem......Page 461
D.3 Data collection......Page 462
D.4 Initial examination of data......Page 464
D.6 Notes and references......Page 466
E.1 Definitions and terminology......Page 467
E.2 Normal distribution......Page 472
E.3 Probability distributions......Page 473
References......Page 477
Index......Page 509




نظرات کاربران