دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: SPIE, Dalton. Lori A., Dougherty. Edward R سری: SPIE; SPIE press monograph ISBN (شابک) : 9781510630697, 9781510630727 ناشر: SPIE Press سال نشر: 2020 تعداد صفحات: 360 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
کلمات کلیدی مربوط به کتاب طبقه بندی بیزی بهینه: نظریه تصمیم گیری آماری بیزی، تصمیم آماری
در صورت تبدیل فایل کتاب Optimal Bayesian classification به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب طبقه بندی بیزی بهینه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
"اصلی ترین مشکل مهندسی طراحی عملگرهای بهینه است. طراحی بسته به فرآیند تصادفی که مدل علمی را تشکیل می دهد و کلاس عملگر مورد علاقه، اشکال مختلفی دارد. این کتاب به طبقه بندی می پردازد، جایی که فرآیند تصادفی زیربنایی یک برچسب ویژگی است. توزیع، و یک عملگر بهینه یک طبقهبندی کننده بیز است، که طبقهبندیکنندهای است که خطای طبقهبندی را به حداقل میرساند. با دانش کافی میتوانیم توزیع برچسب ویژگی را بسازیم و در نتیجه یک طبقهبندیکننده بیز پیدا کنیم. به ندرت چنین دانشی داریم. از طرف دیگر. اگر دادههای نامحدودی داشتیم، میتوانستیم توزیع برچسب ویژگی را با دقت تخمین بزنیم و یک طبقهبندی کننده بیز به دست آوریم. به ندرت دادههای کافی در اختیار داریم. هدف این کتاب استفاده بهینه از دانش و دادههای موجود برای طراحی یک طبقهبندی کننده است. کتاب یک رویکرد بیزی برای مدلسازی توزیع برچسب ویژگی دارد و یک طبقهبندی کننده بهینه نسبت به توزیع پسینی طراحی میکند که بر کلاس عدم قطعیت توزیعهای برچسب ویژگی حاکم است. به این ترتیب از دانش مربوط به سیستم زیربنایی و داده های موجود بهره کامل می برد. منشأ آن در نیاز به تخمین خطای طبقهبندی کننده زمانی است که دادههای کافی برای نگهداری دادههای آزمون وجود ندارد، در این صورت میتوان تخمین خطای بهینه را نسبت به کلاس عدم قطعیت به دست آورد. گام بعدی طبیعی این است که از طراحی طبقهبندیکننده موقت کلاسیک چشم پوشی کنید و به سادگی یک طبقهبندی کننده بهینه نسبت به توزیع پسین بر روی کلاس عدم قطعیت پیدا کنید - این یک طبقهبندی کننده بیزی بهینه است.
"The most basic problem of engineering is the design of optimal operators. Design takes different forms depending on the random process constituting the scientific model and the operator class of interest. This book treats classification, where the underlying random process is a feature-label distribution, and an optimal operator is a Bayes classifier, which is a classifier minimizing the classification error. With sufficient knowledge we can construct the feature-label distribution and thereby find a Bayes classifier. Rarely, do we possess such knowledge. On the other hand, if we had unlimited data, we could accurately estimate the feature-label distribution and obtain a Bayes classifier. Rarely do we possess sufficient data. The aim of this book is to best use whatever knowledge and data are available to design a classifier. The book takes a Bayesian approach to modeling the feature-label distribution and designs an optimal classifier relative to a posterior distribution governing an uncertainty class of feature-label distributions. In this way it takes full advantage of knowledge regarding the underlying system and the available data. Its origins lie in the need to estimate classifier error when there is insufficient data to hold out test data, in which case an optimal error estimate can be obtained relative to the uncertainty class. A natural next step is to forgo classical ad hoc classifier design and simply find an optimal classifier relative to the posterior distribution over the uncertainty class-this being an optimal Bayesian classifier"
Contents......Page 7
Preface......Page 12
Acknowledgments......Page 16
1.1 Classifiers......Page 17
1.2 Constrained Classifiers......Page 21
1.3 Error Estimation......Page 27
1.4 Random Versus Separate Sampling......Page 32
1.5 Epistemology and Validity......Page 34
1.5.1 RMS bounds......Page 36
1.5.2 Error RMS in the Gaussian model......Page 38
2.1 The Bayesian MMSE Error Estimator......Page 41
2.2 Evaluation of the Bayesian MMSE Error Estimator......Page 48
2.3 Performance Evaluation at a Fixed Point......Page 49
2.4 Discrete Model......Page 52
2.4.1 Representation of the Bayesian MMSE error estimator......Page 53
2.4.2 Performance and robustness in the discrete model......Page 54
2.5 Gaussian Model......Page 62
2.5.1 Independent covariance model......Page 63
2.5.2 Homoscedastic covariance model......Page 66
2.5.3 Effective class-conditional densities......Page 69
2.5.4 Bayesian MMSE error estimator for linear classification......Page 77
2.6.1 Fixed circular Gaussian distributions......Page 81
2.6.2 Robustness to falsely assuming identity covariances......Page 84
2.6.3 Robustness to falsely assuming Gaussianity......Page 85
2.6.4 Average performance under proper priors......Page 91
2.7 Consistency of Bayesian Error Estimation......Page 92
2.7.1 Convergence of posteriors......Page 93
2.7.2 Sufficient conditions for consistency......Page 95
2.7.3 Discrete and Gaussian models......Page 98
2.8.1 MMSE calibration function......Page 101
2.8.2 Performance with LDA......Page 104
2.9 Optimal Bayesian ROC-based Analysis......Page 107
2.9.1 Bayesian MMSE FPR and TPR estimation......Page 108
2.9.2 Bayesian MMSE ROC and AUC estimation......Page 109
2.9.3 Performance study......Page 111
3.1 Conditional MSE of Error Estimators......Page 117
3.2 Evaluation of the Conditional MSE......Page 120
3.3 Discrete Model......Page 122
3.4.1 Effective joint class-conditional densities......Page 126
3.4.2 Sample-conditioned MSE for linear classification......Page 133
3.4.3 Closed-form expressions for functions I and R......Page 145
3.5 Average Performance in the Gaussian Model......Page 151
3.6 Convergence of the Sample-Conditioned MSE......Page 152
3.7 A Performance Bound for the Discrete Model......Page 153
3.8 Censored Sampling......Page 156
3.8.1 Gaussian model......Page 157
3.9 Asymptotic Approximation of the RMS......Page 159
3.9.1 Bayesian–Kolmogorov asymptotic conditions......Page 161
3.9.2 Conditional expectation......Page 163
3.9.3 Unconditional expectation......Page 169
3.9.4 Conditional second moments......Page 171
3.9.5 Unconditional second moments......Page 177
3.9.6 Unconditional MSE......Page 180
4.1 Optimal Operator Design Under Uncertainty......Page 184
4.2 Optimal Bayesian Classifier......Page 188
4.3 Discrete Model......Page 189
4.4.1 Both covariances known......Page 191
4.4.2 Both covariances diagonal......Page 193
4.4.3 Both covariances scaled identity or general......Page 194
4.4.4 Mixed covariance models......Page 203
4.4.5 Average performance in the Gaussian model......Page 205
4.5 Transformations of the Feature Space......Page 210
4.6 Convergence of the Optimal Bayesian Classifier......Page 211
4.7.1 Falsely assuming homoscedastic covariances......Page 218
4.7.2 Falsely assuming the variance of the features......Page 220
4.7.3 Falsely assuming the mean of a class......Page 221
4.7.4 Falsely assuming Gaussianity under Johnson distributions......Page 223
4.8 Intrinsically Bayesian Robust Classifiers......Page 225
4.9 Missing Values......Page 227
4.10 Optimal Sampling......Page 234
4.10.1 MOCU-based optimal experimental design......Page 235
4.10.2 MOCU-based optimal sampling......Page 237
4.11.1 Prior and posterior distributions for VAR processes......Page 240
4.11.2 OBC for VAR processes......Page 243
5 Optimal Bayesian Risk-based Multi-class Classification......Page 251
5.1 Bayes Decision Theory......Page 252
5.2 Bayesian Risk Estimation......Page 253
5.3 Optimal Bayesian Risk Classification......Page 254
5.4 Sample-Conditioned MSE of Risk Estimation......Page 259
5.5 Efficient Computation......Page 260
5.6 Evaluation of Posterior Mixed Moments: Discrete Model......Page 262
5.7.1 Known covariance......Page 264
5.7.2 Homoscedastic general covariance......Page 265
5.7.3 Independent general covariance......Page 269
5.8 Simulations......Page 270
6.1 Joint Prior Distribution......Page 275
6.2 Posterior Distribution in the Target Domain......Page 279
6.3 Optimal Bayesian Transfer Learning Classifier......Page 287
6.3.1 OBC in the target domain......Page 290
6.4 OBTLC with Negative Binomial Distribution......Page 295
7 Construction of Prior Distributions......Page 301
7.1 Prior Construction Using Data from Discarded Features......Page 302
7.2 Prior Knowledge from Stochastic Differential Equations......Page 309
7.2.1 Binary classification of Gaussian processes......Page 310
7.2.2 SDE prior knowledge in the BCGP model......Page 313
7.3 Maximal Knowledge-Driven Information Prior......Page 317
7.3.1 Conditional probabilistic constraints......Page 321
7.3.2 Dirichlet prior distribution......Page 323
7.4.1 Pathway knowledge......Page 326
7.4.2 REMLP optimization......Page 328
7.4.3 Application of a normal-Wishart prior......Page 329
7.4.4 Incorporating regulation types......Page 332
7.4.5 A synthetic example......Page 334
References......Page 339
Index......Page 355