دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Ulisses Braga-Neto
سری:
ISBN (شابک) : 3030276554, 9783030276553
ناشر: Springer
سال نشر: 2020
تعداد صفحات: 366
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 10 مگابایت
در صورت تبدیل فایل کتاب Fundamentals of Pattern Recognition and Machine Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب مبانی شناخت الگو و یادگیری ماشین نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
اصول تشخیص الگو و یادگیری ماشین برای یک دوره مقدماتی یک یا دو ترم در تشخیص الگو یا یادگیری ماشین در مقطع کارشناسی ارشد یا پیشرفته طراحی شده است. این کتاب تئوری و عمل را ترکیب کرده و برای کلاس درس و خودآموزی مناسب است. این از یادداشتهای سخنرانی و تکالیفی است که نویسنده هنگام تدریس در کلاسهای این موضوع در 13 سال گذشته در دانشگاه A&M تگزاس ایجاد کرده است. کتاب در نظر گرفته شده است مختصر اما کامل باشد. این یک رویکرد دایرهالمعارفی نیست، اما با جزئیات قابل توجهی ابزارهایی را که معمولاً در تشخیص الگو و یادگیری ماشین استفاده میشوند، از جمله طبقهبندی، کاهش ابعاد، رگرسیون و خوشهبندی، و همچنین موضوعات رایج اخیر مانند رگرسیون فرآیند گاوسی و شبکههای عصبی کانولوشنال را پوشش میدهد. . علاوه بر این، انتخاب موضوعات دارای چند ویژگی است که در میان متون قابل مقایسه منحصر به فرد است: شامل یک فصل گسترده در مورد تخمین خطای طبقهبندیکننده، و همچنین بخشهایی درباره طبقهبندی بیزی، تخمین خطای بیزی، نمونهگیری جداگانه، و طبقهبندی مبتنی بر رتبه است. این کتاب از نظر ریاضی دقیق است و قضایای کلاسیک در این منطقه را پوشش می دهد. با این وجود، در کتاب تلاش شده است تا تعادلی بین نظریه و عمل ایجاد شود. به طور خاص، نمونههایی با مجموعه دادهها از برنامههای کاربردی در بیوانفورماتیک و انفورماتیک مواد در سراسر برای نشان دادن این نظریه استفاده میشوند. این مجموعه دادهها از وبسایت کتاب در دسترس هستند تا در تکالیف کدگذاری پایان فصل بر اساس پایتون و scikit-learn استفاده شوند. تمام نمودارهای متن با استفاده از اسکریپت های پایتون تولید شده اند که در وب سایت کتاب نیز موجود است.
Fundamentals of Pattern Recognition and Machine Learning is designed for a one or two-semester introductory course in Pattern Recognition or Machine Learning at the graduate or advanced undergraduate level. The book combines theory and practice and is suitable to the classroom and self-study. It has grown out of lecture notes and assignments that the author has developed while teaching classes on this topic for the past 13 years at Texas A&M University. The book is intended to be concise but thorough. It does not attempt an encyclopedic approach, but covers in significant detail the tools commonly used in pattern recognition and machine learning, including classification, dimensionality reduction, regression, and clustering, as well as recent popular topics such as Gaussian process regression and convolutional neural networks. In addition, the selection of topics has a few features that are unique among comparable texts: it contains an extensive chapter on classifier error estimation, as well as sections on Bayesian classification, Bayesian error estimation, separate sampling, and rank-based classification. The book is mathematically rigorous and covers the classical theorems in the area. Nevertheless, an effort is made in the book to strike a balance between theory and practice. In particular, examples with datasets from applications in bioinformatics and materials informatics are used throughout to illustrate the theory. These datasets are available from the book website to be used in end-of-chapter coding assignments based on python and scikit-learn. All plots in the text were generated using python scripts, which are also available on the book website.
Preface Contents Chapter 1 Introduction 1.1 Pattern Recognition and Machine Learning 1.2 Basic Mathematical Setting 1.3 Prediction 1.4 Prediction Error 1.5 Supervised vs. Unsupervised Learning 1.6 Complexity Trade-O.s 1.7 The Design Cycle 1.8 Application Examples 1.8.1 Bioinformatics 1.8.2 Materials Informatics 1.9 Bibliographical Notes Chapter 2 Optimal Classification 2.1 Classification without Features 2.2 Classification with Features 2.3 The Bayes Classifier 2.4 The Bayes Error 2.5 Gaussian Model 2.5.1 Homoskedastic Case 2.5.2 Heteroskedastic Case 2.6 Additional Topics 2.6.1 Minimax Classification 2.6.2 F-errors 2.6.3 Bayes Decision Theory *2.6.4 Rigorous Formulation of the Classification Problem 2.7 Bibliographical Notes 2.8 Exercises 2.9 Python Assignments Chapter 3 Sample-Based Classification 3.1 Classification Rules 3.2 Classification Error Rates *3.3 Consistency 3.4 No-Free-Lunch Theorems 3.5 Additional Topics 3.5.1 Ensemble Classification 3.5.2 Mixture Sampling vs. Separate Sampling 3.6 Bibliographical Notes 3.7 Exercises 3.8 Python Assignments Chapter 4 Parametric Classification 4.1 Parametric Plug-in Rules 4.2 Gaussian Discriminant Analysis 4.2.1 Linear Discriminant Analysis 4.2.2 Quadratic Discriminant Analysis 4.3 Logistic Classification 4.4 Additional Topics 4.4.1 Regularized Discriminant Analysis *4.4.2 Consistency of Parametric Rules 4.4.3 Bayesian Parametric Rules 4.5 Bibliographical Notes 4.6 Exercises 4.7 Python Assignments Chapter 5 Nonparametric Classification 5.1 Nonparametric Plug-in Rules 5.2 Histogram Classification 5.3 Nearest-Neighbor Classification 5.4 Kernel Classification 5.5 Cover-Hart Theorem *5.6 Stone’s Theorem 5.7 Bibliographical Notes 5.8 Exercises 5.9 Python Assignments Chapter 6 Function-Approximation Classification 6.1 Support Vector Machines 6.1.1 Linear SVMs for Separable Data 6.1.2 General Linear SVMs 6.1.3 Nonlinear SVMs 6.2 Neural Networks 6.2.1 Backpropagation Training 6.2.2 Convolutional Neural Networks *6.2.3 Universal Approximation Property of Neural Networks *6.2.4 Universal Consistency Theorems 6.3 Decision Trees 6.4 Rank-Based Classifiers 6.5 Bibliographical Notes 6.6 Exercises 6.7 Python Assignments Chapter 7 Error Estimation for Classification 7.1 Error Estimation Rules 7.2 Error Estimation Performance 7.2.1 Deviation Distribution 7.2.2 Bias, Variance, RMS, and Tail Probabilities *7.2.3 Consistency 7.3 Test-Set Error Estimation 7.4 Resubstitution 7.5 Cross-Validation 7.6 Bootstrap 7.7 Bolstered Error Estimation 7.8 Additional Topics 7.8.1 Convex Error Estimators 7.8.2 Smoothed Error Estimators 7.8.3 Bayesian Error Estimation 7.9 Bibliographical Notes 7.10 Exercises 7.11 Python Assignments Chapter 8 Model Selection for Classification 8.1 Classification Complexity 8.2 Vapnik-Chervonenkis Theory *8.2.1 Finite Model Selection 8.2.2 Shatter Coefficients and VC Dimension 8.2.3 VC Parameters of a Few Classification Rules 8.2.4 Vapnik-Chervonenkis Theorem 8.2.5 No-Free-Lunch Theorems 8.3 Model Selection Methods 8.3.1 Validation Error Minimization 8.3.2 Training Error Minimization 8.3.3 Structural Risk Minimization 8.4 Bibliographical Notes 8.5 Exercises Chapter 9 Dimensionality Reduction 9.1 Feature Extraction for Classification 9.2 Feature Selection 9.2.1 Exhaustive Search 9.2.2 Univariate Greedy Search 9.2.3 Multivariate Greedy Search 9.2.4 Feature Selection and Classification Complexity 9.2.5 Feature Selection and Error Estimation 9.3 Principal Component Analysis (PCA) 9.4 Multidimensional Scaling (MDS) 9.5 Factor Analysis 9.6 Bibliographical Notes 9.7 Exercises 9.8 Python Assignments Chapter 10 Clustering 10.1 K-Means Algorithm 10.2 Gaussian Mixture Modeling 10.2.1 Expectation-Maximization Approach 10.2.2 Relationship to Means 10.3 Hierarchical Clustering 10.4 Self-Organizing Maps (SOM) 10.5 Bibliographical Notes 10.6 Exercises 10.7 Python Assignments Chapter 11 Regression 11.1 Optimal Regression 11.2 Sample-Based Regression 11.3 Parametric Regression 11.3.1 Linear Regression 11.3.2 Gauss-Markov Theorem 11.3.3 Penalized Least Squares 11.4 Nonparametric Regression 11.4.1 Kernel Regression 11.4.2 Gaussian Process Regression 11.5 Function-Approximation Regression 11.6 Error Estimation 11.7 Variable Selection 11.7.1 Wrapper Search 11.7.2 Statistical Testing 11.7.3 LASSO and Elastic Net 11.8 Model Selection 11.9 Bibliographical Notes 11.10 Exercises 11.11 Python Assignments Appendix A1 Probability Theory A1.1 Sample Space and Events A1.2 Probability Measure A1.3 Conditional Probability and Independence A1.4 Random Variables A1.5 Joint and Conditional Distributions A1.6 Expectation A1.7 Vector Random Variables A1.8 Convergence of Random Sequences A1.9 Asymptotic Theorems A2 Basic Matrix Theory A3 Basic Lagrange-Multiplier Optimization A4 Proof of the Cover-Hart Theorem A5 Proof of Stone’s Theorem A6 Proof of the Vapnik-Chervonenkis Theorem A7 Proof of Convergence of the EM Algorithm A8 Data Sets Used in the Book A8.1 Synthetic Data A8.2 Dengue Fever Prognosis Data Set A8.3 Breast Cancer Prognosis Data Set A8.4 Stacking Fault Energy Data Set A8.5 Soft Magnetic Alloy Data Set A8.6 Ultrahigh Carbon Steel Data Set List of Symbols Bibliography Index