دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Marco Gori
سری:
ISBN (شابک) : 9780081006597
ناشر: Morgan Kaufmann / Elsevier
سال نشر: 2018
تعداد صفحات: 563
زبان: english
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 4 مگابایت
در صورت تبدیل فایل کتاب Machine Learning. A Constraint-based Approach به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب فراگیری ماشین. یک رویکرد مبتنی بر محدودیت نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
یادگیری ماشینی: رویکرد مبتنی بر محدودیت، نگاهی تازه به مدلها و الگوریتمهای اساسی یادگیری ماشین، با تاکید بر موضوعات مورد علاقه فعلی که شامل شبکههای عصبی و ماشینهای هسته است، در اختیار خوانندگان قرار میدهد. این کتاب اطلاعات را به شیوه ای واقعاً یکپارچه ارائه می کند که مبتنی بر مفهوم یادگیری از محدودیت های محیطی است. در حالی که این کتاب به پایگاههای دانش نمادین به عنوان مجموعهای از محدودیتها توجه میکند، این کتاب مسیری را به سوی یکپارچگی عمیق با یادگیری ماشین ترسیم میکند که بر ایده اتخاذ فرمالیسمهای منطقی چند ارزشی، مانند سیستمهای فازی، تکیه دارد. توجه ویژه ای به یادگیری عمیق است که به خوبی با رویکرد مبتنی بر محدودیت دنبال شده در این کتاب مطابقت دارد. این کتاب مفهوم یکپارچه سادهتری از منظمسازی را ارائه میکند که به شدت با اصل صرفهجویی مرتبط است، و شامل بسیاری از تمرینهای حلشده است که بر اساس رتبهبندی دشواری دونالد کنوت طبقهبندی شدهاند، که اساساً شامل ترکیبی از تمرینهای گرم کردن است که منجر به مشکلات تحقیق عمیق تر یک شبیه ساز نرم افزار نیز گنجانده شده است.
Machine Learning: A Constraint-Based Approach provides readers with a refreshing look at the basic models and algorithms of machine learning, with an emphasis on current topics of interest that includes neural networks and kernel machines. The book presents the information in a truly unified manner that is based on the notion of learning from environmental constraints. While regarding symbolic knowledge bases as a collection of constraints, the book draws a path towards a deep integration with machine learning that relies on the idea of adopting multivalued logic formalisms, like in fuzzy systems. A special attention is reserved to deep learning, which nicely fits the constrained- based approach followed in this book. This book presents a simpler unified notion of regularization, which is strictly connected with the parsimony principle, and includes many solved exercises that are classified according to the Donald Knuth ranking of difficulty, which essentially consists of a mix of warm-up exercises that lead to deeper research problems. A software simulator is also included.
Cover Half-Title Page Machine Learning: A Constraint-Based Approach Copyright Dedication Contents Preface Acknowledgments Reading guidelines Notes on the Exercises 1 The Big Picture 1.1 Why Do Machines Need to Learn? 1.1.1 Learning Tasks 1.1.2 Symbolic and Subsymbolic Representations of the Environment 1.1.3 Biological and Artificial Neural Networks 1.1.4 Protocols of Learning 1.1.5 Constraint-Based Learning 1.2 Principles and Practice 1.2.1 The Puzzling Nature of Induction 1.2.2 Learning Principles 1.2.3 The Role of Time in Learning Processes 1.2.4 Focus of Attention 1.3 Hands-on Experience 1.3.1 Measuring the Success of Experiments 1.3.2 Handwritten Character Recognition 1.3.3 Setting up a Machine Learning Experiment 1.3.4 Test and Experimental Remarks 1.4 Challenges in Machine Learning 1.4.1 Learning to See 1.4.2 Speech Understanding 1.4.3 Agents Living in Their Own Environment 1.5 Scholia 2 Learning Principles 2.1 Environmental Constraints 2.1.1 Loss and Risk Functions 2.1.2 Ill-Position of Constraint-Induced Risk Functions 2.1.3 Risk Minimization 2.1.4 The Bias-Variance Dilemma 2.2 Statistical Learning 2.2.1 Maximum Likelihood Estimation 2.2.2 Bayesian Inference 2.2.3 Bayesian Learning 2.2.4 Graphical Modes 2.2.5 Frequentist and Bayesian Approach 2.3 Information-Based Learning 2.3.1 A Motivating Example 2.3.2 Principle of Maximum Entropy 2.3.3 Maximum Mutual Information 2.4 Learning Under the Parsimony Principle 2.4.1 The Parsimony Principle 2.4.2 Minimum Description Length 2.4.3 MDL and Regularization 2.4.4 Statistical Interpretation of Regularization 2.5 Scholia 3 Linear Threshold Machines 3.1 Linear Machines 3.1.1 Normal Equations 3.1.2 Undetermined Problems and Pseudoinversion 3.1.3 Ridge Regression 3.1.4 Primal and Dual Representations 3.2 Linear Machines With Threshold Units 3.2.1 Predicate-Order and Representational Issues 3.2.2 Optimality for Linearly-Separable Examples 3.2.2.1 Sigmoidal Unit and Quadratic Loss 3.2.2.2 Linear Unit and Hinge Function 3.2.3 Failing to Separate 3.3 Statistical View 3.3.1 Bayesian Decision and Linear Discrimination 3.3.2 Logistic Regression 3.3.3 The Parsimony Principle Meets the Bayesian Decision 3.3.4 LMS in the Statistical Framework 3.4 Algorithmic Issues 3.4.1 Gradient Descent 3.4.2 Stochastic Gradient Descent 3.4.3 The Perceptron Algorithm 3.4.4 Complexity Issues 3.5 Scholia 4 Kernel Machines 4.1 Feature Space 4.1.1 Polynomial Preprocessing 4.1.2 Boolean Enrichment 4.1.3 Invariant Feature Maps 4.1.4 Linear-Separability in High-Dimensional Spaces 4.2 Maximum Margin Problem 4.2.1 Classification Under Linear-Separability 4.2.2 Dealing With Soft-Constraints 4.2.3 Regression 4.3 Kernel Functions 4.3.1 Similarity and Kernel Trick 4.3.2 Characterization of Kernels 4.3.3 The Reproducing Kernel Map 4.3.4 Types of Kernels 4.4 Regularization 4.4.1 Regularized Risks 4.4.2 Regularization in RKHS 4.4.3 Minimization of Regularized Risks 4.4.4 Regularization Operators 4.5 Scholia 5 Deep Architectures 5.1 Architectural Issues 5.1.1 Digraphs and Feedforward Networks 5.1.2 Deep Paths 5.1.2.1 Heaviside Function 5.1.2.2 Rectifier 5.1.2.3 Polynomial Functions 5.1.2.4 Squash Functions 5.1.2.5 Exponential Functions 5.1.3 From Deep to Relaxation-Based Architectures 5.1.4 Classifiers, Regressors, and Auto-Encoders 5.2 Realization of Boolean Functions 5.2.1 Canonical Realizations by and-or Gates 5.2.2 Universal nand Realization 5.2.3 Shallow vs Deep Realizations 5.2.4 LTU-Based Realizations and Complexity Issues 5.3 Realization of Real-Valued Functions 5.3.1 Computational Geometry-Based Realizations 5.3.2 Universal Approximation 5.3.3 Solution Space and Separation Surfaces 5.3.4 Deep Networks and Representational Issues 5.4 Convolutional Networks 5.4.1 Kernels, Convolutions, and Receptive Fields 5.4.2 Incorporating Invariance 5.4.3 Deep Convolutional Networks 5.5 Learning in Feedforward Networks 5.5.1 Supervised Learning 5.5.2 Backpropagation 5.5.3 Symbolic and Automatic Differentiation 5.5.4 Regularization Issues 5.6 Complexity Issues 5.6.1 On the Problem of Local Minima 5.6.2 Facing Saturation 5.6.3 Complexity and Numerical Issues 5.7 Scholia 6 Learning and Reasoning With Constraints 6.1 Constraint Machines 6.1.1 Walking Through Learning and Inference 6.1.2 A Unified View of Constrained Environments 6.1.3 Functional Representation of Learning Tasks 6.1.4 Reasoning With Constraints 6.2 Logic Constraints in the Environment 6.2.1 Formal Logic and Complexity of Reasoning 6.2.2 Environments With Symbols and Subsymbols 6.2.3 T-Norms 6.2.4 Łukasiewicz Propositional Logic 6.3 Diffusion Machines 6.3.1 Data Models 6.3.2 Diffusion in Spatiotemporal Environments 6.3.3 Recurrent Neural Networks 6.4 Algorithmic Issues 6.4.1 Pointwise Content-Based Constraints 6.4.2 Propositional Constraints in the Input Space 6.4.3 Supervised Learning With Linear Constraints 6.4.4 Learning Under Diffusion Constraints 6.5 Life-Long Learning Agents 6.5.1 Cognitive Action and Temporal Manifolds 6.5.2 Energy Balance 6.5.3 Focus of Attention, Teaching, and Active Learning 6.5.4 Developmental Learning 6.6 Scholia 7 Epilogue 8 Answers to Exercises Section 1.1 Section 1.2 Section 1.3 Section 2.1 Section 2.2 Section 3.1 Section 3.2 Section 3.3 Section 3.4 Section 4.1 Section 4.2 Section 4.3 Section 4.4 Section 5.1 Section 5.2 Section 5.3 Section 5.4 Section 5.5 Section 5.7 Section 6.1 Section 6.2 Section 6.3 Section 6.4 A. Constrained Optimization in Finite Dimensions B. Regularization Operators C. Calculus of Variations C.1 Functionals and Variations C.2 Basic Notion on Variations C.3 Euler-Lagrange Equations C.4 Variational Problems With Subsidiary Conditions D. Index to Notation Bibliography Index Back COver