دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Mykel J. Kochenderfer, Tim A. Wheeler, Kyle H. Wray سری: ناشر: Massachusetts Institute of Technolog سال نشر: 2022 تعداد صفحات: [690] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 8 Mb
در صورت تبدیل فایل کتاب Algorithms for Decision Making به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب الگوریتم های تصمیم گیری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب مقدمه ای گسترده برای الگوریتم های تصمیم گیری در شرایط عدم قطعیت ارائه می دهد. ما طیف گستردهای از موضوعات مرتبط با تصمیمگیری را پوشش میدهیم، فرمولهای اساسی مسائل ریاضی و الگوریتمهای حل آنها را معرفی میکنیم. شکل ها، مثال ها و تمرین ها برای انتقال شهود پشت رویکردهای مختلف ارائه شده است. این متن برای دانشجویان پیشرفته در مقطع کارشناسی و کارشناسی ارشد و همچنین حرفه ای ها در نظر گرفته شده است. این کتاب به بلوغ ریاضی نیاز دارد و قرار گرفتن در معرض قبلی را با حساب چند متغیره، جبر خطی، و مفاهیم احتمال فرض میکند. برخی از مطالب بررسی در پیوست ارائه شده است. رشته هایی که این کتاب به ویژه مفید است شامل ریاضیات، آمار، علوم کامپیوتر، هوافضا، مهندسی برق و تحقیقات عملیاتی است. اساس این کتاب درسی الگوریتم هایی هستند که همگی در زبان برنامه نویسی جولیا پیاده سازی شده اند. ما دریافتیم که این زبان برای تعیین الگوریتمها به شکل قابل خواندن توسط انسان ایدهآل است. اولویت در طراحی پیادهسازی الگوریتمی، تفسیرپذیری بود تا کارایی. برای مثال، برنامه های صنعتی ممکن است از پیاده سازی های جایگزین بهره مند شوند. اجازه استفاده رایگان از کدهای مرتبط با این کتاب، مشروط به ذکر منبع کد داده شده است.
This book provides a broad introduction to algorithms for decision making under uncertainty. We cover a wide variety of topics related to decision making, introducing the underlying mathematical problem formulations and the algorithms for solving them. Figures, examples, and exercises are provided to convey the intuition behind the various approaches. This text is intended for advanced undergraduates and graduate students as well as professionals. The book requires some mathematical maturity and assumes prior exposure to multivariable calculus, linear algebra, and probability concepts. Some review material is provided in the appendix. Disciplines where the book would be especially useful include mathematics, statistics, computer science, aerospace, electrical engineering, and operations research. Fundamental to this textbook are the algorithms, which are all implemented in the Julia programming language. We have found the language to be ideal for specifying algorithms in human readable form. The priority in the design of the algorithmic implementations was interpretability rather than efficiency. Industrial applications, for example, may benefit from alternative implementations. Permission is granted, free of charge, to use the code snippets associated with this book, subject to the condition that the source of the code is acknowledged.
Preface Acknowledgments Introduction Decision Making Applications Methods History Societal Impact Overview I Probabilistic Reasoning Representation Degrees of Belief and Probability Probability Distributions Joint Distributions Conditional Distributions Bayesian Networks Conditional Independence Summary Exercises Inference Inference in Bayesian Networks Inference in Naive Bayes Models Sum-Product Variable Elimination Belief Propagation Computational Complexity Direct Sampling Likelihood Weighted Sampling Gibbs Sampling Inference in Gaussian Models Summary Exercises Parameter Learning Maximum Likelihood Parameter Learning Bayesian Parameter Learning Nonparametric Learning Learning with Missing Data Summary Exercises Structure Learning Bayesian Network Scoring Directed Graph Search Markov Equivalence Classes Partially Directed Graph Search Summary Exercises Simple Decisions Constraints on Rational Preferences Utility Functions Utility Elicitation Maximum Expected Utility Principle Decision Networks Value of Information Irrationality Summary Exercises II Sequential Problems Exact Solution Methods Markov Decision Processes Policy Evaluation Value Function Policies Policy Iteration Value Iteration Asynchronous Value Iteration Linear Program Formulation Linear Systems with Quadratic Reward Summary Exercises Approximate Value Functions Parametric Representations Nearest Neighbor Kernel Smoothing Linear Interpolation Simplex Interpolation Linear Regression Neural Network Regression Summary Exercises Online Planning Receding Horizon Planning Lookahead with Rollouts Forward Search Branch and Bound Sparse Sampling Monte Carlo Tree Search Heuristic Search Labeled Heuristic Search Open-Loop Planning Summary Exercises Policy Search Approximate Policy Evaluation Local Search Genetic Algorithms Cross Entropy Method Evolution Strategies Isotropic Evolutionary Strategies Summary Exercises Policy Gradient Estimation Finite Difference Regression Gradient Likelihood Ratio Reward-to-Go Baseline Subtraction Summary Exercises Policy Gradient Optimization Gradient Ascent Update Restricted Gradient Update Natural Gradient Update Trust Region Update Clamped Surrogate Objective Summary Exercises Actor-Critic Methods Actor-Critic Generalized Advantage Estimation Deterministic Policy Gradient Actor-Critic with Monte Carlo Tree Search Summary Exercises Policy Validation Performance Metric Evaluation Rare Event Simulation Robustness Analysis Trade Analysis Adversarial Analysis Summary Exercises III Model Uncertainty Exploration and Exploitation Bandit Problems Bayesian Model Estimation Undirected Exploration Strategies Directed Exploration Strategies Optimal Exploration Strategies Exploration with Multiple States Summary Exercises Model-Based Methods Maximum Likelihood Models Update Schemes Exploration Bayesian Methods Bayes-adaptive MDPs Posterior Sampling Summary Exercises Model-Free Methods Incremental Estimation of the Mean Q-Learning Sarsa Eligibility Traces Reward Shaping Action Value Function Approximation Experience Replay Summary Exercises Imitation Learning Behavioral Cloning Dataset Aggregation Stochastic Mixing Iterative Learning Maximum Margin Inverse Reinforcement Learning Maximum Entropy Inverse Reinforcement Learning Generative Adversarial Imitation Learning Summary Exercises IV State Uncertainty Beliefs Belief Initialization Discrete State Filter Linear Gaussian Filter Extended Kalman Filter Unscented Kalman Filter Particle Filter Particle Injection Summary Exercises Exact Belief State Planning Belief-State Markov Decision Processes Conditional Plans Alpha Vectors Pruning Value Iteration Linear Policies Summary Exercises Offline Belief State Planning Fully Observable Value Approximation Fast Informed Bound Fast Lower Bounds Point-Based Value Iteration Randomized Point-Based Value Iteration Sawtooth Upper Bound Point Selection Sawtooth Heuristic Search Triangulated Value Functions Summary Exercises Online Belief State Planning Lookahead with Rollouts Forward Search Branch and Bound Sparse Sampling Monte Carlo Tree Search Determinized Sparse Tree Search Gap Heuristic Search Summary Exercises Controller Abstractions Controllers Policy Iteration Nonlinear Programming Gradient Ascent Summary Exercises V Multiagent Systems Multiagent Reasoning Simple Games Response Models Dominant Strategy Equilibrium Nash Equilibrium Correlated Equilibrium Iterated Best Response Hierarchical Softmax Fictitious Play Gradient Ascent Summary Exercises Sequential Problems Markov Games Response Models Nash Equilibrium Fictitious Play Gradient Ascent Nash Q-Learning Summary Exercises State Uncertainty Partially Observable Markov Games Policy Evaluation Nash Equilibrium Dynamic Programming Summary Exercises Collaborative Agents Decentralized Partially Observable Markov Decision Processes Subclasses Dynamic Programming Iterated Best Response Heuristic Search Nonlinear Programming Summary Exercises Appendices Mathematical Concepts Measure Spaces Probability Spaces Metric Spaces Normed Vector Spaces Positive Definiteness Convexity Information Content Entropy Cross Entropy Relative Entropy Gradient Ascent Taylor Expansion Monte Carlo Estimation Importance Sampling Contraction Mappings Graphs Probability Distributions Computational Complexity Asymptotic Notation Time Complexity Classes Space Complexity Classes Decideability Neural Representations Neural Networks Feedforward Networks Parameter Regularization Convolutional Neural Networks Recurrent Networks Autoencoder Networks Adversarial Networks Search Algorithms Search Problems Search Graphs Forward Search Branch and Bound Dynamic Programming Heuristic Search Problems Hex World 2048 Cart-Pole Mountain Car Simple Regulator Aircraft Collision Avoidance Crying Baby Machine Replacement Catch Prisoner's Dilemma Rock-Paper-Scissors Traveler's Dilemma Predator-Prey Hex World Multi-Caregiver Crying Baby Collaborative Predator-Prey Hex World Julia Types Functions Control Flow Packages Convenience Functions References Index