دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: IEEE Press., John Wiley, Sons., Lewis. Frank L., Liu. Derong سری: IEEE Series on Computational Intelligence ISBN (شابک) : 9781118104200, 111810420X ناشر: IEEE Press, John Wiley & Sons, Inc., Publication سال نشر: 2013 تعداد صفحات: 0 زبان: English فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 7 مگابایت
در صورت تبدیل فایل کتاب Reinforcement Learning and Approximate Dynamic Programming for Feedback Control به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری تقویتی و برنامه نویسی پویا تقریبی برای کنترل بازخورد نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
یادگیری تقویتی (RL) و برنامه نویسی پویا تطبیقی (ADP) یکی از حیاتی ترین زمینه های تحقیقاتی در علم و مهندسی برای سیستم های پیچیده مدرن بوده است. این کتاب آخرین تکنیکهای RL و ADP را برای تصمیمگیری و کنترل در سیستمهای مهندسی شده انسانی توصیف میکند که هم تصمیمگیری تکنفره و هم بازیهای کنترلی و چند نفره را پوشش میدهد. این کتاب که توسط پیشگامان تحقیقات RL و ADP ویرایش شده است، ایدهها و روشهای بسیاری از زمینهها را گرد هم میآورد و راهنمایی مهم و به موقع برای کنترل طیف گستردهای از سیستمها، مانند روباتها، فرآیندهای صنعتی و تصمیمگیری اقتصادی ارائه میکند.
Reinforcement learning (RL) and adaptive dynamic programming (ADP) has been one of the most critical research fields in science and engineering for modern complex systems. This book describes the latest RL and ADP techniques for decision and control in human engineered systems, covering both single player decision and control and multi-player games. Edited by the pioneers of RL and ADP research, the book brings together ideas and methods from many fields and provides an important and timely guidance on controlling a wide variety of systems, such as robots, industrial processes, and economic decision-making.
Title page......Page 1
Contents......Page 5
Preface......Page 18
1. Reinforcement Learning and Approximate Dynamic Programming (RLADP)-Foundations, Common Misconceptions, and the Challenges Ahead......Page 26
2. Stable Adaptive Neural Control of Partially Observable Dynamic Systems......Page 54
3. Optimal Control of Unknown Nonlinear Discrete-Time Systems Using the Iterative Globalized Dual Heuristic Programming Algorithm......Page 75
4. Learning and Optimization in Hierarchical Adaptive Critic Design......Page 101
5. Single Network Adaptive Critics Networks-Development, Analysis, and Applications......Page 121
6. Linearly Solvable Optimal Control......Page 142
7. Approximating Optimal Control withValue Gradient Learning......Page 165
8. A Constrained Backpropagation Approach to Function Approximation and Approximate Dynamic Programming......Page 185
9. Toward Design of Nonlinear ADP Learning Controllers with Performance Assurance......Page 205
10. Reinforcement Learning Control with Time-Dependent Agent Dynamics......Page 226
11. Online Optimal Control of Nonaffine Nonlinear Discrete-Time Systems without Using Value and Policy Iterations......Page 244
12. An Actor-Critic-Identifier Architecture for Adaptive Approximate Optimal Control......Page 281
13. Robust Adaptive Dynamic Programming......Page 304
14. Hybrid Learning in Stochastic Games and Its Application in Network Security......Page 327
15. Integral Reinforcement Learning for Online Computation of Nash Strategies of Nonzero-Sum Differential Games......Page 352
16. Online Learning Algorithms for Optimal Control and Dynamic Games......Page 372
17. Lambda-Policy Iteration: A Review and a New Implementation......Page 401
18. Optimal Learning and Approximate Dynamic Programming......Page 430
19. An Introduction to Event-Based Optimization: Theory and Applications......Page 452
20. Bounds for Markov Decision Processes......Page 472
21. Approximate Dynamic Programming and Backpropagation on Timescales......Page 494
22. A Survey of Optimistic Planning in Markov Decision Processes......Page 514
23. Adaptive Feature Pursuit: Online Adaptation of Features in Reinforcement Learning......Page 537
24. Feature Selection for Neuro-Dynamic Programming......Page 555
25. Approximate Dynamic Programming for Optimizing Oil Production......Page 580
26. A Learning Strategy for Source Tracking in Unstructured Environments......Page 602
Index......Page 621