مشخصات کتاب
Handbook of Learning and Approximate Dynamic Programming
ویرایش:
نویسندگان: Jennie Si, Andy Barto, Warren Powell, Donald Wunsch(auth.)
سری:
ISBN (شابک) : 9780471660545, 9780470544785
ناشر: Wiley-IEEE Press
سال نشر: 2004
تعداد صفحات: 651
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 17 مگابایت
قیمت کتاب (تومان) : 43,000
میانگین امتیاز به این کتاب :
تعداد امتیاز دهندگان : 22
در صورت تبدیل فایل کتاب Handbook of Learning and Approximate Dynamic Programming به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب راهنمای یادگیری و برنامه نویسی پویا تقریبی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
توضیحاتی در مورد کتاب راهنمای یادگیری و برنامه نویسی پویا تقریبی
- یک منبع کامل برای برنامه نویسی پویا تقریبی (ADP)، شامل کد
شبیه سازی آنلاین
- آموزشی را ارائه می دهد که خوانندگان می توانند از آن برای
شروع اجرای الگوریتم های یادگیری ارائه شده در کتاب استفاده
کنند
- شامل ایده ها، دستورالعمل ها و نتایج اخیر در مورد مسائل
تحقیقاتی جاری و برنامههایی را که ADP با موفقیت در آنها
پیادهسازی شده است را مورد بررسی قرار میدهد
- شرکتکنندگان پژوهشگران پیشرو در این زمینه هستند
محتوا:
فصل 1 ADP: اهداف، فرصتها و اصول (صفحات 3– 44): پل وربوس
فصل 2 یادگیری تقویتی و رابطه آن با یادگیری نظارت شده (صفحه های
45-63): اندرو جی. بارتو و توماس جی. دیتریش
مدل فصل 3؟ طرح های انتقادی تطبیقی مبتنی بر (صفحات 65-95) ):
سیلویا فراری و رابرت اف استنگل
راهنمای فصل 4 در استفاده از انتقادات تطبیقی برای کنترل (صفحات
97-124): جورج جی. 125-151): جنی سی، لی یانگ و درونگ لیو
فصل 6 رویکرد برنامه نویسی خطی به برنامه نویسی پویا تقریبی
(صفحات 153-178): دانیلا پوچی دی فاریاس
فصل 7 یادگیری تقویتی در ابعاد بزرگ و با ابعاد بالا فضاهای حالت
(صفحههای 179–202): گرگ گرودیک و لایل اونگار
فصل 8 تصمیمگیری سلسله مراتبی (صفحههای 203–232): مالکوم
رایان
فصل 9 بهبود روشهای تفاوت زمانی با تقریب تابع خطی (صفحههای
33–252) : Dimitri P. Bertsekas, Vivek S. Borkar and Angelia
Nedich
فصل 10 برنامه نویسی پویا تقریبی برای مسائل تخصیص منابع با ابعاد
بالا (صفحات 261–283): وارن بی. پاول و بنجامین ون روی
فصل 11 برنامه سلسله مراتبی به همزمانی، چند سازمانی، و مشاهده
پذیری جزئی (صفحات 285-310): سریدار مهادوان، محمد قوام زاده،
خشایار روحانی منش و جورجیا تئوچاروس
فصل 12 یادگیری و بهینه سازی - از دیدگاه نظری سیستم (صفحه های
311-335 Xi?335): Cao
فصل 13 یادگیری تقویتی قوی با استفاده از محدودیت های انتگرالی؟
درجه دوم (صفحه های 337-358): چارلز دبلیو اندرسون، مت کرچمار،
پیتر یانگ و داگلاس هیتل
فصل 14 بازیگر نظارت شده؟ یادگیری تقویتی منتقد 359–3 صفحه ):
Michael T. Rosenstein and Andrew G. Barto
فصل 15 BPTT و DAC — چارچوبی رایج برای مقایسه (صفحات 381-404):
دانیل وی. (صفحات 405-432): آگوستین او. اسوگبو و وارن ای.
هرنس
فصل 17 مسائل کنترل چندهدفه توسط یادگیری تقویتی (صفحات 433-461):
دانگ؟ اوه کانگ و زئونگنام بین
فصل 18 عصبی مبتنی بر انتقاد تطبیقی شبکه ای برای کنترل؟ موشک
چابک محدود (صفحات 463-478): S. N. Balakrishnan و Dongchen
Han
فصل 19 کاربردهای برنامه نویسی دینامیکی تقریبی در کنترل سیستم
های قدرت (صفحات 479-515): Ganesh K Venayagamoorthy, Donald C
Gunsch and Ronald C Wunsch هارلی
فصل 20 یادگیری تقویتی قوی برای کنترل گرمایش، تهویه و تهویه
مطبوع ساختمانها (صفحات 517-534): چارلز دبلیو. اندرسون، داگلاس
هیتل، مت کرچمار و پیتر یانگ
فصل 21 کنترل پرواز هلیکوپتر با استفاده از مستقیم برنامه نویسی
پویا عصبی (صفحات 535-559): راسل اننس و جنی سی
فصل 22 به سوی جریان قدرت بهینه تصادفی پویا (صفحات 561-598):
جیمز ای. مومو
فصل 23 کنترل، بهینه سازی، امنیت، و خود بهبود سیستم های قدرت محک
(صفحات 599-634): جیمز ای. مومو و ادوین زیوی
توضیحاتی درمورد کتاب به خارجی
- A complete resource to Approximate Dynamic Programming
(ADP), including on-line simulation code
- Provides a tutorial that readers can use to start
implementing the learning algorithms provided in the book
- Includes ideas, directions, and recent results on current
research issues and addresses applications where ADP has been
successfully implemented
- The contributors are leading researchers in the field
Content:
Chapter 1 ADP: Goals, Opportunities and Principles (pages
3–44): Paul Werbos
Chapter 2 Reinforcement Learning and Its Relationship to
Supervised Learning (pages 45–63): Andrew G. Barto and Thomas
G. Dietterich
Chapter 3 Model?Based Adaptive Critic Designs (pages 65–95):
Silvia Ferrari and Robert F. Stengel
Chapter 4 Guidance in the Use of Adaptive Critics for Control
(pages 97–124): George G. Lendaris and James C.
Neidhoefer
Chapter 5 Direct Neural Dynamic Programming (pages 125–151):
Jennie Si, Lei Yang and Derong Liu
Chapter 6 The Linear Programming Approach to Approximate
Dynamic Programming (pages 153–178): Daniela Pucci de
Farias
Chapter 7 Reinforcement Learning in Large, High?Dimensional
State Spaces (pages 179–202): Greg Grudic and Lyle Ungar
Chapter 8 Hierarchical Decision Making (pages 203–232): Malcolm
Ryan
Chapter 9 Improved Temporal Difference Methods with Linear
Function Approximation (pages 233–259): Dimitri P. Bertsekas,
Vivek S. Borkar and Angelia Nedich
Chapter 10 Approximate Dynamic Programming for High?Dimensional
Resource Allocation Problems (pages 261–283): Warren B. Powell
and Benjamin Van Roy
Chapter 11 Hierarchical Approaches to Concurrency, Multiagency,
and Partial Observability (pages 285–310): Sridhar Mahadevan,
Mohammad Ghavamzadeh, Khashayar Rohanimanesh and Georgias
Theocharous
Chapter 12 Learning and Optimization — From a System Theoretic
Perspective (pages 311–335): Xi?Ren Cao
Chapter 13 Robust Reinforcement Learning Using
Integral?Quadratic Constraints (pages 337–358): Charles W.
Anderson, Matt Kretchmar, Peter Young and Douglas Hittle
Chapter 14 Supervised Actor?Critic Reinforcement Learning
(pages 359–380): Michael T. Rosenstein and Andrew G.
Barto
Chapter 15 BPTT and DAC — A Common Framework for Comparison
(pages 381–404): Danil V. Prokhorov
Chapter 16 Near?Optimal Control Via Reinforcement Learning and
Hybridization (pages 405–432): Augustine O. Esogbue and Warren
E. Hearnes
Chapter 17 Multiobjective Control Problems by Reinforcement
Learning (pages 433–461): Dong?Oh Kang and Zeungnam Bien
Chapter 18 Adaptive Critic Based Neural Network for
Control?Constrained Agile Missile (pages 463–478): S. N.
Balakrishnan and Dongchen Han
Chapter 19 Applications of Approximate Dynamic Programming in
Power Systems Control (pages 479–515): Ganesh K
Venayagamoorthy, Donald C Wunsch and Ronald G Harley
Chapter 20 Robust Reinforcement Learning for Heating,
Ventilation, and Air Conditioning Control of Buildings (pages
517–534): Charles W. Anderson, Douglas Hittle, Matt Kretchmar
and Peter Young
Chapter 21 Helicopter Flight Control Using Direct Neural
Dynamic Programming (pages 535–559): Russell Enns and Jennie
Si
Chapter 22 Toward Dynamic Stochastic Optimal Power Flow (pages
561–598): James A. Momoh
Chapter 23 Control, Optimization, Security, and Self?healing of
Benchmark Power Systems (pages 599–634): James A. Momoh and
Edwin Zivi
نظرات کاربران