ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Approximate dynamic programming: Solving the curses of dimensionality

دانلود کتاب برنامه نویسی پویا تقریبی: حل نفرین ابعاد

Approximate dynamic programming: Solving the curses of dimensionality

مشخصات کتاب

Approximate dynamic programming: Solving the curses of dimensionality

دسته بندی: برنامه نويسي
ویرایش: 1 
نویسندگان:   
سری: Wiley Series in Probability and Statistics 
ISBN (شابک) : 0470171553, 9780470182956 
ناشر: Wiley-Interscience 
سال نشر: 2007 
تعداد صفحات: 487 
زبان: English 
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 مگابایت 

قیمت کتاب (تومان) : 55,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 15


در صورت تبدیل فایل کتاب Approximate dynamic programming: Solving the curses of dimensionality به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب برنامه نویسی پویا تقریبی: حل نفرین ابعاد نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب برنامه نویسی پویا تقریبی: حل نفرین ابعاد

مقدمه ای کامل و در دسترس برای کاربردهای دنیای واقعی برنامه نویسی پویا تقریبی

با سطوح رو به رشد پیچیدگی در عملیات های امروزی، درک چگونگی رویکرد، مدل سازی و حل مسائل پیچیده صنعتی برای پزشکان حیاتی است. برنامه‌نویسی دینامیک تقریبی نتیجه دهه‌ها تجربه نویسنده است که در محیط‌های صنعتی بزرگ کار می‌کند تا راه‌حل‌های عملی و با کیفیت بالا برای مشکلاتی که مستلزم تصمیم‌گیری در حضور عدم قطعیت است، ایجاد کند. این کتاب پیشگامانه به طور منحصربه‌فردی چهار رشته مجزا - فرآیندهای طراحی مارکوف، برنامه‌ریزی ریاضی، شبیه‌سازی و آمار را ادغام می‌کند تا نشان دهد چگونه می‌توان طیف گسترده‌ای از مسائل زندگی واقعی را با استفاده از تکنیک‌های برنامه‌نویسی پویا تقریبی (ADP) مدل‌سازی و حل کرد. خواننده با سه نفرین ابعادی که بر مسائل پیچیده تأثیر می‌گذارند، آشنا می‌شود و همچنین نشان داده می‌شود که چگونه متغیر حالت پس از تصمیم‌گیری به استفاده از استراتژی‌های الگوریتمی کلاسیک از تحقیقات عملیات برای درمان مسائل پیچیده بهینه‌سازی تصادفی اجازه می‌دهد.

برنامه نویسی پویا تقریبی که به عنوان مقدمه طراحی شده و با فرض عدم آموزش قبلی در برنامه نویسی پویا به هر شکلی طراحی شده است، شامل ده ها الگوریتم است که به عنوان نقطه شروع در طراحی راه حل های عملی برای مسائل واقعی در نظر گرفته شده است. این کتاب پوشش مفصلی از چالش‌های پیاده‌سازی از جمله: مدل‌سازی فرآیندهای تصمیم‌گیری متوالی پیچیده تحت عدم قطعیت، شناسایی خط‌مشی‌های قوی، طراحی و تخمین تقریب‌های تابع ارزش، انتخاب قواعد اندازه گام موثر، و حل مسائل همگرایی را ارائه می‌دهد.

با تمرکز بر مدل‌سازی و الگوریتم‌ها در ارتباط با زبان جریان اصلی تحقیق در عملیات، هوش مصنوعی و نظریه کنترل، برنامه‌نویسی پویا تقریبی:

  • مدل‌سازی مسائل پیچیده و با ابعاد بالا در یک محیط طبیعی و روش عملی، که از سال ها پروژه های صنعتی استفاده می کند

  • قدرت تخمین یک تابع مقدار را در وضعیت پس از تصمیم گیری معرفی و تاکید می کند و به الگوریتم های حل اجازه می دهد تا به سه مرحله اساسی تقسیم شوند: شبیه سازی کلاسیک، کلاسیک بهینه‌سازی و آمار کلاسیک

  • بحث کاملی از تخمین بازگشتی، از جمله نظریه بنیادی و تعدادی از مسائلی که در توسعه الگوریتم‌های عملی به وجود می‌آیند ارائه می‌کند

  • روش‌های مختلفی را برای تقریب برنامه‌های پویا ارائه می‌دهد. که در ادبیات قبلی آمده است، اما هرگز در قالب منسجم یک کتاب ارائه نشده است

با انگیزه نمونه هایی از تحقیقات عملیات مدرن، برنامه نویسی پویا تقریبی مقدمه ای در دسترس برای مدل سازی پویا است و همچنین یک راهنمای ارزشمند برای توسعه راه حل های با کیفیت بالا برای مشکلاتی که در تحقیقات عملیاتی و مهندسی وجود دارد. ارائه واضح و دقیق مطالب، این متن را به متن مناسبی برای دوره های کارشناسی پیشرفته و دوره های تحصیلات تکمیلی اولیه تبدیل می کند و در عین حال به عنوان مرجعی برای محققان و دست اندرکاران نیز عمل می کند. یک وب‌سایت همراه برای خوانندگان در دسترس است که شامل تمرین‌های اضافی، راه‌حل‌های تمرین‌ها و مجموعه داده‌ها برای تقویت مفاهیم اصلی کتاب است.


توضیحاتی درمورد کتاب به خارجی

A complete and accessible introduction to the real-world applications of approximate dynamic programming

With the growing levels of sophistication in modern-day operations, it is vital for practitioners to understand how to approach, model, and solve complex industrial problems. Approximate Dynamic Programming is a result of the author's decades of experience working in large industrial settings to develop practical and high-quality solutions to problems that involve making decisions in the presence of uncertainty. This groundbreaking book uniquely integrates four distinct disciplines—Markov design processes, mathematical programming, simulation, and statistics—to demonstrate how to successfully model and solve a wide range of real-life problems using the techniques of approximate dynamic programming (ADP). The reader is introduced to the three curses of dimensionality that impact complex problems and is also shown how the post-decision state variable allows for the use of classical algorithmic strategies from operations research to treat complex stochastic optimization problems.

Designed as an introduction and assuming no prior training in dynamic programming of any form, Approximate Dynamic Programming contains dozens of algorithms that are intended to serve as a starting point in the design of practical solutions for real problems. The book provides detailed coverage of implementation challenges including: modeling complex sequential decision processes under uncertainty, identifying robust policies, designing and estimating value function approximations, choosing effective stepsize rules, and resolving convergence issues.

With a focus on modeling and algorithms in conjunction with the language of mainstream operations research, artificial intelligence, and control theory, Approximate Dynamic Programming:

  • Models complex, high-dimensional problems in a natural and practical way, which draws on years of industrial projects

  • Introduces and emphasizes the power of estimating a value function around the post-decision state, allowing solution algorithms to be broken down into three fundamental steps: classical simulation, classical optimization, and classical statistics

  • Presents a thorough discussion of recursive estimation, including fundamental theory and a number of issues that arise in the development of practical algorithms

  • Offers a variety of methods for approximating dynamic programs that have appeared in previous literature, but that have never been presented in the coherent format of a book

Motivated by examples from modern-day operations research, Approximate Dynamic Programming is an accessible introduction to dynamic modeling and is also a valuable guide for the development of high-quality solutions to problems that exist in operations research and engineering. The clear and precise presentation of the material makes this an appropriate text for advanced undergraduate and beginning graduate courses, while also serving as a reference for researchers and practitioners. A companion Web site is available for readers, which includes additional exercises, solutions to exercises, and data sets to reinforce the book's main concepts.



فهرست مطالب

Instead of a cover......Page 1
Wiley......Page 4
Title page......Page 5
Date-line......Page 6
CONTENTS......Page 7
Preface......Page 13
Acknowledgments......Page 17
1 The challenges of dynamic programming......Page 19
1.1 A dynamic programming example: a shortest path problem......Page 20
1.2 The three curses of dimensionality......Page 21
1.3 Some real applications......Page 24
1.4 Problem classes......Page 28
1.5 The many dialects of dynamic programming......Page 30
1.6 What is new in this book?......Page 32
1.7 Bibliographic notes......Page 34
2 Some illustrative models......Page 35
2.1 Deterministic problems......Page 36
2.2 Stochastic problems......Page 41
2.3 Information acquisition problems......Page 54
2.4 A simple modeling framework for dynamic programs......Page 58
Problems......Page 61
3 Introduction to Markov decision processes......Page 65
3.1 The optimality equations......Page 66
3.2 Finite horizon problems......Page 71
3.3 Infinite horizon problems......Page 73
3.4 Value iteration......Page 75
3.5 Policy iteration......Page 79
3.7 The linear programming method for dynamic programs......Page 81
3.8 Monotone policies......Page 82
3.9 Why does it work?......Page 88
3.10 Bibliographic notes......Page 103
Problems......Page 104
4 Introduction to approximate dynamic programming......Page 109
4.1 The three curses of dimensionality (revisited)......Page 110
4.2 The basic idea......Page 111
4.3 Sampling random variables......Page 118
4.4 ADP using the post-decision state variable......Page 119
4.5 Low-dimensional representations of value functions......Page 125
4.6 So just what is approximate dynamic programming?......Page 128
4.7 Experimental issues......Page 130
4.8 Dynamic programming with missing or incomplete models......Page 136
4.9 Relationship to reinforcement learning......Page 137
4.10 But does it work?......Page 138
4.11 Bibliographic notes......Page 140
Problems......Page 141
5 Modeling dynamic programs......Page 147
5.1 Notational style......Page 149
5.2 Modeling time......Page 150
5.3 Modeling resources......Page 153
5.4 The states of our system......Page 157
5.5 Modeling decisions......Page 165
5.6 The exogenous information process......Page 169
5.7 The transition function......Page 177
5.8 The contribution function......Page 184
5.9 The objective function......Page 187
5.10 A measure-theoretic view of information......Page 188
Problems......Page 191
6 Stochastic approximation methods......Page 197
6.1 A stochastic gradient algorithm......Page 199
6.2 Deterministic stepsize recipes......Page 201
6.3 Stochastic stepsizes......Page 208
6.4 Computing bias and variance......Page 213
6.5 Optimal stepsizes......Page 215
6.6 Some experimental comparisons of stepsize formulas......Page 222
6.7 Convergence......Page 226
6.8 Why does it work?......Page 228
6.9 Bibliographic notes......Page 238
Problems......Page 239
7 Approximating value functions......Page 243
7.1 Approximation using aggregation......Page 244
7.2 Approximation methods using regression models......Page 255
7.3 Recursive methods for regression models......Page 264
7.4 Neural networks......Page 271
7.5 Value function approximation for batch processes......Page 275
7.6 Why does it work?......Page 281
7.7 Bibliographic notes......Page 283
Problems......Page 285
8 ADP for finite horizon problems......Page 289
8.1 Strategies for finite horizon problems......Page 290
8.2 $Q$-learning......Page 294
8.3 Temporal difference learning......Page 297
8.4 Policy iteration......Page 300
8.5 Monte Carlo value and policy iteration......Page 302
8.6 The actor-critic paradigm......Page 303
8.7 Bias in value function estimation......Page 304
8.8 State sampling strategies......Page 308
8.9 Starting and stopping......Page 312
8.10 A taxonomy of approximate dynamic programming strategies......Page 314
8.12 Bibliographic notes......Page 316
Problems......Page 317
9 Infinite horizon problems......Page 321
9.2 Algorithmic strategies......Page 322
9.3 Stepsizes for infinite horizon problems......Page 331
9.4 Error measures......Page 333
9.6 Finite horizon models for steady-state applications......Page 335
9.8 Bibliographic notes......Page 337
Problems......Page 338
10.1 A learning exercise: the nomadic trucker......Page 341
10.2 Learning strategies......Page 344
10.3 A simple information acquisition problem......Page 348
10.4 Gittins indices and the information acquisition problem......Page 350
10.5 Variations......Page 355
10.6 The knowledge gradient algorithm......Page 357
10.7 Information acquisition in dynamic programming......Page 360
Problems......Page 364
11 Value function approximations for special functions......Page 369
11.1 Value functions versus gradients......Page 370
11.2 Linear approximations......Page 371
11.3 Piecewise linear approximations......Page 373
11.4 The SHAPE algorithm......Page 377
11.5 Regression methods......Page 380
11.6 Cutting planes......Page 383
11.7 Why does it work?......Page 395
11.8 Bibliographic notes......Page 401
Problems......Page 402
12 Dynamic resource allocation problems......Page 405
12.1 An asset acquisition problem......Page 406
12.2 The blood management problem......Page 410
12.3 A portfolio optimization problem......Page 419
12.4 A general resource allocation problem......Page 422
12.5 A fleet management problem......Page 434
12.6 A driver management problem......Page 439
Problems......Page 445
13.1 Will ADP work for your problem?......Page 451
13.2 Designing an ADP algorithm for complex problems......Page 452
13.3 Debugging an ADP algorithm......Page 454
13.4 Convergence issues......Page 455
13.5 Modeling your problem......Page 456
13.6 On-line vs. off-line models......Page 458
13.7 If it works, patent it!......Page 459
Index......Page 475
WILEY SERIES IN PROBABILITY AND STATISTICS......Page 479




نظرات کاربران