دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: O. Hernández-Lerma (auth.)
سری: Applied Mathematical Sciences 79
ISBN (شابک) : 0387969667, 9780387969664
ناشر: Springer-Verlag New York
سال نشر: 1989
تعداد صفحات: 164
زبان: English
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 5 مگابایت
در صورت تبدیل فایل کتاب Adaptive Markov Control Processes به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب فرآیندهای کنترل مارکوف تطبیقی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب به دستهای از فرآیندهای کنترل تصادفی زمان گسسته معروف به فرآیندهای مارکوف کنترلشده (CMP)، که بهعنوان فرآیندهای تصمیمگیری مارکوف یا برنامههای پویا مارکوف نیز شناخته میشوند، سروکار دارد. از اواسط دهه 1950 با ریچارد بلمن، کمک های زیادی به CMPها انجام شد و برنامه های کاربردی برای مهندسی، آمار و تحقیقات عملیاتی، در میان سایر زمینه ها، نیز توسعه یافت. هدف این کتاب ارائه برخی از پیشرفتهای اخیر در مورد نظریه CMP تطبیقی است. ه. ، CMPهایی که به پارامترهای ناشناخته بستگی دارند. بنابراین در هر زمان تصمیم گیری، کنترل کننده یا تصمیم گیرنده باید مقادیر واقعی پارامترها را تخمین بزند و سپس اقدامات کنترلی را با مقادیر برآورد شده تطبیق دهد. ما قصد نداریم تمام جنبه های کنترل تطبیقی تصادفی را توصیف کنیم. در عوض، انتخاب مواد منعکس کننده علایق تحقیقاتی ما است. پیش نیاز این کتاب دانش تجزیه و تحلیل واقعی و تئوری احتمالات در سطح مثلاً Ash (1972) یا Royden (1968) است، اما هیچ دانش قبلی در مورد فرآیندهای کنترل یا تصمیم گیری لازم نیست. از سوی دیگر، منظور از ارائه، مستقل است، به این معنا که هرگاه از یک نتیجه از احتمال تحلیلگر استفاده شود، معمولاً به طور کامل بیان می شود و در صورت لزوم، منابع برای بحث بیشتر ارائه می شود. چندین ضمیمه برای این منظور ارائه شده است. مطالب به شش فصل تقسیم شده است. فصل 1 شامل تعاریف اساسی در مورد مسائل کنترل تصادفی مورد علاقه ما است. شرح مختصری از برخی از برنامه ها نیز ارائه شده است.
This book is concerned with a class of discrete-time stochastic control processes known as controlled Markov processes (CMP's), also known as Markov decision processes or Markov dynamic programs. Starting in the mid-1950swith Richard Bellman, many contributions to CMP's have been made, and applications to engineering, statistics and operations research, among other areas, have also been developed. The purpose of this book is to present some recent developments on the theory of adaptive CMP's, i. e. , CMP's that depend on unknown parameters. Thus at each decision time, the controller or decision-maker must estimate the true parameter values, and then adapt the control actions to the estimated values. We do not intend to describe all aspects of stochastic adaptive control; rather, the selection of material reflects our own research interests. The prerequisite for this book is a knowledgeof real analysis and prob ability theory at the level of, say, Ash (1972) or Royden (1968), but no previous knowledge of control or decision processes is required. The pre sentation, on the other hand, is meant to beself-contained,in the sensethat whenever a result from analysisor probability is used, it is usually stated in full and references are supplied for further discussion, if necessary. Several appendices are provided for this purpose. The material is divided into six chapters. Chapter 1 contains the basic definitions about the stochastic control problems we are interested in; a brief description of some applications is also provided.
Cover......Page 1
Volume in Series......Page 2
Title page......Page 3
Copyright page......Page 4
Preface......Page 7
Contents......Page 9
Summary of Notation and Terminology......Page 13
Control Models......Page 15
Policies......Page 17
Performance Criteria......Page 20
Control Problems......Page 21
1.3 Examples......Page 23
An Inventory/Production System......Page 24
Control of Water Reservoirs......Page 25
Fisheries Management......Page 26
Nonstationary MCM\'s......Page 27
Semi-Markov Control Models......Page 28
1.4 Further Comments......Page 29
Summary......Page 31
2.2 Optimality Conditions......Page 32
Continuity of $v^\\ast$......Page 37
2.3 Asymptotic Discount Optimality......Page 38
Nonstationary Value-Iteration......Page 41
Finite-State Approximations......Page 46
Preliminaries......Page 48
Nonstationary Value-Iteration......Page 49
The Principle of Estimation and Control......Page 52
Adaptive Policies......Page 53
2.6 Nonparametric Adaptive Control......Page 54
The Parametric Approach......Page 55
New Setting......Page 56
The Empirical Distribution Process......Page 58
Nonparametric Adaptive Policies......Page 59
2.7 Comments and References......Page 61
3.1 Introduction......Page 65
3.2 The Optimality Equation......Page 66
3.3 Ergodicity Conditions......Page 70
Uniform Approximations......Page 76
Successive Averagings......Page 80
3.5 Approximating Models......Page 81
3.6 Nonstationary Value Iteration......Page 85
Nonstationary Successive Averagings......Page 89
Discounted-Like NVI......Page 90
Preliminaries......Page 91
Nonstationary Value Iteration (NVI)......Page 93
3.8 Comments and References......Page 95
Summary......Page 97
4.2 PO-CM: Case of Known Parameters......Page 98
4.3 Transformation into a CO Control Problem......Page 100
$I$-Policies......Page 102
The New Control Model......Page 103
4.4 Optimal $I$-Policies......Page 104
4.5 PO-CM\'s with Unknown Parameters......Page 107
PEC and NVI $I$-Policies......Page 109
4.6 Comments and References......Page 110
Summary......Page 112
5.2 Contrast Functions......Page 113
5.3 Minimum Contrast Estimators......Page 115
5.4 Comments and References......Page 119
6.2 Preliminaries......Page 121
A Non-Recursive Procedure......Page 123
A Recursive Procedure......Page 125
Preliminaries......Page 127
Discretization of the PEC Adaptive Policy......Page 128
Discretization of the NVI Adaptive Policy......Page 129
The Non-Adaptive Case......Page 130
The Adaptive Case......Page 133
6.6 Comments and References......Page 135
Appendix A. Contraction Operators......Page 136
Total Variation Norm......Page 138
Weak Convergence......Page 139
Appendix C. Stochastic Kernels......Page 141
Multifunctions......Page 143
References......Page 146
Author Index......Page 157
Subject Index......Page 161
Applied Mathematical Sciences......Page 163