دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: آمار ریاضی ویرایش: 1 نویسندگان: Qiying Hu. Wuyi Yue سری: Advances in Mechanics and Mathematics 14 ISBN (شابک) : 0387369503, 0387369511 ناشر: Springer US سال نشر: 2008 تعداد صفحات: 305 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 2 مگابایت
کلمات کلیدی مربوط به کتاب تصمیم گیری مارکوف با کاربردهای آنها: تحقیق در عملیات، برنامه ریزی ریاضی، نظریه احتمال و فرآیندهای تصادفی، محاسبات تغییرات و کنترل بهینه، بهینه سازی، مهندسی صنایع و تولید
در صورت تبدیل فایل کتاب Markov Decision Processes with Their Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تصمیم گیری مارکوف با کاربردهای آنها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
فرآیندهای تصمیم مارکوف (MDP) که برنامه ریزی پویا تصادفی نیز نامیده می شود، برای اولین بار در دهه 1960 مورد مطالعه قرار گرفت. MDP ها را می توان برای مدل سازی و حل مسائل تصمیم گیری پویا که چند دوره ای هستند و در شرایط تصادفی رخ می دهند، استفاده کرد. سه شاخه اساسی در MDP ها وجود دارد: MDP های زمان گسسته، MDP های زمان پیوسته و فرآیندهای تصمیم گیری نیمه مارکوف. با شروع از این سه شاخه، بسیاری از مدلهای MDP تعمیمیافته برای مسائل مختلف عملی اعمال شدهاند. این مدل ها شامل MDP های تا حدی قابل مشاهده، MDP های تطبیقی، MDP ها در محیط های تصادفی و MDP هایی با اهداف متعدد، محدودیت ها یا پارامترهای غیردقیق هستند.
فرایندهای تصمیم مارکوف با کاربردهایشان MDP ها و کاربردهای آنها را در کنترل بهینه سیستم های رویداد گسسته (DES)، جایگزینی بهینه و تخصیص بهینه بررسی می کند. در حراج های آنلاین متوالی
Markov decision processes (MDPs), also called stochastic dynamic programming, were first studied in the 1960s. MDPs can be used to model and solve dynamic decision-making problems that are multi-period and occur in stochastic circumstances. There are three basic branches in MDPs: discrete-time MDPs, continuous-time MDPs and semi-Markov decision processes. Starting from these three branches, many generalized MDPs models have been applied to various practical problems. These models include partially observable MDPs, adaptive MDPs, MDPs in stochastic environments, and MDPs with multiple objectives, constraints or imprecise parameters.
Markov Decision Processes With Their Applications examines MDPs and their applications in the optimal control of discrete event systems (DESs), optimal replacement, and optimal allocations in sequential online auctions.
Front Matter....Pages i-xv
Introduction....Pages 1-9
Discretetimemarkovdecisionprocesses: Total Reward....Pages 11-38
Discretetimemarkovdecisionprocesses: Average Criterion....Pages 39-61
Continuous Time Markov Decision Processes....Pages 63-103
Semi-Markov Decision Processes....Pages 105-120
Markovdecisionprocessesinsemi-Markov Environments....Pages 121-175
Optimal control of discrete event systems: I....Pages 177-202
Optimal control of discrete event systems: II....Pages 203-231
Optimal replacement under stochastic Environments....Pages 233-263
Optimalal location in sequential online Auctions....Pages 265-286
Back Matter....Pages 287-297