ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Value-based Planning for Teams of Agents in Stochastic Partially Observable Environments (UvA Proefschriften)

دانلود کتاب برنامه ریزی مبتنی بر ارزش برای تیم های نمایندگان در محیط های قابل مشاهده به طور تصادفی (UVA Proefschriften)

Value-based Planning for Teams of Agents in Stochastic Partially Observable Environments (UvA Proefschriften)

مشخصات کتاب

Value-based Planning for Teams of Agents in Stochastic Partially Observable Environments (UvA Proefschriften)

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9056296108, 9789056296100 
ناشر: Vossiuspers UvA 
سال نشر: 2010 
تعداد صفحات: 222 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 1 مگابایت 

قیمت کتاب (تومان) : 30,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Value-based Planning for Teams of Agents in Stochastic Partially Observable Environments (UvA Proefschriften) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب برنامه ریزی مبتنی بر ارزش برای تیم های نمایندگان در محیط های قابل مشاهده به طور تصادفی (UVA Proefschriften) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب برنامه ریزی مبتنی بر ارزش برای تیم های نمایندگان در محیط های قابل مشاهده به طور تصادفی (UVA Proefschriften)

یکی از نیازهای کلیدی سیستم های پشتیبانی تصمیم، توانایی استدلال در مورد عدم قطعیت است. این یک مشکل پیچیده است، به خصوص زمانی که تصمیم گیرندگان متعددی درگیر هستند. به عنوان مثال، تیمی از عوامل آتش نشانی را در نظر بگیرید که هدف آنها خاموش کردن آتش بزرگ در یک منطقه مسکونی تنها با استفاده از مشاهدات محلی است. در این مورد، محیط تصادفی است، زیرا ممکن است عوامل در رابطه با موارد زیر نامطمئن باشند: 1) اثر اعمال خود، 2) وضعیت واقعی محیط، و 3) اقداماتی که سایر عوامل انجام می دهند. این عدم قطعیت ها مشکل را از نظر محاسباتی غیرقابل حل می کند. در این پایان نامه چنین مسائل تصمیم گیری با استفاده از یک مدل زمان گسسته تصادفی به نام فرآیند تصمیم گیری مارکوف جزئی قابل مشاهده غیرمتمرکز (Dec-POMDP) ​​رسمیت می یابد. بخش اول این پایان نامه یک رویکرد مبتنی بر ارزش (به عنوان مثال بر اساس توابع ارزش) برای Dec-POMDP ها، با استفاده از بازی های بیزی توصیف می کند. در بخش دوم، اشکال مختلف ساختار در این رویکرد شناسایی و برای تحقق رفتار مقیاس‌بندی بهتر مورد بهره‌برداری قرار می‌گیرد.


توضیحاتی درمورد کتاب به خارجی

A key requirement of decision support systems is the ability to reason about uncertainty. This is a complex problem, especially when multiple decision makers are involved. For instance, consider a team of fire fighting agents whose goal is to extinguish a large fire in a residential area using only local observations. In this case, the environment is stochastic because the agents may be uncertain with respect to: 1) the effect of their actions, 2) the true state of the environment, and 3) the actions the other agents take. These uncertainties render the problem computationally intractable. In this thesis such decision-making problems are formalized using a stochastic discrete-time model called decentralized partially observable Markov decision process (Dec-POMDP). The first part of this thesis describes a value-based (i. e. based on value functions) approach for Dec-POMDPs, making use of Bayesian games. In the second part, different forms of structure in this approach are identified and exploited to realize better scaling behavior.



فهرست مطالب

Introduction......Page 10
Decision-Theoretic Planning for Teams of Agents......Page 24
Optimal Value Functions for Dec-POMDPs......Page 54
Approximate Value Functions & Heuristic Policy Search......Page 76
Factored Dec-POMDPs: Exploiting Locality of Interaction......Page 92
Lossless Clustering of Histories......Page 146
Conclusions and Discussion......Page 164
Summary......Page 174
Samenvatting......Page 176
Problem Specifications......Page 178
Immediate Reward Value Function Formulations......Page 180
Formalization of Regression to Factored Q-Value Functions......Page 186
Proofs......Page 194
Bibliography......Page 204
Acknowledgments......Page 222




نظرات کاربران