دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Vikram Krishnamurthy
سری:
ISBN (شابک) : 1107134609, 9781107134607
ناشر: Cambridge University Press
سال نشر: 2016
تعداد صفحات: 484
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 7 مگابایت
در صورت تبدیل فایل کتاب Partially Observed Markov Decision Processes: From Filtering to Controlled Sensing به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب فرآیند تصمیم گیری مارکوف به طور جزئی مشاهده شده: از فیلتر تا حسگر کنترل شده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب که فرمولبندی، الگوریتمها و نتایج ساختاری را پوشش میدهد و تئوری را به کاربردهای دنیای واقعی در سنجش کنترلشده (شامل یادگیری اجتماعی، رادارهای تطبیقی و تشخیص متوالی) پیوند میدهد، بر مبانی مفهومی فرآیندهای تصمیمگیری مارکوف (POMDPs) تمرکز دارد. این بر نتایج ساختاری در برنامهریزی پویا تصادفی تأکید میکند، و دانشجویان فارغالتحصیل و محققین در مهندسی، تحقیقات عملیاتی و اقتصاد را قادر میسازد تا موضوعات یکپارچه اساسی را بدون تحت تأثیر قرار دادن مسائل فنی ریاضی درک کنند. این کتاب با گردآوری تحقیقات از سراسر ادبیات، مقدمه ای بر فیلتر غیرخطی و به دنبال آن توسعه سیستماتیک برنامه نویسی پویا تصادفی، برنامه نویسی شبکه و یادگیری تقویتی برای POMDP ها ارائه می دهد. سؤالاتی که در کتاب به آنها پرداخته می شود عبارتند از: چه زمانی یک POMDP دارای خط مشی بهینه آستانه است؟ چه زمانی سیاست های نزدیک بینی بهینه هستند؟ چگونه تصمیم گیرندگان محلی و جهانی در تصمیم گیری انطباقی در یادگیری اجتماعی چند عاملی که در آن محارم گله و داده وجود دارد، تعامل دارند؟ و چگونه رادارها و حسگرهای پیچیده می توانند حس خود را در زمان واقعی تطبیق دهند؟
Covering formulation, algorithms, and structural results, and linking theory to real-world applications in controlled sensing (including social learning, adaptive radars and sequential detection), this book focuses on the conceptual foundations of partially observed Markov decision processes (POMDPs). It emphasizes structural results in stochastic dynamic programming, enabling graduate students and researchers in engineering, operations research, and economics to understand the underlying unifying themes without getting weighed down by mathematical technicalities. Bringing together research from across the literature, the book provides an introduction to nonlinear filtering followed by a systematic development of stochastic dynamic programming, lattice programming and reinforcement learning for POMDPs. Questions addressed in the book include: when does a POMDP have a threshold optimal policy? When are myopic policies optimal? How do local and global decision makers interact in adaptive decision making in multi-agent social learning where there is herding and data incest? And how can sophisticated radars and sensors adapt their sensing in real time?