ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Markov Decision Processes in Artificial Intelligence

دانلود کتاب فرایندهای تصمیم گیری مارکوف در هوش مصنوعی

Markov Decision Processes in Artificial Intelligence

مشخصات کتاب

Markov Decision Processes in Artificial Intelligence

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9781848211674, 9781118557426 
ناشر: Wiley-ISTE 
سال نشر: 2010 
تعداد صفحات: 466 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 19 مگابایت 

قیمت کتاب (تومان) : 29,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 18


در صورت تبدیل فایل کتاب Markov Decision Processes in Artificial Intelligence به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب فرایندهای تصمیم گیری مارکوف در هوش مصنوعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب فرایندهای تصمیم گیری مارکوف در هوش مصنوعی

فرآیندهای تصمیم مارکوف (MDPs) یک چارچوب ریاضی برای مدل‌سازی مسائل تصمیم‌گیری متوالی در شرایط عدم قطعیت و همچنین مسائل یادگیری تقویتی هستند. این کتاب که توسط متخصصان این حوزه نوشته شده است، دیدگاهی جهانی از تحقیقات فعلی با استفاده از MDP ها در هوش مصنوعی ارائه می دهد. با ارائه مقدماتی جنبه های اساسی MDP ها (برنامه ریزی در MDP ها، یادگیری تقویتی، MDP های نیمه قابل مشاهده، بازی های مارکوف و استفاده از معیارهای غیر کلاسیک) شروع می شود. سپس روندهای تحقیقاتی پیشرفته‌تری را در این حوزه ارائه می‌کند و با استفاده از کاربردهای مصور چند مثال ملموس ارائه می‌کند. 39-66): اولیویه سیگاود و فردریک گارسیا
فصل 3 برنامه نویسی پویا تقریبی (صفحه های 67-98): رمی مونوس
فصل 4 فرآیندهای تصمیم گیری فاکتوری مارکوف (صفحات 99-126): توماس دگریس و اولیویه سیگاود
فصل 5 خط مشی؟ الگوریتم های گرادیان (صفحات 127-152): اولیویه بافت
فصل 6 تکنیک های وضوح آنلاین (صفحه های 153-184): لوران پرت و فردریک گارسیا
فصل 7 تا حدی قابل مشاهده است (فرآیند تصمیم گیری مارکوف - صفحه 18) 228): آلن دوتک و برونو شرر
بازی‌های تصادفی فصل 8 (صفحه‌های 229–276): آندری بورکوف، لیتیتیا ماتینیون و براهیم چایب؟ درا
فصل 9 دسامبر؟MDP/POMDP (صفحات 277–318): اورلی بینیر، فرانسوا شارپیله، دانیل سر و عبدالله مودیب
فصل 10 Non?St معیارهای andard (صفحات 319-360): ماتیو بوسار، ماروا بوزید، عبدالله مودیب، رجیس سابادین و پل ونگ
فصل 11 آموزش آنلاین برای دستکاری اشیاء کوچک (صفحات 361-374): گیوم>شور لورن
12 حفاظت از تنوع زیستی (صفحات 375-394): Iadine Chades
فصل 13 هلیکوپتر خودمختار در جستجوی منطقه فرود در یک محیط نامشخص (صفحات 395-412): Patrick Fabiani and Florent Teichteil?Kunigsbuchter Resource<14>Ch. کنترل برای یک ربات خودمختار (صفحات 413-424): سیمون لو گلونک و عبدالله مودیب
فصل 15 برنامه ریزی عملیات (صفحات 425-452): سیلو تیبو و اولیویه بافت


توضیحاتی درمورد کتاب به خارجی

Markov Decision Processes (MDPs) are a mathematical framework for modeling sequential decision problems under uncertainty as well as Reinforcement Learning problems. Written by experts in the field, this book provides a global view of current research using MDPs in Artificial Intelligence. It starts with an introductory presentation of the fundamental aspects of MDPs (planning in MDPs, Reinforcement Learning, Partially Observable MDPs, Markov games and the use of non-classical criteria). Then it presents more advanced research trends in the domain and gives some concrete examples using illustrative applications.Content:
Chapter 1 Markov Decision Processes (pages 1–38): Frederick Garcia and Emmanuel Rachelson
Chapter 2 Reinforcement Learning (pages 39–66): Olivier Sigaud and Frederick Garcia
Chapter 3 Approximate Dynamic Programming (pages 67–98): Remi Munos
Chapter 4 Factored Markov Decision Processes (pages 99–126): Thomas Degris and Olivier Sigaud
Chapter 5 Policy?Gradient Algorithms (pages 127–152): Olivier Buffet
Chapter 6 Online Resolution Techniques (pages 153–184): Laurent Peret and Frederick Garcia
Chapter 7 Partially Observable Markov Decision Processes (pages 185–228): Alain Dutech and Bruno Scherrer
Chapter 8 Stochastic Games (pages 229–276): Andriy Burkov, Laetitia Matignon and Brahim Chaib?Draa
Chapter 9 DEC?MDP/POMDP (pages 277–318): Aurelie Beynier, Francois Charpillet, Daniel Szer and Abdel?Illah Mouaddib
Chapter 10 Non?Standard Criteria (pages 319–360): Matthieu Boussard, Maroua Bouzid, Abdel?Illah Mouaddib, Regis Sabbadin and Paul Weng
Chapter 11 Online Learning for Micro?Object Manipulation (pages 361–374): Guillaume Laurent
Chapter 12 Conservation of Biodiversity (pages 375–394): Iadine Chades
Chapter 13 Autonomous Helicopter Searching for a Landing Area in an Uncertain Environment (pages 395–412): Patrick Fabiani and Florent Teichteil?Kunigsbuch
Chapter 14 Resource Consumption Control for an Autonomous Robot (pages 413–424): Simon Le Gloannec and Abdel?Illah Mouaddib
Chapter 15 Operations Planning (pages 425–452): Sylvie Thiebaux and Olivier Buffet





نظرات کاربران