دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: 1 نویسندگان: Shimon Whiteson (auth.) سری: Studies in Computational Intelligence 291 ISBN (شابک) : 3642139310, 9783642139314 ناشر: Springer-Verlag Berlin Heidelberg سال نشر: 2010 تعداد صفحات: 127 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
کلمات کلیدی مربوط به کتاب نمایندگی های سازگار برای یادگیری تقویتی: هوش محاسباتی، هوش مصنوعی (شامل رباتیک)
در صورت تبدیل فایل کتاب Adaptive Representations for Reinforcement Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نمایندگی های سازگار برای یادگیری تقویتی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب الگوریتمهای جدیدی را برای یادگیری تقویتی ارائه میکند، شکلی از یادگیری ماشین که در آن یک عامل مستقل به دنبال یک خط مشی کنترل برای یک کار تصمیمگیری متوالی است. از آنجایی که روشهای فعلی معمولاً بر نمایشهای راهحل طراحیشده دستی متکی هستند، عواملی که بهطور خودکار بازنماییهای خود را تطبیق میدهند، پتانسیل بهبود چشمگیر عملکرد را دارند. این کتاب دو رویکرد جدید را برای کشف خودکار نمایشهای با عملکرد بالا معرفی میکند. رویکرد اول روشهای تفاوت زمانی، رویکرد سنتی برای یادگیری تقویتی را با روشهای تکاملی ترکیب میکند، که میتواند نمایشهایی را برای کلاس وسیعی از مسائل بهینهسازی بیاموزد. این ترکیب با سفارشی کردن روشهای تکاملی به ماهیت آنلاین یادگیری تقویتی و استفاده از آنها برای تکامل نمایشهایی برای تقریبکنندههای تابع ارزش انجام میشود. رویکرد دوم به طور خودکار نمایشهایی را بر اساس تقریبهای ثابت تکهای توابع ارزش میآموزد. با نمایشهای درشت شروع میشود و به تدریج آنها را در طول یادگیری اصلاح میکند و خط مشی فعلی و تابع ارزش را برای استنباط بهترین اصلاحات تحلیل میکند. این کتاب همچنین یک روش جدید برای ابداع نمایش های ورودی معرفی می کند. این روش با گسترش الگوریتمی که توپولوژی و وزن شبکههای عصبی را به گونهای تغییر میدهد که ورودیهای آنها را نیز تکامل میدهد، مشکل انتخاب ویژگی را حل میکند. علاوه بر معرفی این روشهای جدید، این کتاب نتایج تجربی گستردهای را در حوزههای متعدد ارائه میکند که نشان میدهد این تکنیکها میتوانند عملکرد را نسبت به روشهایی با نمایش دستی به طور قابل ملاحظهای بهبود بخشند.
This book presents new algorithms for reinforcement learning, a form of machine learning in which an autonomous agent seeks a control policy for a sequential decision task. Since current methods typically rely on manually designed solution representations, agents that automatically adapt their own representations have the potential to dramatically improve performance. This book introduces two novel approaches for automatically discovering high-performing representations. The first approach synthesizes temporal difference methods, the traditional approach to reinforcement learning, with evolutionary methods, which can learn representations for a broad class of optimization problems. This synthesis is accomplished by customizing evolutionary methods to the on-line nature of reinforcement learning and using them to evolve representations for value function approximators. The second approach automatically learns representations based on piecewise-constant approximations of value functions. It begins with coarse representations and gradually refines them during learning, analyzing the current policy and value function to deduce the best refinements. This book also introduces a novel method for devising input representations. This method addresses the feature selection problem by extending an algorithm that evolves the topology and weights of neural networks such that it evolves their inputs too. In addition to introducing these new methods, this book presents extensive empirical results in multiple domains demonstrating that these techniques can substantially improve performance over methods with manual representations.
Front Matter....Pages -
Introduction....Pages 1-5
Reinforcement Learning....Pages 7-15
On-Line Evolutionary Computation....Pages 17-30
Evolutionary Function Approximation....Pages 31-46
Sample-Efficient Evolutionary Function Approximation....Pages 47-52
Automatic Feature Selection for Reinforcement Learning....Pages 53-64
Adaptive Tile Coding....Pages 65-76
RelatedWork....Pages 77-94
Conclusion....Pages 95-104
Back Matter....Pages -