دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Sarath Sreedharan, Anagha Kulkarni, Subbarao Kambhampati سری: Synthesis Lectures on Artificial Intelligence and Machine Learning ISBN (شابک) : 163639289X, 9781636392899 ناشر: Morgan & Claypool سال نشر: 2022 تعداد صفحات: 184 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 7 Mb
در صورت تبدیل فایل کتاب Explainable Human-ai Interaction: A Planning Perspective به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تعامل قابل توضیح انسان و هوش مصنوعی: دیدگاه برنامه ریزی (سخنرانی ترکیبی در مورد هوش مصنوعی و یادگیری ماشین) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
هوش مصنوعی (AI) از ابتدای پیدایش خود رابطهای دوسوگرا با انسانها داشته است – در نوسان بین افزایش و جایگزینی آنها. اکنون، از آنجایی که فناوریهای هوش مصنوعی با سرعت فزایندهای وارد زندگی روزمره ما میشوند، نیاز بیشتری به سیستمهای هوش مصنوعی برای کار همافزایی با انسانها احساس میشود. یکی از نیازهای حیاتی برای چنین تعامل هم افزایی هوش مصنوعی این است که رفتار سیستم های هوش مصنوعی برای انسان های موجود در حلقه قابل توضیح باشد. برای انجام موثر این کار، عوامل هوش مصنوعی باید از برنامه ریزی با مدل های خود از جهان فراتر بروند و مدل ذهنی انسان در حلقه را در نظر بگیرند. حداقل، عوامل هوش مصنوعی به تقریبهایی از مدلهای وظیفه و هدف انسان، و همچنین مدلهای انسانی از وظایف و مدلهای هدف عامل هوش مصنوعی نیاز دارند. اولی عامل را برای پیشبینی و مدیریت نیازها، خواستهها و توجه انسانها در حلقه راهنمایی میکند و دومی به او اجازه میدهد تا به روشهایی عمل کند که برای انسانها قابل تفسیر باشد (با انطباق با مدلهای ذهنی آنها از آن)، و آماده ارائه توضیحات سفارشی در صورت نیاز است.
نویسندگان از چندین سال تحقیق در آزمایشگاه خود استفاده میکنند تا در مورد اینکه چگونه یک عامل هوش مصنوعی میتواند از این مدلهای ذهنی برای مطابقت با انتظارات انسان یا تغییر آن انتظارات از طریق ارتباط توضیحی استفاده کند. . در حالی که تمرکز کتاب بر روی سناریوهای مشارکتی است، همچنین نشان میدهد که چگونه میتوان از همان مدلهای ذهنی برای مبهمسازی و فریب استفاده کرد. این کتاب همچنین چندین سیستم کاربردی دنیای واقعی را برای تصمیمگیری مشارکتی توصیف میکند که بر اساس چارچوب و تکنیکهای توسعهیافته در اینجا هستند. اگرچه اساساً توسط تحقیقات خود نویسندگان در این زمینه ها هدایت می شود، هر فصل ارتباطات گسترده ای را با تحقیقات مرتبط از ادبیات گسترده تر فراهم می کند. موضوعات فنی پوشش داده شده در این کتاب مستقل است و برای خوانندگانی با پیشینه اولیه در هوش مصنوعی قابل دسترسی است.
<p><b>From its inception, artificial intelligence (AI) has had a rather ambivalent relationship with humans—swinging between their augmentation and replacement</b>. Now, as AI technologies enter our everyday lives at an ever-increasing pace, there is a greater need for AI systems to work synergistically with humans. One critical requirement for such synergistic human?AI interaction is that the AI systems' behavior be explainable to the humans in the loop. To do this effectively, AI agents need to go beyond planning with their own models of the world, and take into account the mental model of the human in the loop. At a minimum, AI agents need approximations of the human's task and goal models, as well as the human's model of the AI agent's task and goal models. The former will guide the agent to anticipate and manage the needs, desires and attention of the humans in the loop, and the latter allow it to act in ways that are interpretable to humans (by conforming to their mental models of it), and be ready to provide customized explanations when needed.</p><p>The authors draw from several years of research in their lab to discuss how an AI agent can use these mental models to either conform to human expectations or change those expectations through explanatory communication. While the focus of the book is on cooperative scenarios, it also covers how the same mental models can be used for obfuscation and deception. The book also describes several real-world application systems for collaborative decision-making that are based on the framework and techniques developed here. Although primarily driven by the authors' own research in these areas, every chapter will provide ample connections to relevant research from the wider literature. The technical topics covered in the book are self-contained and are accessible to readers with a basic background in AI.</p>
Preface Acknowledgments Introduction Humans and AI Agents: An Ambivalent Relationship Explanations in Humans When and Why Do Humans Expect Explanations from Each Other? How Do Humans Exchange Explanations? (Why) Should AI Systems Be Explainable? Dimensions of Explainable AI systems Use Cases for Explanations in Human–AI Interaction Requirements on Explanations Explanations as Studied in the AI Literature Explainable AI: The Landscape and The Tribes Our Perspective on Human-Aware and Explainable AI Agents How Do We Make AI Agents Human-Aware? Mental Models in Explainable AI Systems Overview of This Book Measures of Interpretability Planning Models Modes of Interpretable Behavior Explicability Legibility Predictability Communication to Improve Interpretability Communicating Model Information Other Considerations in Interpretable Planning Generalizing Interpretability Measures Bibliographic Remarks Explicable Behavior Generation Explicable Planning Problem Model-Based Explicable Planning Plan Generation Through Reconciliation Search Possible Distance Functions Model-Free Explicable Planning Problem Formulation Learning Approach Plan Generation Environment Design for Explicability Problem Setting Framework for Design for Explicability Search for Optimal Design Demonstration of Environment Design for Explicability Bibliographic Remarks Legible Behavior Controlled Observability Planning Problem Human's Belief Space Computing Solutions to COPP Variants Variants of COPP Goal Legibility Computing Goal Legible Plans Plan Legibility Computing Plan Legible Plans Bibliographic Remarks Explanation as Model Reconciliation Model-Reconciliation as Explanation The Fetch Domain Explanation Generation Explanation Types Desiderata for Explanations as Discussed in Social Sciences Model Space Search for Minimal Explanations Approximate Explanations Explicit Contrastive Explanations Approximate MCE User Studies Other Explanatory Methods Bibliographic Remarks Acquiring Mental Models for Explanations The Urban Search and Reconnaissance Domain Model Uncertainty Model-Free Explanations Assuming Prototypical Models Bibliographic Remarks Balancing Communication and Behavior Modified USAR Domain Balancing Explanation and Explicable Behavior Generation Generating Balanced Plans Stage of Interaction and Epistemic Side Effects Optimizing for Explicability of the Plan Balancing Communication and Behavior For Other Measures Bibliographic Remarks Explaining in the Presence of Vocabulary Mismatch Representation of Robot Model Setting Local Approximation of Planning Model Montezuma's Revenge Acquiring Interpretable Models Query-Specific Model Acquisition Explanation Generation Identifying Explanations Through Sample-Based Trials Explanation Confidence Handling Uncertainty in Concept Mapping Acquiring New Vocabulary Bibliographic Remarks Obfuscatory Behavior and Deceptive Communication Obfuscation Goal Obfuscation Secure Goal Obfuscation Plan Obfuscation Deception Multi-Observer Simultaneous Obfuscation and Legibility Mixed-Observer Controlled Observability Planning Problem Plan Computation Lies When Should an Agent Lie? How Can an Agent Lie? Implications of Lies Bibliographical Remarks Applications Collaborative Decision-Making Humans as Actors RADAR MA-RADAR RADAR-X Model Transcription Assistants D3WA+ Bibliographic Remarks Conclusion Bibliography Authors' Biographies Index