ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Explainable Human-ai Interaction: A Planning Perspective

دانلود کتاب تعامل قابل توضیح انسان و هوش مصنوعی: دیدگاه برنامه ریزی (سخنرانی ترکیبی در مورد هوش مصنوعی و یادگیری ماشین)

Explainable Human-ai Interaction: A Planning Perspective

مشخصات کتاب

Explainable Human-ai Interaction: A Planning Perspective

ویرایش:  
نویسندگان: , ,   
سری: Synthesis Lectures on Artificial Intelligence and Machine Learning 
ISBN (شابک) : 163639289X, 9781636392899 
ناشر: Morgan & Claypool 
سال نشر: 2022 
تعداد صفحات: 184 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 7 Mb 

قیمت کتاب (تومان) : 50,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Explainable Human-ai Interaction: A Planning Perspective به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تعامل قابل توضیح انسان و هوش مصنوعی: دیدگاه برنامه ریزی (سخنرانی ترکیبی در مورد هوش مصنوعی و یادگیری ماشین) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تعامل قابل توضیح انسان و هوش مصنوعی: دیدگاه برنامه ریزی (سخنرانی ترکیبی در مورد هوش مصنوعی و یادگیری ماشین)



هوش مصنوعی (AI) از ابتدای پیدایش خود رابطه‌ای دوسوگرا با انسان‌ها داشته است – در نوسان بین افزایش و جایگزینی آنها. اکنون، از آنجایی که فناوری‌های هوش مصنوعی با سرعت فزاینده‌ای وارد زندگی روزمره ما می‌شوند، نیاز بیشتری به سیستم‌های هوش مصنوعی برای کار هم‌افزایی با انسان‌ها احساس می‌شود. یکی از نیازهای حیاتی برای چنین تعامل هم افزایی هوش مصنوعی این است که رفتار سیستم های هوش مصنوعی برای انسان های موجود در حلقه قابل توضیح باشد. برای انجام موثر این کار، عوامل هوش مصنوعی باید از برنامه ریزی با مدل های خود از جهان فراتر بروند و مدل ذهنی انسان در حلقه را در نظر بگیرند. حداقل، عوامل هوش مصنوعی به تقریب‌هایی از مدل‌های وظیفه و هدف انسان، و همچنین مدل‌های انسانی از وظایف و مدل‌های هدف عامل هوش مصنوعی نیاز دارند. اولی عامل را برای پیش‌بینی و مدیریت نیازها، خواسته‌ها و توجه انسان‌ها در حلقه راهنمایی می‌کند و دومی به او اجازه می‌دهد تا به روش‌هایی عمل کند که برای انسان‌ها قابل تفسیر باشد (با انطباق با مدل‌های ذهنی آنها از آن)، و آماده ارائه توضیحات سفارشی در صورت نیاز است.

نویسندگان از چندین سال تحقیق در آزمایشگاه خود استفاده می‌کنند تا در مورد اینکه چگونه یک عامل هوش مصنوعی می‌تواند از این مدل‌های ذهنی برای مطابقت با انتظارات انسان یا تغییر آن انتظارات از طریق ارتباط توضیحی استفاده کند. . در حالی که تمرکز کتاب بر روی سناریوهای مشارکتی است، همچنین نشان می‌دهد که چگونه می‌توان از همان مدل‌های ذهنی برای مبهم‌سازی و فریب استفاده کرد. این کتاب همچنین چندین سیستم کاربردی دنیای واقعی را برای تصمیم‌گیری مشارکتی توصیف می‌کند که بر اساس چارچوب و تکنیک‌های توسعه‌یافته در اینجا هستند. اگرچه اساساً توسط تحقیقات خود نویسندگان در این زمینه ها هدایت می شود، هر فصل ارتباطات گسترده ای را با تحقیقات مرتبط از ادبیات گسترده تر فراهم می کند. موضوعات فنی پوشش داده شده در این کتاب مستقل است و برای خوانندگانی با پیشینه اولیه در هوش مصنوعی قابل دسترسی است.


توضیحاتی درمورد کتاب به خارجی

<p><b>From its inception, artificial intelligence (AI) has had a rather ambivalent relationship with humans—swinging between their augmentation and replacement</b>. Now, as AI technologies enter our everyday lives at an ever-increasing pace, there is a greater need for AI systems to work synergistically with humans. One critical requirement for such synergistic human?AI interaction is that the AI systems' behavior be explainable to the humans in the loop. To do this effectively, AI agents need to go beyond planning with their own models of the world, and take into account the mental model of the human in the loop. At a minimum, AI agents need approximations of the human's task and goal models, as well as the human's model of the AI agent's task and goal models. The former will guide the agent to anticipate and manage the needs, desires and attention of the humans in the loop, and the latter allow it to act in ways that are interpretable to humans (by conforming to their mental models of it), and be ready to provide customized explanations when needed.</p><p>The authors draw from several years of research in their lab to discuss how an AI agent can use these mental models to either conform to human expectations or change those expectations through explanatory communication. While the focus of the book is on cooperative scenarios, it also covers how the same mental models can be used for obfuscation and deception. The book also describes several real-world application systems for collaborative decision-making that are based on the framework and techniques developed here. Although primarily driven by the authors' own research in these areas, every chapter will provide ample connections to relevant research from the wider literature. The technical topics covered in the book are self-contained and are accessible to readers with a basic background in AI.</p>



فهرست مطالب

Preface
Acknowledgments
Introduction
	Humans and AI Agents: An Ambivalent Relationship
	Explanations in Humans
		When and Why Do Humans Expect Explanations from Each Other?
		How Do Humans Exchange Explanations?
		(Why) Should AI Systems Be Explainable?
	Dimensions of Explainable AI systems
		Use Cases for Explanations in Human–AI Interaction
		Requirements on Explanations
		Explanations as Studied in the AI Literature
		Explainable AI: The Landscape and The Tribes
	Our Perspective on Human-Aware and Explainable AI Agents
		How Do We Make AI Agents Human-Aware?
		Mental Models in Explainable AI Systems
	Overview of This Book
Measures of Interpretability
	Planning Models
	Modes of Interpretable Behavior
		Explicability
		Legibility
		Predictability
	Communication to Improve Interpretability
		Communicating Model Information
	Other Considerations in Interpretable Planning
	Generalizing Interpretability Measures
	Bibliographic Remarks
Explicable Behavior Generation
	Explicable Planning Problem
	Model-Based Explicable Planning
		Plan Generation Through Reconciliation Search
		Possible Distance Functions
	Model-Free Explicable Planning
		Problem Formulation
		Learning Approach
		Plan Generation
	Environment Design for Explicability
		Problem Setting
		Framework for Design for Explicability
		Search for Optimal Design
		Demonstration of Environment Design for Explicability
	Bibliographic Remarks
Legible Behavior
	Controlled Observability Planning Problem
		Human's Belief Space
		Computing Solutions to COPP Variants
		Variants of COPP
	Goal Legibility
		Computing Goal Legible Plans
	Plan Legibility
		Computing Plan Legible Plans
	Bibliographic Remarks
Explanation as Model Reconciliation
	Model-Reconciliation as Explanation
		The Fetch Domain
	Explanation Generation
		Explanation Types
		Desiderata for Explanations as Discussed in Social Sciences
		Model Space Search for Minimal Explanations
	Approximate Explanations
		Explicit Contrastive Explanations
		Approximate MCE
	User Studies
	Other Explanatory Methods
	Bibliographic Remarks
Acquiring Mental Models for Explanations
	The Urban Search and Reconnaissance Domain
	Model Uncertainty
	Model-Free Explanations
	Assuming Prototypical Models
	Bibliographic Remarks
Balancing Communication and Behavior
	Modified USAR Domain
	Balancing Explanation and Explicable Behavior Generation
		Generating Balanced Plans
		Stage of Interaction and Epistemic Side Effects
		Optimizing for Explicability of the Plan
	Balancing Communication and Behavior For Other Measures
	Bibliographic Remarks
Explaining in the Presence of Vocabulary Mismatch
	Representation of Robot Model
	Setting
		Local Approximation of Planning Model
		Montezuma's Revenge
	Acquiring Interpretable Models
	Query-Specific Model Acquisition
		Explanation Generation
		Identifying Explanations Through Sample-Based Trials
	Explanation Confidence
	Handling Uncertainty in Concept Mapping
	Acquiring New Vocabulary
	Bibliographic Remarks
Obfuscatory Behavior and Deceptive Communication
	Obfuscation
		Goal Obfuscation
		Secure Goal Obfuscation
		Plan Obfuscation
		Deception
	Multi-Observer Simultaneous Obfuscation and Legibility
		Mixed-Observer Controlled Observability Planning Problem
		Plan Computation
	Lies
		When Should an Agent Lie?
		How Can an Agent Lie?
		Implications of Lies
	Bibliographical Remarks
Applications
	Collaborative Decision-Making
	Humans as Actors
		RADAR
		MA-RADAR
		RADAR-X
	Model Transcription Assistants
		D3WA+
	Bibliographic Remarks
Conclusion
Bibliography
Authors' Biographies
Index




نظرات کاربران