دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: Nadia Magnenat-Thalmann, Junsong Yuan, Daniel Thalmann, Bum-Jae You (eds.) سری: Human–Computer Interaction Series ISBN (شابک) : 9783319199467, 9783319199474 ناشر: Springer International Publishing سال نشر: 2016 تعداد صفحات: 301 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 14 مگابایت
کلمات کلیدی مربوط به کتاب زمینه تعامل آگاهی انسان-ربات و تعامل با عامل انسانی: رابط های کاربر و تعامل انسان با کامپیوتر، تصویربرداری کامپیوتری، بینایی، تشخیص الگو و گرافیک، هوش مصنوعی (شامل رباتیک)
در صورت تبدیل فایل کتاب Context Aware Human-Robot and Human-Agent Interaction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب زمینه تعامل آگاهی انسان-ربات و تعامل با عامل انسانی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این اولین کتابی است که توضیح میدهد چگونه انسانهای مجازی مستقل و رباتهای اجتماعی میتوانند با افراد واقعی تعامل داشته باشند، از محیط اطراف خود آگاه باشند و به موقعیتهای مختلف واکنش نشان دهند. محققان از سراسر جهان تکنیکهای اصلی را برای ردیابی و تجزیه و تحلیل انسانها و رفتار آنها ارائه میکنند و پتانسیل این انسانها و رباتهای مجازی را برای جایگزینی یا ایستادن برای همتایان انسانی خود، مقابله با حوزههایی مانند آگاهی و واکنش به محرکهای دنیای واقعی و استفاده از آنها در نظر میگیرند. همان روشهایی که انسانها انجام میدهند: حرکات کلامی و بدن، حالات چهره و نگاه برای کمک به تعامل یکپارچه انسان و رایانه (HCI).
تحقیق ارائهشده در این جلد به سه بخش تقسیم میشود:
·درک کاربر از طریق ادراک چندحسی: به تجزیه و تحلیل و تشخیص یک موقعیت یا محرک معین می پردازد، به مسائل مربوط به تشخیص چهره، حرکات بدن و محلی سازی صدا می پردازد.
·انیمیشن مدلسازی چهره و بدن: روشهای مورد استفاده در مدلسازی و متحرک سازی چهرهها و بدنها را برای ایجاد حرکت واقعی ارائه میدهد.
·مدلسازی انسان رفتارها: جنبههای رفتاری انسانهای مجازی و روباتهای اجتماعی را هنگام تعامل و واکنش به انسانهای واقعی و یکدیگر نشان میدهد.
تعامل انسان-ربات و انسان-عامل آگاه از زمینه برای دانش آموزان، دانشگاهیان و متخصصان صنعت در زمینه هایی مانند رباتیک، HCI و گرافیک کامپیوتری بسیار مفید خواهد بود.
This is the first book to describe how Autonomous Virtual Humans and Social Robots can interact with real people, be aware of the environment around them, and react to various situations. Researchers from around the world present the main techniques for tracking and analysing humans and their behaviour and contemplate the potential for these virtual humans and robots to replace or stand in for their human counterparts, tackling areas such as awareness and reactions to real world stimuli and using the same modalities as humans do: verbal and body gestures, facial expressions and gaze to aid seamless human-computer interaction (HCI).
The research presented in this volume is split into three sections:
·User Understanding through Multisensory Perception: deals with the analysis and recognition of a given situation or stimuli, addressing issues of facial recognition, body gestures and sound localization.
·Facial and Body Modelling Animation: presents the methods used in modelling and animating faces and bodies to generate realistic motion.
·Modelling Human Behaviours: presents the behavioural aspects of virtual humans and social robots when interacting and reacting to real humans and each other.
Context Aware Human-Robot and Human-Agent Interaction would be of great use to students, academics and industry specialists in areas like Robotics, HCI, and Computer Graphics.
Front Matter....Pages i-xiii
Front Matter....Pages 1-1
Face and Facial Expressions Recognition and Analysis....Pages 3-29
Body Movement Analysis and Recognition....Pages 31-53
Sound Source Localization and Tracking....Pages 55-78
Front Matter....Pages 79-79
Modelling Conversation....Pages 81-111
Personalized Body Modeling....Pages 113-132
Parameterized Facial Modelling and Animation....Pages 133-149
Motion-Based Learning....Pages 151-173
Responsive Motion Generation....Pages 175-189
Shared Object Manipulation....Pages 191-207
Front Matter....Pages 209-209
Modeling Personality, Mood, and Emotions....Pages 211-236
Motion Control for Social Behaviors....Pages 237-256
Multiple Virtual Human Interactions....Pages 257-274
Multimodal and Multi-party Social Interactions....Pages 275-298