دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Matej Rojc, Nick Campbell سری: ISBN (شابک) : 9781466598256, 9781466598263 ناشر: CRC Press Taylor & Francis Group سال نشر: 2013 تعداد صفحات: xiv, 420 pages : illustrations s زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 19 Mb
در صورت تبدیل فایل کتاب Coverbal Synchrony in Human-Machine Interaction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب همگامی پوششی در تعامل انسان و ماشین نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
عوامل مکالمه تجسمی (ECA) و رابط های انسان و ماشین مبتنی بر گفتار با هم می توانند تعامل انسان و ماشین پیشرفته تر و طبیعی تر را نشان دهند. تلفیق هر دو موضوع یک دستور کار چالش برانگیز در حوزه تحقیق و تولید است. هدف مهم رابط های انسان و ماشین، ارائه محتوا یا عملکرد در قالب یک گفتگوی شبیه به مکالمات رو در رو است. همه رابطهای طبیعی تلاش میکنند تا از استراتژیهای ارتباطی مختلفی بهرهبرداری کرده و از آن استفاده کنند که معنای بیشتری به محتوا ارائه میدهد، چه این رابطهای انسان و ماشین برای کنترل یک برنامه کاربردی باشند یا رابطهای مختلف انسان و ماشین مبتنی بر ECA که مستقیماً مکالمه رو در رو شبیهسازی میکنند. Coverbal Syncchrony در تعامل انسان و ماشین مفاهیم پیشرفته ای را از رابط های پیشرفته انسان و ماشین مستقل از محیط ارائه می دهد که می تواند در زمینه های مختلف استفاده شود، از مرورگرهای وب چند وجهی ساده (به عنوان مثال، خواننده محتوای چندوجهی) تا رابط های چندوجهی پیچیده تر انسان و ماشین برای محیط های هوشمند محیطی (مانند محیط های حمایتی برای سالمندان و محیط های خانگی با هدایت عامل). آنها همچنین می توانند در محیط های محاسباتی مختلف استفاده شوند - از محاسبات فراگیر گرفته تا محیط های دسکتاپ. در این مفاهیم، مشارکت کنندگان چندین استراتژی ارتباطی را مورد بحث قرار می دهند که برای ارائه جنبه های مختلف تعامل انسان و ماشین استفاده می شود.
Embodied conversational agents (ECA) and speech-based human–machine interfaces can together represent more advanced and more natural human–machine interaction. Fusion of both topics is a challenging agenda in research and production spheres. The important goal of human–machine interfaces is to provide content or functionality in the form of a dialog resembling face-to-face conversations. All natural interfaces strive to exploit and use different communication strategies that provide additional meaning to the content, whether they are human–machine interfaces for controlling an application or different ECA-based human–machine interfaces directly simulating face-to-face conversation. Coverbal Synchrony in Human-Machine Interaction presents state-of-the-art concepts of advanced environment-independent multimodal human–machine interfaces that can be used in different contexts, ranging from simple multimodal web-browsers (for example, multimodal content reader) to more complex multimodal human–machine interfaces for ambient intelligent environments (such as supportive environments for elderly and agent-guided household environments). They can also be used in different computing environments—from pervasive computing to desktop environments. Within these concepts, the contributors discuss several communication strategies, used to provide different aspects of human–machine interaction.
Content: Section 1: Human-human interaction and communicative behavior Section 2: Personality, affect, language-affect, emotions and expressivity Section 3: Behaviour analysis, face analysis, gesture analysis, non-verbal communicative behaviour analysis, annotations Section 4: Behaviour generation, gesture generation, synthetic behaviour animation, gaze, and description languages Section 5: Animation, conversational agent design and evaluation Section 6: Multimodal interfaces, multimodal fusion, multimodal output, visualization of synthetic speech, TTS visualization, and multimodal speaker conversion