دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Gerard Bailly, Pascal Perrier, Eric Vatikiotis-Bateson سری: ISBN (شابک) : 1107006821, 9781107006829 ناشر: Cambridge University Press سال نشر: 2012 تعداد صفحات: 506 [508] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 9 Mb
در صورت تبدیل فایل کتاب Audiovisual Speech Processing به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پردازش گفتار سمعی و بصری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
وقتی صحبت می کنیم، مجرای صوتی را تنظیم می کنیم که حرکات قابل مشاهده صورت و الگوی آکوستیک گفتار قابل شنیدن را شکل می دهد. به همین ترتیب، ما از این رفتارهای قابل مشاهده و شنیدنی برای درک گفتار استفاده می کنیم. این کتاب طیف گستردهای از تحقیقات را نشان میدهد که در مورد چگونگی استفاده از این دو نوع سیگنال در ارتباطات گفتاری، نحوه تعامل آنها، و چگونگی استفاده از آنها برای تقویت سنتز و تشخیص واقعی گفتار قابل شنیدن و قابل مشاهده استفاده میشود. این جلد با پرداختن به دو سوال مهم در مورد عملکرد سمعی و بصری انسان آغاز میشود: چگونه سیگنالهای شنیداری و بصری برای دسترسی به واژگان ذهنی ترکیب میشوند و این و فرآیندهای مرتبط در کجا در مغز انجام میشوند. سپس به تولید و درک گفتار چندوجهی و چگونگی هماهنگی ساختارها در داخل و بین دو روش میپردازد. در نهایت، این کتاب مرورهای کلی و پیشرفتهای اخیر در تشخیص گفتار مبتنی بر ماشین و سنتز گفتار AV را ارائه میکند.
When we speak, we configure the vocal tract which shapes the visible motions of the face and the patterning of the audible speech acoustics. Similarly, we use these visible and audible behaviors to perceive speech. This book showcases a broad range of research investigating how these two types of signals are used in spoken communication, how they interact, and how they can be used to enhance the realistic synthesis and recognition of audible and visible speech. The volume begins by addressing two important questions about human audio-visual performance: how auditory and visual signals combine to access the mental lexicon and where in the brain this and related processes take place. It then turns to the production and perception of multimodal speech and how structures are coordinated within and across the two modalities. Finally, the book presents overviews and recent developments in machine-based speech recognition and synthesis of AV speech.