دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: 1 نویسندگان: Alex Graves (auth.) سری: Studies in Computational Intelligence 385 ISBN (شابک) : 3642247962, 9783642247965 ناشر: Springer-Verlag Berlin Heidelberg سال نشر: 2012 تعداد صفحات: 159 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 3 مگابایت
کلمات کلیدی مربوط به کتاب برچسب گذاری توالی نظارت شده با شبکه های عصبی مکرر: هوش محاسباتی، هوش مصنوعی (شامل رباتیک)
در صورت تبدیل فایل کتاب Supervised Sequence Labelling with Recurrent Neural Networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب برچسب گذاری توالی نظارت شده با شبکه های عصبی مکرر نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
برچسبگذاری دنبالهای تحت نظارت یک حوزه حیاتی از یادگیری ماشین است که شامل وظایفی مانند گفتار، دستخط و تشخیص حرکات، پیشبینی ساختار ثانویه پروتئین و برچسبگذاری بخشی از گفتار است. شبکههای عصبی مکرر ابزارهای یادگیری توالی قدرتمندی هستند - قوی برای نویز ورودی و اعوجاج، قادر به بهرهبرداری از اطلاعات زمینهای دوربرد - که به نظر میرسد برای چنین مشکلاتی مناسب هستند. با این حال نقش آنها در سیستم های برچسب گذاری توالی در مقیاس بزرگ تاکنون کمکی بوده است.
هدف این کتاب یک چارچوب کامل برای طبقهبندی و رونویسی دادههای متوالی تنها با شبکههای عصبی مکرر است. سه نوآوری اصلی برای تحقق این هدف معرفی شده است. اولاً، لایه خروجی طبقهبندی زمانی اتصالگرا به چارچوب اجازه میدهد تا با دنبالههای هدف بدون بخش، مانند رونویسی گفتار در سطح واج، آموزش داده شود. این برخلاف رویکردهای پیوندگرای قبلی است که به تقسیم بندی قبلی مستعد خطا وابسته بودند. ثانیاً، شبکههای عصبی چند بعدی بازگشتی چارچوب را به روشی طبیعی به دادههایی با بیش از یک بعد مکانی-زمانی، مانند تصاویر و ویدیوها گسترش میدهند. ثالثاً، استفاده از زیرنمونهبرداری سلسله مراتبی، اعمال چارچوب را برای توالیهای با وضوح بسیار بزرگ یا با وضوح بالا، مانند صدا یا ویدیوی خام، امکانپذیر میسازد.
تأیید اعتبار تجربی توسط دولت ارائه میشود. جدیدترین نتایج را در تشخیص گفتار و دست خط میکند.
Supervised sequence labelling is a vital area of machine learning, encompassing tasks such as speech, handwriting and gesture recognition, protein secondary structure prediction and part-of-speech tagging. Recurrent neural networks are powerful sequence learning tools—robust to input noise and distortion, able to exploit long-range contextual information—that would seem ideally suited to such problems. However their role in large-scale sequence labelling systems has so far been auxiliary.
The goal of this book is a complete framework for classifying and transcribing sequential data with recurrent neural networks only. Three main innovations are introduced in order to realise this goal. Firstly, the connectionist temporal classification output layer allows the framework to be trained with unsegmented target sequences, such as phoneme-level speech transcriptions; this is in contrast to previous connectionist approaches, which were dependent on error-prone prior segmentation. Secondly, multidimensional recurrent neural networks extend the framework in a natural way to data with more than one spatio-temporal dimension, such as images and videos. Thirdly, the use of hierarchical subsampling makes it feasible to apply the framework to very large or high resolution sequences, such as raw audio or video.
Experimental validation is provided by state-of-the-art results in speech and handwriting recognition.
Front Matter....Pages 1-11
Introduction....Pages 1-3
Supervised Sequence Labelling....Pages 5-13
Neural Networks....Pages 15-35
Long Short-Term Memory....Pages 37-45
A Comparison of Network Architectures....Pages 47-56
Hidden Markov Model Hybrids....Pages 57-60
Connectionist Temporal Classification....Pages 61-93
Multidimensional Networks....Pages 95-108
Hierarchical Subsampling Networks....Pages 109-131
Back Matter....Pages 0--1