دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Anthony L. Caterini, Dong Eui Chang سری: ISBN (شابک) : 9783319753041 ناشر: Springer سال نشر: 2018 تعداد صفحات: 91 زبان: english فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 724 کیلوبایت
در صورت تبدیل فایل کتاب Deep Neural Networks in a Mathematical Framework به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکه های عصبی عمیق در یک چارچوب ریاضی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این SpringerBrief چگونگی ساخت یک چارچوب ریاضی دقیق سرتاسر برای شبکههای عصبی عمیق را توضیح میدهد. نویسندگان ابزارهایی را برای نشان دادن و توصیف شبکههای عصبی ارائه میکنند و نتایج قبلی را در این زمینه در نور طبیعیتر نشان میدهند. به طور خاص، نویسندگان الگوریتمهای نزول گرادیان را به روشی یکپارچه برای چندین ساختار شبکه عصبی، از جمله پرسپترونهای چندلایه، شبکههای عصبی کانولوشنال، رمزگذارهای خودکار عمیق و شبکههای عصبی مکرر استخراج میکنند. علاوه بر این، چارچوب توسعهیافته نویسندگان نسبت به نمایشهای قبلی شبکههای عصبی، مختصرتر و از نظر ریاضی بصریتر است. این SpringerBrief یک قدم به سمت باز کردن جعبه سیاه Deep Learning است. نویسندگان بر این باورند که این چارچوب به تسریع اکتشافات بیشتر در مورد ویژگیهای ریاضی شبکههای عصبی کمک میکند. این SpringerBrief نه تنها برای محققان، متخصصان و دانشجویانی که در زمینه یادگیری عمیق کار و مطالعه میکنند، بلکه برای کسانی که خارج از شبکه خنثی هستند نیز قابل دسترسی است. انجمن.
This SpringerBrief describes how to build a rigorous end-to-end mathematical framework for deep neural networks. The authors provide tools to represent and describe neural networks, casting previous results in the field in a more natural light. In particular, the authors derive gradient descent algorithms in a unified way for several neural network structures, including multilayer perceptrons, convolutional neural networks, deep autoencoders and recurrent neural networks. Furthermore, the authors developed framework is both more concise and mathematically intuitive than previous representations of neural networks. This SpringerBrief is one step towards unlocking the black box of Deep Learning. The authors believe that this framework will help catalyze further discoveries regarding the mathematical properties of neural networks.This SpringerBrief is accessible not only to researchers, professionals and students working and studying in the field of deep learning, but also to those outside of the neutral network community.