ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Information Theoretic Learning: Renyi's Entropy and Kernel Perspectives

دانلود کتاب یادگیری تئوری اطلاعات: دیدگاه های آنتروپی و هسته رنی

Information Theoretic Learning: Renyi's Entropy and Kernel Perspectives

مشخصات کتاب

Information Theoretic Learning: Renyi's Entropy and Kernel Perspectives

ویرایش: [1 ed.] 
نویسندگان:   
سری: Information Science and Statistics 
ISBN (شابک) : 1441915699, 9781441915696 
ناشر: Springer-Verlag New York 
سال نشر: 2010 
تعداد صفحات: 448
[527] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 7 Mb 

قیمت کتاب (تومان) : 31,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 5


در صورت تبدیل فایل کتاب Information Theoretic Learning: Renyi's Entropy and Kernel Perspectives به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری تئوری اطلاعات: دیدگاه های آنتروپی و هسته رنی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری تئوری اطلاعات: دیدگاه های آنتروپی و هسته رنی



این کتاب اولین درمان منسجم از الگوریتم‌های یادگیری نظری اطلاعات (ITL) را برای تطبیق ماشین‌های یادگیری خطی یا غیرخطی در پارادایم‌های تحت نظارت یا بدون نظارت ارائه می‌کند. ITL چارچوبی است که در آن مفاهیم مرسوم آمار مرتبه دوم (کوواریانس، فاصله L2، توابع همبستگی) با اسکالرها و توابع با زیربنای نظری اطلاعات، به ترتیب آنتروپی، اطلاعات متقابل و همبستگی جایگزین می‌شوند.

ITL ساختار تصادفی داده‌ها را فراتر از آمارهای مرتبه دوم برای بهبود عملکرد بدون استفاده از رویکردهای بیزی کامل که به هزینه محاسباتی بسیار بیشتری نیاز دارند، کمیت می‌کند. این به دلیل تخمین‌گر ناپارامتری آنتروپی درجه دوم Reny که فقط تابعی از تفاوت‌های زوجی بین نمونه‌ها است، امکان‌پذیر است. این کتاب عملکرد الگوریتم‌های ITL را با نمونه‌های مرتبه دوم در بسیاری از برنامه‌های مهندسی و یادگیری ماشین مقایسه می‌کند.

دانش‌آموزان، پزشکان و محققان علاقه‌مند به پردازش سیگنال آماری، هوش محاسباتی و یادگیری ماشین در این کتاب خواهند یافت. تئوری برای درک اصول اولیه، الگوریتم‌هایی برای پیاده‌سازی برنامه‌ها، و سرنخ‌های هیجان‌انگیز اما هنوز ناشناخته که زمینه مناسبی را برای تحقیقات آینده فراهم می‌کنند.

José C. Principe استاد ممتاز مهندسی برق و بیومدیکال و پروفسور BellSouth در دانشگاه فلوریدا و موسس و مدیر آزمایشگاه مهندسی عصبی محاسباتی است. او عضو IEEE و AIMBE، رئیس سابق انجمن بین المللی شبکه عصبی، سردبیر سابق IEEE Trans. در مهندسی زیست پزشکی و موسس سردبیر بررسی های IEEE در مورد مهندسی پزشکی. او یک کتاب الکترونیکی تعاملی در مورد شبکه های عصبی، کتابی در زمینه مهندسی رابط ماشین مغز و اخیراً کتابی در مورد فیلتر تطبیقی ​​هسته نوشته است و جایزه پیشگام شبکه عصبی IEEE در سال 2011 را دریافت کرد.


توضیحاتی درمورد کتاب به خارجی

This book presents the first cohesive treatment of Information Theoretic Learning (ITL) algorithms to adapt linear or nonlinear learning machines both in supervised or unsupervised paradigms. ITL is a framework where the conventional concepts of second order statistics (covariance, L2 distances, correlation functions) are substituted by scalars and functions with information theoretic underpinnings, respectively entropy, mutual information and correntropy.

ITL quantifies the stochastic structure of the data beyond second order statistics for improved performance without using full-blown Bayesian approaches that require a much larger computational cost. This is possible because of a non-parametric estimator of Renyi’s quadratic entropy that is only a function of pairwise differences between samples. The book compares the performance of ITL algorithms with the second order counterparts in many engineering and machine learning applications.

Students, practitioners and researchers interested in statistical signal processing, computational intelligence, and machine learning will find in this book the theory to understand the basics, the algorithms to implement applications, and exciting but still unexplored leads that will provide fertile ground for future research.

José C. Principe is Distinguished Professor of Electrical and Biomedical Engineering, and BellSouth Professor at the University of Florida, and the Founder and Director of the Computational NeuroEngineering Laboratory. He is an IEEE and AIMBE Fellow, Past President of the International Neural Network Society, Past Editor-in-Chief of the IEEE Trans. on Biomedical Engineering and the Founder Editor-in-Chief of the IEEE Reviews on Biomedical Engineering. He has written an interactive electronic book on Neural Networks, a book on Brain Machine Interface Engineering and more recently a book on Kernel Adaptive Filtering, and was awarded the 2011 IEEE Neural Network Pioneer Award.





نظرات کاربران