مشخصات کتاب
Advances in Learning Theory. Methods, Models and Applications
دسته بندی: سایبرنتیک: هوش مصنوعی
ویرایش:
نویسندگان: Suykens J.A.K., Horvath G., Basu S., Micchelli C., Vandewalle J. (eds.)
سری:
ناشر:
سال نشر:
تعداد صفحات: 433
زبان: English
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 3 مگابایت
قیمت کتاب (تومان) : 52,000
کلمات کلیدی مربوط به کتاب پیشرفت در تئوری یادگیری روش ها ، مدل ها و برنامه های کاربردی: علوم و مهندسی کامپیوتر، هوش مصنوعی، داده کاوی
میانگین امتیاز به این کتاب :
تعداد امتیاز دهندگان : 14
در صورت تبدیل فایل کتاب Advances in Learning Theory. Methods, Models and Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پیشرفت در تئوری یادگیری روش ها ، مدل ها و برنامه های کاربردی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
توضیحاتی در مورد کتاب پیشرفت در تئوری یادگیری روش ها ، مدل ها و برنامه های کاربردی
Издательство IOS Press, 2003, -433 pp.
در سالهای اخیر پیشرفت
قابل توجهی در درک مسائل یادگیری و تعمیم حاصل شده است. در این
زمینه، هوش اساساً به معنای توانایی عملکرد خوب بر روی داده های
جدید پس از یادگیری یک مدل بر اساس داده های داده شده است. چنین
مشکلاتی در بسیاری از زمینههای مختلف به وجود میآیند و برای
بسیاری از کاربردها مانند بیوانفورماتیک، چند رسانهای، بینایی
کامپیوتری و پردازش سیگنال، جستجوی اینترنتی و بازیابی اطلاعات،
دادهکاوی و متن کاوی، امور مالی، تشخیص تقلب، سیستمهای
اندازهگیری، اهمیت و حیاتیتر میشوند. کنترل فرآیند و چندین
مورد دیگر. در حال حاضر، توسعه فنآوریهای جدید امکان تولید حجم
عظیمی از دادهها را فراهم میآورد که حاوی اطلاعات فراوانی هستند
که باید مورد بررسی قرار گیرند. اغلب ابعاد فضاهای ورودی در این
برنامه های کاربردی جدید بسیار زیاد است. این را می توان در تجزیه
و تحلیل داده های ریز آرایه مشاهده کرد، به عنوان مثال، که در آن
سطوح بیان هزاران ژن تنها با توجه به تعداد محدودی از آزمایش ها
نیاز به تجزیه و تحلیل دارند. بدون انجام کاهش ابعاد، پارادایم
های آماری کلاسیک کاستی های اساسی را در این نقطه نشان می دهند.
در مواجهه با این چالشهای جدید، نیاز به مبانی و مدلهای جدید
ریاضی وجود دارد به گونهای که دادهها بتوانند به روشی قابل
اعتماد پردازش شوند. موضوعات این نشریه بسیار بین رشتهای هستند و
به مسائل مورد مطالعه در شبکههای عصبی، یادگیری ماشین، ریاضیات و
آمار مربوط میشوند.
مروری بر نظریه یادگیری
آماری
بهترین گزینهها برای پارامترهای منظمسازی در نظریه یادگیری: در
مورد مسئله تعصب-واریانس
نظریه یادگیری کوچک Cucker در فضاهای Besov
تقریبا با ابعاد بالا توسط شبکههای عصبی
یادگیری عملکردی از طریق هستهها
ترک -خطا و پایداری یکپارچه الگوریتم های یادگیری با برنامه
ها
طبقه بندی حداقل مربعات منظم
ماشین های بردار پشتیبانی: رویکردها و برنامه های افزودنی حداقل
مربعات
گسترش دامنه ν-SVM برای طبقه بندی
یادگیری چندطبقه ای با کدهای خروجی
رگرسیون و طبقه بندی بیزی
نظریه میدان بیزی: از میدان های احتمال تا ابرفیلدها
هموارسازی بیزی و هندسه اطلاعات
br/>پیشبینی ناپارامتری
پیشرفتهای اخیر در نظریه یادگیری آماری
شبکههای عصبی در سیستمهای اندازهگیری (یک دیدگاه مهندسی)
توضیحاتی درمورد کتاب به خارجی
Издательство IOS Press, 2003, -433 pp.
In recent years, considerable
progress has been made in the understanding of problems of
learning and generalization. In this context, intelligence
basically means the ability to perform well on new data after
learning a model on the basis of given data. Such problems
arise in many different areas and are becoming increasingly
important and crucial towards many applications such as in
bioinformatics, multimedia, computer vision and signal
processing, internet search and information retrieval, data
mining and text mining, finance, fraud detection, measurement
systems, process control and several others. Currently, the
development of new technologies enables to generate massive
amounts of data containing a wealth of information that remains
to become explored. Often the dimensionality of the input
spaces in these novel applications is huge. This can be seen in
the analysis of micro-array data, for example, where expression
levels of thousands of genes need to be analyzed given only a
limited number of experiments. Without performing
dimensionality reduction, the classical statistical paradigms
show fundamental shortcomings at this point. Facing these new
challenges, there is a need for new mathematical foundations
and models in a way that the data can become processed in a
reliable way. The subjects in this publication are very
interdisciplinary and relate to problems studied in neural
networks, machine learning, mathematics and statistics.
An Overview of Statistical Learning
Theory
Best Choices for Regularization Parameters in Learning Theory:
On the Bias-Variance Problem
Cucker Smale Learning Theory in Besov Spaces
High-dimensional Approximation by Neural Networks
Functional Learning through Kernels
Leave-one-out Error and Stability of Learning Algorithms with
Applications
Regularized Least-Squares Classification
Support Vector Machines: Least Squares Approaches and
Extensions
Extension of the ν-SVM Range for Classification
An Optimization Perspective on Kernel Partial Least Squares
Regression
Multiclass Learning with Output Codes
Bayesian Regression and Classification
Bayesian Field Theory: from Likelihood Fields to
Hyperfields
Bayesian Smoothing and Information Geometry
Nonparametric Prediction
Recent Advances in Statistical Learning Theory
Neural Networks in Measurement Systems (an engineering view)
نظرات کاربران