دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: José C. Príncipe, Weifeng Liu, Simon Haykin سری: ISBN (شابک) : 9780470447536 ناشر: Wiley سال نشر: 2010 تعداد صفحات: 236 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 1 مگابایت
در صورت تبدیل فایل کتاب Kernel Adaptive Filtering A Comprehensive Introduction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب هسته سازگار با هسته ، مقدمه ای جامع نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
یادگیری آنلاین از دیدگاه پردازش سیگنال
علاقه بیشتر به الگوریتم های یادگیری هسته در شبکه های عصبی و
نیاز روزافزون به الگوریتم های تطبیقی غیرخطی در پردازش
سیگنال پیشرفته وجود دارد. ارتباطات و کنترل ها Kernel Adaptive
Filtering اولین کتابی است که مقدمه ای جامع و یکپارچه برای
الگوریتم های یادگیری آنلاین در بازتولید فضاهای هیلبرت هسته
ارائه می کند. بر اساس تحقیقات انجام شده در آزمایشگاه مهندسی
عصبی محاسباتی در دانشگاه فلوریدا و در آزمایشگاه سیستم های
شناختی در دانشگاه مک مستر، انتاریو، کانادا، این منبع منحصر به
فرد نظریه فیلتر تطبیقی را به سطح جدیدی ارتقا می دهد و یک
روش طراحی جدید را ارائه می دهد. فیلترهای تطبیقی
غیرخطی.
الگوریتم حداقل میانگین مربعات هسته، الگوریتم های طرح افکن
هسته، الگوریتم حداقل مربعات بازگشتی هسته، نظریه رگرسیون
فرآیند گاوسی، و الگوریتم حداقل مربعات بازگشتی هسته توسعه
یافته را پوشش می دهد
یک روش انتخاب مدل قدرتمند به
نام حداکثر احتمال حاشیه ای ارائه می دهد
به گلوگاه اصلی فیلترهای تطبیقی هسته - ساختار رو به رشد
آنها می پردازد
دارای دوازده آزمایش کامپیوتر محور
برای تقویت مفاهیم، با کدهای متلب قابل دانلود از وب سایت
نویسندگان
* هر فصل را با خلاصه ای از وضعیت هنر و مسیرهای بالقوه آینده
برای تحقیقات اصلی به پایان می رساند
فیلتر تطبیقی هسته ایده آل برای مهندسان، دانشمندان کامپیوتر
و دانشجویان فارغ التحصیل علاقه مند به سیستم های تطبیقی
غیرخطی برای برنامه های کاربردی آنلاین (برنامه هایی که در آن
جریان داده ها یک نمونه در یک زمان می رسد و راه حل های بهینه
افزایشی مطلوب هستند). همچنین راهنمای مفیدی برای کسانی است که
به دنبال روشهای فیلتر تطبیقی غیرخطی برای حل مسائل عملی
هستند.
یادگیری آنلاین از دیدگاه پردازش سیگنال
علاقه بیشتر به الگوریتم های یادگیری هسته در شبکه های عصبی و
نیاز روزافزون به الگوریتم های تطبیقی غیرخطی در پردازش
سیگنال، ارتباطات و کنترل های پیشرفته. Kernel Adaptive
Filtering اولین کتابی است که مقدمه ای جامع و یکپارچه برای
الگوریتم های یادگیری آنلاین در بازتولید فضاهای هیلبرت هسته
ارائه می کند. بر اساس تحقیقات انجام شده در آزمایشگاه مهندسی
عصبی محاسباتی در دانشگاه فلوریدا و در آزمایشگاه سیستم های
شناختی در دانشگاه مک مستر، انتاریو، کانادا، این منبع منحصر به
فرد نظریه فیلتر تطبیقی را به سطح جدیدی ارتقا می دهد و یک
روش طراحی جدید را ارائه می دهد. فیلترهای تطبیقی
غیرخطی.
الگوریتم حداقل میانگین مربعات هسته، الگوریتم های طرح افکن
هسته، الگوریتم حداقل مربعات بازگشتی هسته، نظریه رگرسیون
فرآیند گاوسی، و الگوریتم حداقل مربعات بازگشتی هسته توسعه
یافته را پوشش می دهد
یک روش انتخاب مدل قدرتمند به
نام حداکثر احتمال حاشیه ای ارائه می دهد
به گلوگاه اصلی فیلترهای تطبیقی هسته - ساختار رو به رشد
آنها می پردازد
دارای دوازده آزمایش کامپیوتر محور
برای تقویت مفاهیم، با کدهای متلب قابل دانلود از وب سایت
نویسندگان
* هر فصل را با خلاصه ای از وضعیت هنر و مسیرهای بالقوه آینده
برای تحقیقات اصلی به پایان می رساند
فیلتر تطبیقی هسته ایده آل برای مهندسان، دانشمندان کامپیوتر
و دانشجویان فارغ التحصیل علاقه مند به سیستم های تطبیقی
غیرخطی برای برنامه های کاربردی آنلاین (برنامه هایی که در آن
جریان داده ها یک نمونه در یک زمان می رسد و راه حل های بهینه
افزایشی مطلوب هستند). همچنین راهنمای مفیدی برای کسانی است که
به دنبال روشهای فیلتر تطبیقی غیرخطی برای حل مسائل عملی
هستند.
Online learning from a signal processing perspective
There is increased interest in kernel learning algorithms in
neural networks and a growing need for nonlinear adaptive
algorithms in advanced signal processing, communications, and
controls. Kernel Adaptive Filtering is the first book to
present a comprehensive, unifying introduction to online
learning algorithms in reproducing kernel Hilbert spaces.
Based on research being conducted in the Computational
Neuro-Engineering Laboratory at the University of Florida and
in the Cognitive Systems Laboratory at McMaster University,
Ontario, Canada, this unique resource elevates the adaptive
filtering theory to a new level, presenting a new design
methodology of nonlinear adaptive filters.
Covers the kernel least mean squares algorithm, kernel
affine projection algorithms, the kernel recursive least
squares algorithm, the theory of Gaussian process regression,
and the extended kernel recursive least squares
algorithm
Presents a powerful model-selection
method called maximum marginal likelihood
Addresses the principal bottleneck of kernel adaptive
filters--their growing structure
Features twelve
computer-oriented experiments to reinforce the concepts, with
MATLAB codes downloadable from the authors' Web site
* Concludes each chapter with a summary of the state of the
art and potential future directions for original
research
Kernel Adaptive Filtering is ideal for engineers, computer
scientists, and graduate students interested in nonlinear
adaptive systems for online applications (applications where
the data stream arrives one sample at a time and incremental
optimal solutions are desirable). It is also a useful guide
for those who look for nonlinear adaptive filtering
methodologies to solve practical problems.
Online learning from a signal processing perspective
There is increased interest in kernel learning algorithms in
neural networks and a growing need for nonlinear adaptive
algorithms in advanced signal processing, communications, and
controls. Kernel Adaptive Filtering is the first book to
present a comprehensive, unifying introduction to online
learning algorithms in reproducing kernel Hilbert spaces.
Based on research being conducted in the Computational
Neuro-Engineering Laboratory at the University of Florida and
in the Cognitive Systems Laboratory at McMaster University,
Ontario, Canada, this unique resource elevates the adaptive
filtering theory to a new level, presenting a new design
methodology of nonlinear adaptive filters.
Covers the kernel least mean squares algorithm, kernel
affine projection algorithms, the kernel recursive least
squares algorithm, the theory of Gaussian process regression,
and the extended kernel recursive least squares
algorithm
Presents a powerful model-selection
method called maximum marginal likelihood
Addresses the principal bottleneck of kernel adaptive
filters--their growing structure
Features twelve
computer-oriented experiments to reinforce the concepts, with
MATLAB codes downloadable from the authors' Web site
* Concludes each chapter with a summary of the state of the
art and potential future directions for original
research
Kernel Adaptive Filtering is ideal for engineers, computer
scientists, and graduate students interested in nonlinear
adaptive systems for online applications (applications where
the data stream arrives one sample at a time and incremental
optimal solutions are desirable). It is also a useful guide
for those who look for nonlinear adaptive filtering
methodologies to solve practical problems.
KERNEL ADAPTIVE FILTERING......Page 3
CONTENTS......Page 9
PREFACE......Page 13
ACKNOWLEDGMENTS......Page 17
NOTATION......Page 19
ABBREVIATIONS AND SYMBOLS......Page 21
1.1 Supervised, Sequential, and Active Learning......Page 25
1.2 Linear Adaptive Filters......Page 27
1.3 Nonlinear Adaptive Filters......Page 34
1.4 Reproducing Kernel Hilbert Spaces......Page 36
1.5 Kernel Adaptive Filters......Page 40
1.6 Summarizing Remarks......Page 44
Endnotes......Page 45
2 KERNEL LEAST-MEAN-SQUARE ALGORITHM......Page 51
2.1 Least-Mean-Square Algorithm......Page 52
2.2 Kernel Least-Mean-Square Algorithm......Page 55
2.3 Kernel and Parameter Selection......Page 58
2.4 Step-Size Parameter......Page 61
2.5 Novelty Criterion......Page 62
2.6 Self-Regularization Property of KLMS......Page 64
2.8 Normalized Kernel Least-Mean-Square Algorithm......Page 72
2.9 Kernel ADALINE......Page 73
2.10 Resource Allocating Networks......Page 77
2.11 Computer Experiments......Page 79
2.12 Conclusion......Page 87
Endnotes......Page 89
3 KERNEL AFFINE PROJECTION ALGORITHMS......Page 93
3.1 Affine Projection Algorithms......Page 94
3.2 Kernel Affine Projection Algorithms......Page 96
3.3 Error Reusing......Page 101
3.5 Taxonomy for Related Algorithms......Page 102
3.6 Computer Experiments......Page 104
3.7 Conclusion......Page 113
Endnotes......Page 115
4.1 Recursive Least-Squares Algorithm......Page 118
4.2 Exponentially Weighted Recursive Least-Squares Algorithm......Page 121
4.3 Kernel Recursive Least-Squares Algorithm......Page 122
4.4 Approximate Linear Dependency......Page 126
4.5 Exponentially Weighted Kernel Recursive Least-Squares Algorithm......Page 127
4.6 Gaussian Processes for Linear Regression......Page 129
4.7 Gaussian Processes for Nonlinear Regression......Page 132
4.8 Bayesian Model Selection......Page 135
4.9 Computer Experiments......Page 138
4.10 Conclusion......Page 143
Endnotes......Page 144
5 EXTENDED KERNEL RECURSIVE LEAST-SQUARES ALGORITHM......Page 148
5.1 Extended Recursive Least Squares Algorithm......Page 149
5.2 Exponentially Weighted Extended Recursive Least Squares Algorithm......Page 152
5.3 Extended Kernel Recursive Least Squares Algorithm......Page 153
5.4 EX-KRLS for Tracking Models......Page 155
5.5 EX-KRLS with Finite Rank Assumption......Page 161
5.6 Computer Experiments......Page 165
5.7 Conclusion......Page 174
Endnotes......Page 175
6.1 Definition of Surprise......Page 176
6.2 A Review of Gaussian Process Regression......Page 178
6.3 Computing Surprise......Page 180
6.4 Kernel Recursive Least Squares with Surprise Criterion......Page 183
6.5 Kernel Least Mean Square with Surprise Criterion......Page 184
6.6 Kernel Affine Projection Algorithms with Surprise Criterion......Page 185
6.7 Computer Experiments......Page 186
6.8 Conclusion......Page 197
Endnotes......Page 198
EPILOGUE......Page 199
A.1 Singular Value Decomposition......Page 201
A.3 Eigenvalue Decomposition......Page 203
A.5 Block Matrix Inverse......Page 205
A.7 Joint, Marginal, and Conditional Probability......Page 206
A.8 Normal Distribution......Page 207
A.10 Newton’s Method......Page 208
B APPROXIMATE LINEAR DEPENDENCY AND SYSTEM STABILITY......Page 210
REFERENCES......Page 217
INDEX......Page 228