دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: نویسندگان: Johan A K Suykens, Tony Van Gestel, Jos De Brabanter, Bart De Moor, Joos Vandewalle سری: ISBN (شابک) : 9812381511, 9789812776655 ناشر: سال نشر: 2002 تعداد صفحات: 310 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 10 مگابایت
در صورت تبدیل فایل کتاب Least Squares Support Vector Machines به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب حداقل مربعات پشتیبان ماشین های بردار نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
بررسی ماشینهای بردار پشتیبان حداقل مربعات (LS-SVM) که فرمولبندی مجدد به SVMهای استاندارد هستند. LS-SVM ها ارتباط نزدیکی با شبکه های منظم سازی و فرآیندهای گاوسی دارند، اما علاوه بر این بر تفسیرهای اولیه-دوگانه از تئوری بهینه سازی تأکید و بهره برداری می کنند. نویسندگان پیوندهای طبیعی بین طبقهبندیکنندههای LS-SVM و تحلیل تفکیککننده هسته فیشر را توضیح میدهند. استنتاج بیزی مدلهای LS-SVM همراه با روشهایی برای تحمیل پراکندگی و بهکارگیری آمار قوی مورد بحث قرار میگیرد. این چارچوب بیشتر به سمت یادگیری بدون نظارت با در نظر گرفتن تجزیه و تحلیل PCA و نسخه هسته آن به عنوان یک مشکل مدلسازی یک کلاس گسترش مییابد. این منجر به فرمولهای جدید ماشین بردار پشتیبان اولیه-دوگانه برای تجزیه و تحلیل PCA هسته و CCA هسته میشود. علاوه بر این، فرمولهای LS-SVM برای شبکههای تکراری و کنترل داده شده است. به طور کلی، ماشینهای بردار پشتیبانی ممکن است چالشهای محاسباتی سنگینی را برای مجموعههای داده بزرگ ایجاد کنند. برای این منظور، روشی با اندازه ثابت LS-SVM پیشنهاد شده است که در آن تخمین در فضای اولیه در رابطه با نمونه برداری Nystrom با انتخاب فعال بردارهای پشتیبانی انجام می شود. روش ها با چندین مثال نشان داده شده است.
An examination of least squares support vector machines (LS-SVMs) which are reformulations to standard SVMs. LS-SVMs are closely related to regularization networks and Gaussian processes but additionally emphasize and exploit primal-dual interpretations from optimization theory. The authors explain the natural links between LS-SVM classifiers and kernel Fisher discriminant analysis. Bayesian inference of LS-SVM models is discussed, together with methods for imposing sparseness and employing robust statistics. The framework is further extended towards unsupervised learning by considering PCA analysis and its kernel version as a one-class modelling problem. This leads to new primal-dual support vector machine formulations for kernel PCA and kernel CCA analysis. Furthermore, LS-SVM formulations are given for recurrent networks and control. In general, support vector machines may pose heavy computational challenges for large data sets. For this purpose, a method of fixed size LS-SVM is proposed where the estimation is done in the primal space in relation to a Nystrom sampling with active selection of support vectors. The methods are illustrated with several examples.