دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: نویسندگان: Léon Bottou, Olivier Chapelle, Dennis DeCoste, Jason Weston سری: Neural Information Processing series ISBN (شابک) : 0262026252, 9780262026253 ناشر: The MIT Press سال نشر: 2007 تعداد صفحات: 399 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 6 مگابایت
کلمات کلیدی مربوط به کتاب ماشینهای هسته بزرگ: علوم و مهندسی کامپیوتر، هوش مصنوعی، داده کاوی
در صورت تبدیل فایل کتاب Large-Scale Kernel Machines به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب ماشینهای هسته بزرگ نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
کامپیوترهای فراگیر و شبکه ای هزینه جمع آوری و توزیع مجموعه داده های بزرگ را به طور چشمگیری کاهش داده اند. در این زمینه، الگوریتمهای یادگیری ماشینی که مقیاس ضعیفی دارند میتوانند به سادگی بیربط شوند. ما به الگوریتمهای یادگیری نیاز داریم که به صورت خطی با حجم دادهها مقیاس شوند و در عین حال کارایی آماری کافی برای عملکرد بهتر از الگوریتمهایی که به سادگی زیرمجموعهای تصادفی از دادهها را پردازش میکنند، حفظ کنند. این جلد به محققان و مهندسان راهحلهای عملی برای یادگیری از مجموعه دادههای مقیاس بزرگ، همراه با توضیحات مفصلی از الگوریتمها و آزمایشهای انجامشده بر روی مجموعه دادههای واقعی بزرگ ارائه میدهد. در عین حال، اطلاعاتی را به محققان ارائه میکند که میتواند کمبود نسبی زمینهسازی نظری بسیاری از الگوریتمهای مفید را برطرف کند. پس از شرح مفصلی از پیشرفتهترین فناوری ماشینهای بردار پشتیبانی، مقدمهای از مفاهیم اساسی بحثشده در جلد، و مقایسه تکنیکهای بهینهسازی اولیه و دوگانه، کتاب از تکنیکهای کاملاً درک شده به جدیدتر و جدیدتر پیشرفت میکند. رویکردهای بحث برانگیز بسیاری از مشارکتکنندگان کد و دادههای خود را برای آزمایشهای بیشتر به صورت آنلاین در دسترس قرار دادهاند. موضوعات پوشش داده شده شامل اجرای سریع الگوریتم های شناخته شده، تقریب هایی است که قابل ضمانت های نظری هستند، و الگوریتم هایی که در عمل خوب عمل می کنند اما تجزیه و تحلیل نظری آنها دشوار است. مشارکت کنندگان لئون بوتو، یوشوا بنژیو، استفان کانو، اریک کوزاتو، اولیویه چاپل، رونان کولوبرت دکوست، رامانی دورایسوامی، ایگور دوردانوویچ، هانس پیتر گراف، آرتور گرتون، پاتریک هافنر، استفانی جگلکا، استفان کانتاک، اس. ساتیا کیرتی، یان لکون، چیه جن لین، گائله لوسلی، خواکین کوئینونرو ادواردالموسن، گونار راچ، ویکاس چاندراکانت رایکار، کنراد ریک، ویکاس سیندوانی، فابیان سینز، سورن سوننبرگ، جیسون وستون، کریستوفر کی آی ویلیامز، الاد یوم-تولولئون بوتو، دانشمند تحقیقاتی در آزمایشگاههای NEC آمریکا است. Olivier Chapelle با Yahoo! پژوهش. او ویراستار آموزش نیمه نظارتی (میت چاپ، 2006) است. Dennis DeCoste با Microsoft Research است. جیسون وستون یک دانشمند تحقیقاتی در آزمایشگاه NEC آمریکا است.
Pervasive and networked computers have dramatically reduced the cost of collecting and distributing large datasets. In this context, machine learning algorithms that scale poorly could simply become irrelevant. We need learning algorithms that scale linearly with the volume of the data while maintaining enough statistical efficiency to outperform algorithms that simply process a random subset of the data. This volume offers researchers and engineers practical solutions for learning from large scale datasets, with detailed descriptions of algorithms and experiments carried out on realistically large datasets. At the same time it offers researchers information that can address the relative lack of theoretical grounding for many useful algorithms. After a detailed description of state-of-the-art support vector machine technology, an introduction of the essential concepts discussed in the volume, and a comparison of primal and dual optimization techniques, the book progresses from well-understood techniques to more novel and controversial approaches. Many contributors have made their code and data available online for further experimentation. Topics covered include fast implementations of known algorithms, approximations that are amenable to theoretical guarantees, and algorithms that perform well in practice but are difficult to analyze theoretically.ContributorsLéon Bottou, Yoshua Bengio, Stéphane Canu, Eric Cosatto, Olivier Chapelle, Ronan Collobert, Dennis DeCoste, Ramani Duraiswami, Igor Durdanovic, Hans-Peter Graf, Arthur Gretton, Patrick Haffner, Stefanie Jegelka, Stephan Kanthak, S. Sathiya Keerthi, Yann LeCun, Chih-Jen Lin, Gaëlle Loosli, Joaquin Quiñonero-Candela, Carl Edward Rasmussen, Gunnar Rätsch, Vikas Chandrakant Raykar, Konrad Rieck, Vikas Sindhwani, Fabian Sinz, Sören Sonnenburg, Jason Weston, Christopher K. I. Williams, Elad Yom-TovLéon Bottou is a Research Scientist at NEC Labs America. Olivier Chapelle is with Yahoo! Research. He is editor of Semi-Supervised Learning (MIT Press, 2006). Dennis DeCoste is with Microsoft Research. Jason Weston is a Research Scientist at NEC Labs America.