ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Large-Scale Kernel Machines

دانلود کتاب ماشینهای هسته بزرگ

Large-Scale Kernel Machines

مشخصات کتاب

Large-Scale Kernel Machines

دسته بندی: سایبرنتیک: هوش مصنوعی
ویرایش:  
نویسندگان: , , ,   
سری: Neural Information Processing series 
ISBN (شابک) : 0262026252, 9780262026253 
ناشر: The MIT Press 
سال نشر: 2007 
تعداد صفحات: 399 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 6 مگابایت 

قیمت کتاب (تومان) : 49,000



کلمات کلیدی مربوط به کتاب ماشینهای هسته بزرگ: علوم و مهندسی کامپیوتر، هوش مصنوعی، داده کاوی



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 5


در صورت تبدیل فایل کتاب Large-Scale Kernel Machines به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب ماشینهای هسته بزرگ نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب ماشینهای هسته بزرگ

کامپیوترهای فراگیر و شبکه ای هزینه جمع آوری و توزیع مجموعه داده های بزرگ را به طور چشمگیری کاهش داده اند. در این زمینه، الگوریتم‌های یادگیری ماشینی که مقیاس ضعیفی دارند می‌توانند به سادگی بی‌ربط شوند. ما به الگوریتم‌های یادگیری نیاز داریم که به صورت خطی با حجم داده‌ها مقیاس شوند و در عین حال کارایی آماری کافی برای عملکرد بهتر از الگوریتم‌هایی که به سادگی زیرمجموعه‌ای تصادفی از داده‌ها را پردازش می‌کنند، حفظ کنند. این جلد به محققان و مهندسان راه‌حل‌های عملی برای یادگیری از مجموعه داده‌های مقیاس بزرگ، همراه با توضیحات مفصلی از الگوریتم‌ها و آزمایش‌های انجام‌شده بر روی مجموعه داده‌های واقعی بزرگ ارائه می‌دهد. در عین حال، اطلاعاتی را به محققان ارائه می‌کند که می‌تواند کمبود نسبی زمینه‌سازی نظری بسیاری از الگوریتم‌های مفید را برطرف کند. پس از شرح مفصلی از پیشرفته‌ترین فناوری ماشین‌های بردار پشتیبانی، مقدمه‌ای از مفاهیم اساسی بحث‌شده در جلد، و مقایسه تکنیک‌های بهینه‌سازی اولیه و دوگانه، کتاب از تکنیک‌های کاملاً درک شده به جدیدتر و جدیدتر پیشرفت می‌کند. رویکردهای بحث برانگیز بسیاری از مشارکت‌کنندگان کد و داده‌های خود را برای آزمایش‌های بیشتر به صورت آنلاین در دسترس قرار داده‌اند. موضوعات پوشش داده شده شامل اجرای سریع الگوریتم های شناخته شده، تقریب هایی است که قابل ضمانت های نظری هستند، و الگوریتم هایی که در عمل خوب عمل می کنند اما تجزیه و تحلیل نظری آنها دشوار است. مشارکت کنندگان لئون بوتو، یوشوا بنژیو، استفان کانو، اریک کوزاتو، اولیویه چاپل، رونان کولوبرت دکوست، رامانی دورایسوامی، ایگور دوردانوویچ، هانس پیتر گراف، آرتور گرتون، پاتریک هافنر، استفانی جگلکا، استفان کانتاک، اس. ساتیا کیرتی، یان لکون، چیه جن لین، گائله لوسلی، خواکین کوئینونرو ادواردالموسن، گونار راچ، ویکاس چاندراکانت رایکار، کنراد ریک، ویکاس سیندوانی، فابیان سینز، سورن سوننبرگ، جیسون وستون، کریستوفر کی آی ویلیامز، الاد یوم-تولولئون بوتو، دانشمند تحقیقاتی در آزمایشگاه‌های NEC آمریکا است. Olivier Chapelle با Yahoo! پژوهش. او ویراستار آموزش نیمه نظارتی (میت چاپ، 2006) است. Dennis DeCoste با Microsoft Research است. جیسون وستون یک دانشمند تحقیقاتی در آزمایشگاه NEC آمریکا است.


توضیحاتی درمورد کتاب به خارجی

Pervasive and networked computers have dramatically reduced the cost of collecting and distributing large datasets. In this context, machine learning algorithms that scale poorly could simply become irrelevant. We need learning algorithms that scale linearly with the volume of the data while maintaining enough statistical efficiency to outperform algorithms that simply process a random subset of the data. This volume offers researchers and engineers practical solutions for learning from large scale datasets, with detailed descriptions of algorithms and experiments carried out on realistically large datasets. At the same time it offers researchers information that can address the relative lack of theoretical grounding for many useful algorithms. After a detailed description of state-of-the-art support vector machine technology, an introduction of the essential concepts discussed in the volume, and a comparison of primal and dual optimization techniques, the book progresses from well-understood techniques to more novel and controversial approaches. Many contributors have made their code and data available online for further experimentation. Topics covered include fast implementations of known algorithms, approximations that are amenable to theoretical guarantees, and algorithms that perform well in practice but are difficult to analyze theoretically.ContributorsLéon Bottou, Yoshua Bengio, Stéphane Canu, Eric Cosatto, Olivier Chapelle, Ronan Collobert, Dennis DeCoste, Ramani Duraiswami, Igor Durdanovic, Hans-Peter Graf, Arthur Gretton, Patrick Haffner, Stefanie Jegelka, Stephan Kanthak, S. Sathiya Keerthi, Yann LeCun, Chih-Jen Lin, Gaëlle Loosli, Joaquin Quiñonero-Candela, Carl Edward Rasmussen, Gunnar Rätsch, Vikas Chandrakant Raykar, Konrad Rieck, Vikas Sindhwani, Fabian Sinz, Sören Sonnenburg, Jason Weston, Christopher K. I. Williams, Elad Yom-TovLéon Bottou is a Research Scientist at NEC Labs America. Olivier Chapelle is with Yahoo! Research. He is editor of Semi-Supervised Learning (MIT Press, 2006). Dennis DeCoste is with Microsoft Research. Jason Weston is a Research Scientist at NEC Labs America.





نظرات کاربران