دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Bekkerman R., Bilenko M., Langford J. (eds.) سری: ISBN (شابک) : 9780521192248 ناشر: Cambridge University Press سال نشر: 2011 تعداد صفحات: 493 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 7 مگابایت
در صورت تبدیل فایل کتاب Scaling up Machine Learning: Parallel and Distributed Approaches به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب افزایش مقیاس یادگیری ماشینی: رویکردهای موازی و توزیع شده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب مجموعهای یکپارچه از رویکردهای نماینده برای
مقیاسبندی روشهای یادگیری ماشین و دادهکاوی در پلتفرمهای
محاسباتی موازی و توزیعشده را ارائه میکند. تقاضا برای موازی
سازی الگوریتم های یادگیری بسیار مختص کار است: در برخی تنظیمات
به دلیل اندازه های عظیم مجموعه داده ها، در برخی دیگر به دلیل
پیچیدگی مدل یا الزامات عملکرد زمان واقعی است. انتخاب الگوریتم و
پلتفرم متناسب با وظیفه برای یادگیری ماشینی در مقیاس بزرگ مستلزم
درک مزایا، معاوضهها و محدودیتهای گزینههای موجود است. راه حل
های ارائه شده در این کتاب طیف وسیعی از پلتفرم های موازی سازی از
FPGA و GPU گرفته تا سیستم های چند هسته ای و خوشه های کالا،
چارچوب های برنامه نویسی همزمان از جمله CUDA، MPI، MapReduce و
DryadLINQ و تنظیمات یادگیری (نظارت، بدون نظارت، نیمه نظارت، و
یادگیری آنلاین). پوشش گسترده موازی سازی درختان تقویت شده، SVM
ها، خوشه بندی طیفی، انتشار باورها و دیگر الگوریتم های یادگیری
محبوب و شیرجه های عمیق در چندین برنامه، این کتاب را به همان
اندازه برای محققان، دانشجویان و پزشکان مفید می کند.
This book presents an integrated collection of representative
approaches for scaling up machine learning and data mining
methods on parallel and distributed computing platforms. Demand
for parallelizing learning algorithms is highly task-specific:
in some settings it is driven by the enormous dataset sizes, in
others by model complexity or by real-time performance
requirements. Making task-appropriate algorithm and platform
choices for large-scale machine learning requires understanding
the benefits, trade-offs, and constraints of the available
options. Solutions presented in the book cover a range of
parallelization platforms from FPGAs and GPUs to multi-core
systems and commodity clusters, concurrent programming
frameworks including CUDA, MPI, MapReduce, and DryadLINQ, and
learning settings (supervised, unsupervised, semi-supervised,
and online learning). Extensive coverage of parallelization of
boosted trees, SVMs, spectral clustering, belief propagation
and other popular learning algorithms and deep dives into
several applications make the book equally useful for
researchers, students, and practitioners.