دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Bill Chambers. Matei Zaharia
سری:
ISBN (شابک) : 1491912219, 9781491912218
ناشر: O’Reilly Media
سال نشر: 2018
تعداد صفحات: 601
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 8 مگابایت
کلمات کلیدی مربوط به کتاب Spark: The Definitive Guide: Big Data Processing Simple: علوم کامپیوتر، هوش مصنوعی و یادگیری ماشین، بیوانفورماتیک، شبیهسازی کامپیوتر، سایبرنتیک، تعامل انسان و کامپیوتر، تئوری اطلاعات، رباتیک، تجزیه و تحلیل و طراحی سیستمها، کامپیوتر و فناوری، مدلسازی و طراحی داده، پایگاههای داده و دادههای بزرگ، کامپیوتر و فناوری، داده کاوی پایگاه داده و کلان داده، رایانه و فناوری، پردازش داده، پایگاههای داده و دادههای بزرگ، رایانهها و فناوری، جاوا، راهنماهای مبتدی، مرجع، سرورها، زبانهای برنامهنویسی، رایانهها و فناوری، پایتون، زبانهای برنامهنویسی، رایانهها
در صورت تبدیل فایل کتاب Spark: The Definitive Guide: Big Data Processing Made Simple به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب Spark: The Definitive Guide: Big Data Processing Simple نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
با این راهنمای جامع که توسط سازندگان چارچوب محاسبات خوشهای منبع باز نوشته شده است، نحوه استفاده، استقرار و نگهداری Apache Spark را بیاموزید. نویسندگان بیل چمبرز و متی زهاریا با تأکید بر بهبودها و ویژگیهای جدید در Spark 2.0، موضوعات Spark را به بخشهای مجزا تقسیم میکنند که هر کدام اهداف منحصربهفردی دارند.
شما عملیاتهای اساسی و عملکردهای مشترک Spark را بررسی خواهید کرد. APIهای ساختاریافته، و همچنین جریان ساخت یافته، یک API سطح بالا جدید برای ساخت برنامههای استریم سرتاسر. توسعهدهندگان و مدیران سیستم اصول نظارت، تنظیم و اشکالزدایی Spark را یاد میگیرند و تکنیکها و سناریوهای یادگیری ماشین را برای استفاده از MLlib، کتابخانه یادگیری ماشینی مقیاسپذیر Spark، بررسی میکنند.
Learn how to use, deploy, and maintain Apache Spark with this comprehensive guide, written by the creators of the open-source cluster-computing framework. With an emphasis on improvements and new features in Spark 2.0, authors Bill Chambers and Matei Zaharia break down Spark topics into distinct sections, each with unique goals.
You’ll explore the basic operations and common functions of Spark’s structured APIs, as well as Structured Streaming, a new high-level API for building end-to-end streaming applications. Developers and system administrators will learn the fundamentals of monitoring, tuning, and debugging Spark, and explore machine learning techniques and scenarios for employing MLlib, Spark’s scalable machine-learning library.
Part 1. Gentle overview of big data and Spark. What is Apache Spark? --
A gentle introduction to Spark --
A tour of Spark\'s toolset --
Part 2. Structured APIs : DataFrames, SQL, and datasets. Structured API overview --
Basic structured operations --
Working with different types of data --
Aggregations --
Joins --
Data sources --
Spark SQL --
Datasets --
Part 3. Low-level APIs. Resilient distributed datasets (RDDs) --
Advanced RDDs --
Distributed shared variables --
Part 4. Production applications. How Spark runs on a cluster --
Developint Spark applications --
Deploying Spark --
Monitoring and debugging --
Performance tuning --
Part 5. Streaming. Stream processing fundamentals --
Structured streaming basics --
Event-time and stateful processing --
Structured streaming in production --
Part 6. Advanced analytics and machine learning. Advanced analytics and machine learning overview --
Preprocessing and feature engineering --
Classification --
Regression --
Recommendation --
Unsupervised learning --
Graph analytics --
Deep learning --
Part 7. Ecosystem. Language specifics : Python (PySpark) and R (SparkR and sparklyr) --
Ecosystem and community.