دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Denny Lee. Tomasz Drabas
سری:
ناشر: Packt Publishing
سال نشر: 2018
تعداد صفحات: 0
زبان: English
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 17 مگابایت
کلمات کلیدی مربوط به کتاب آموزش PySpark: Spark (منبع الکترونیکی: بنیاد نرم افزار آپاچی)، نرم افزار کاربردی -- توسعه، پایتون (زبان برنامه کامپیوتری)
در صورت تبدیل فایل کتاب Learning PySpark به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب آموزش PySpark نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
"Apache Spark یک موتور توزیع شده منبع باز برای پرس و جو و
پردازش داده ها است. در این آموزش، مروری مختصر از Spark و پشته
آن ارائه می دهیم. این آموزش تکنیک های موثر و صرفه جویی در زمان
را در مورد چگونگی استفاده از قدرت پایتون و آن را در اکوسیستم
Spark استفاده کنید. شما با درک دقیق معماری Apache Spark و نحوه
راه اندازی یک محیط پایتون برای Spark شروع خواهید کرد. در مورد
تکنیکهای مختلف برای جمعآوری دادهها و تمایز (و درک) بین
تکنیکهای پردازش دادهها یاد میگیریم. سپس، مروری عمیق از
RDDها و مقایسه آنها با DataFrames ارائه میکنیم. نمونههایی
از نحوه خواندن دادهها از فایلها و از HDFS و نحوه تعیین
طرحوارهها با استفاده از بازتاب یا برنامهنویسی (در مورد
DataFrames). مفهوم اجرای تنبل توضیح داده شده است و ما تغییرات و
اقدامات مختلف مختص RDD و DataFrame را بیان میکنیم. در نهایت به
شما نشان میدهیم که چگونه از SQL برای تعامل استفاده کنید. با
DataFrames در پایان این آموزش، نحوه پردازش داده ها با استفاده
از Spark DataFrames و تسلط بر تکنیک های جمع آوری داده ها با
پردازش داده های توزیع شده را خواهید آموخت.\"--صفحه توضیحات
منبع. <
span>ادامه مطلب...
چکیده: \"Apache Spark یک موتور توزیع شده منبع باز برای پرس و جو
و پردازش داده ها است. در این آموزش، مروری کوتاه بر Spark و پشته
آن ارائه می دهیم. این آموزش تکنیک های موثر و صرفه جویی در زمان
را در مورد نحوه استفاده از قدرت پایتون و استفاده از آن در
اکوسیستم اسپارک ارائه می دهد. شما با درک دقیق معماری Apache
Spark و نحوه راه اندازی یک محیط Python برای Spark شروع خواهید
کرد. شما در مورد تکنیک های مختلف برای جمع آوری داده ها و تمایز
بین (و درک) تکنیک های پردازش داده ها یاد خواهید گرفت. در مرحله
بعد، ما یک بررسی عمیق از RDD ها و مقایسه آنها با DataFrames
ارائه می دهیم. ما نمونه هایی از نحوه خواندن داده ها از فایل ها
و HDFS و نحوه تعیین طرحواره ها با استفاده از بازتاب یا برنامه
نویسی (در مورد DataFrames) ارائه می دهیم. مفهوم اجرای تنبل
توضیح داده شده است و ما تغییرات و اقدامات مختلف مخصوص RDD ها و
DataFrames را بیان می کنیم. در نهایت، نحوه استفاده از SQL برای
تعامل با DataFrames را به شما نشان می دهیم. در پایان این آموزش،
نحوه پردازش داده ها با استفاده از Spark DataFrames و تسلط بر
تکنیک های جمع آوری داده ها با پردازش داده های توزیع شده را
خواهید آموخت.\"--صفحه توضیحات منبع
"Apache Spark is an open-source distributed engine for querying
and processing data. In this tutorial, we provide a brief
overview of Spark and its stack. This tutorial presents
effective, time-saving techniques on how to leverage the power
of Python and put it to use in the Spark ecosystem. You will
start by getting a firm understanding of the Apache Spark
architecture and how to set up a Python environment for
Spark. You'll learn
about different techniques for collecting data, and distinguish
between (and understand) techniques for processing data. Next,
we provide an in-depth review of RDDs and contrast them with
DataFrames. We provide examples of how to read data from files
and from HDFS and how to specify schemas using reflection or
programmatically (in the case of DataFrames). The concept of
lazy execution is described and we outline various
transformations and actions specific to RDDs and DataFrames.
Finally, we show you how to use SQL to interact with
DataFrames. By the end of this tutorial, you will have learned
how to process data using Spark DataFrames and mastered data
collection techniques by distributed data
processing."--Resource description page. Read
more...
Abstract: "Apache Spark is an open-source distributed engine
for querying and processing data. In this tutorial, we provide
a brief overview of Spark and its stack. This tutorial presents
effective, time-saving techniques on how to leverage the power
of Python and put it to use in the Spark ecosystem. You will
start by getting a firm understanding of the Apache Spark
architecture and how to set up a Python environment for Spark.
You'll learn about different techniques for collecting data,
and distinguish between (and understand) techniques for
processing data. Next, we provide an in-depth review of RDDs
and contrast them with DataFrames. We provide examples of how
to read data from files and from HDFS and how to specify
schemas using reflection or programmatically (in the case of
DataFrames). The concept of lazy execution is described and we
outline various transformations and actions specific to RDDs
and DataFrames. Finally, we show you how to use SQL to interact
with DataFrames. By the end of this tutorial, you will have
learned how to process data using Spark DataFrames and mastered
data collection techniques by distributed data
processing."--Resource description page