دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1 ed.]
نویسندگان: Jenny Kim. Benjamin Bengfort
سری:
ISBN (شابک) : 9781491965313, 1491965312
ناشر: O'Reilly Media, Inc.
سال نشر: 2016
تعداد صفحات: 20
زبان: English
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 784 Kb
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Interactive Spark using PySpark به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب Spark تعاملی با استفاده از PySpark نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
Apache Spark یک چارچوب درون حافظه است که به دانشمندان داده
اجازه می دهد تا با سرعت بیشتری نسبت به Hadoop به کاوش و تعامل
با کلان داده ها بپردازند. کاربران پایتون می توانند با استفاده
از یک پوسته تعاملی به نام PySpark با Spark کار کنند. چرا مهم
است؟ PySpark قابلیتهای پردازش داده در مقیاس بزرگ Apache Spark
را برای دانشمندان دادهای که بیشتر با Python آشنا هستند تا
Scala یا Java در دسترس قرار میدهد. این همچنین به استفاده مجدد از طیف گسترده ای
از کتابخانه های پایتون برای یادگیری ماشینی، تجسم داده ها، تجزیه
و تحلیل عددی و غیره اجازه می دهد. آن را اعمال کنید اجزای مختلف
ارائه شده توسط Spark و موارد استفاده آنها را با هم مقایسه کنید.
نحوه استفاده از RDD ها (مجموعه داده های توزیع شده انعطاف پذیر)
را با PySpark بیاموزید. برنامه های Spark را در پایتون بنویسید و
آنها را به عنوان کارهای Spark به خوشه ارسال کنید. با چارچوب
محاسباتی Spark آشنا شوید. این رویکرد را در یک مثال کاربردی برای
تعیین بیشترین تاخیرهای خطوط هوایی در یک ماه و سال خاص اعمال
کنید. این درس برای شماست زیرا... شما یک دانشمند داده هستید و با
کدنویسی پایتون آشنا هستید و باید با PySpark راه اندازی کنید و
اجرا کنید. پیش نیازهای اول جاوا یا اسکالا آشنایی با نوشتن
برنامه های کاربردی پایتون مقداری آشنایی با عملیات خط فرمان bash
آشنایی اولیه با نحوه استفاده از ساختارهای برنامه نویسی کاربردی
ساده در پایتون، مانند بسته، لامبدا، نقشه و غیره. مواد یا
دانلودهای مورد نیاز از قبل Apache Spark This درس از تجزیه و
تحلیل داده ها با هدوپ توسط جنی کیم و بنجامین بنگفورت گرفته شده
است. بیشتر
بخوانید...
چکیده: آپاچی اسپارک یک چارچوب درون حافظه است که به دانشمندان
داده اجازه می دهد تا با سرعت بیشتری نسبت به Hadoop به کاوش و
تعامل با کلان داده ها بپردازند. کاربران پایتون می توانند با
استفاده از یک پوسته تعاملی به نام PySpark با Spark کار کنند.
چرا مهم است؟ PySpark قابلیتهای پردازش داده در مقیاس بزرگ
Apache Spark را برای دانشمندان دادهای که بیشتر با Python آشنا
هستند تا Scala یا Java در دسترس قرار میدهد. همچنین امکان
استفاده مجدد از طیف گسترده ای از کتابخانه های پایتون برای
یادگیری ماشینی، تجسم داده ها، تجزیه و تحلیل عددی و غیره را
فراهم می کند. آنچه می آموزید—و چگونه می توانید آن را به کار
ببرید اجزای مختلف ارائه شده توسط Spark را مقایسه کنید و با چه
مواردی مناسب هستند. . نحوه استفاده از RDD ها (مجموعه داده های
توزیع شده انعطاف پذیر) را با PySpark بیاموزید. برنامه های Spark
را در پایتون بنویسید و آنها را به عنوان کارهای Spark به خوشه
ارسال کنید. با چارچوب محاسباتی Spark آشنا شوید. این رویکرد را
در یک مثال کاربردی برای تعیین بیشترین تاخیرهای خطوط هوایی در یک
ماه و سال خاص اعمال کنید. این درس برای شماست زیرا... شما یک
دانشمند داده هستید و با کدنویسی پایتون آشنا هستید و باید با
PySpark راه اندازی کنید و اجرا کنید. پیش نیازهای اول جاوا یا
اسکالا آشنایی با نوشتن برنامه های کاربردی پایتون مقداری آشنایی
با عملیات خط فرمان bash آشنایی اولیه با نحوه استفاده از
ساختارهای برنامه نویسی کاربردی ساده در پایتون، مانند بسته،
لامبدا، نقشه و غیره. مواد یا دانلودهای مورد نیاز از قبل Apache
Spark This درس از تجزیه و تحلیل داده ها با هدوپ توسط جنی کیم و
بنجامین بنگفورت گرفته شده است
Apache Spark is an in-memory framework that allows data
scientists to explore and interact with big data much more
quickly than with Hadoop. Python users can work with Spark
using an interactive shell called PySpark. Why is it important?
PySpark makes the large-scale data processing capabilities of
Apache Spark accessible to data scientists who are more
familiar with Python than Scala or Java. This also allows for
reuse of a wide
variety of Python libraries for machine learning, data
visualization, numerical analysis, etc. What you'll learn—and
how you can apply it Compare the different components provided
by Spark, and what use cases they fit. Learn how to use RDDs
(resilient distributed datasets) with PySpark. Write Spark
applications in Python and submit them to the cluster as Spark
jobs. Get an introduction to the Spark computing framework.
Apply this approach to a worked example to determine the most
frequent airline delays in a specific month and year. This
lesson is for you because… You're a data scientist, familiar
with Python coding, who needs to get up and running with
PySpark You're a Python developer who needs to leverage the
distributed computing resources available on a Hadoop cluster,
without learning Java or Scala first Prerequisites Familiarity
with writing Python applications Some familiarity with bash
command-line operations Basic understanding of how to use
simple functional programming constructs in Python, such as
closures, lambdas, maps, etc. Materials or downloads needed in
advance Apache Spark This lesson is taken from Data Analytics
with Hadoop by Jenny Kim and Benjamin Bengfort.
Read
more...
Abstract: Apache Spark is an in-memory framework that allows
data scientists to explore and interact with big data much more
quickly than with Hadoop. Python users can work with Spark
using an interactive shell called PySpark. Why is it important?
PySpark makes the large-scale data processing capabilities of
Apache Spark accessible to data scientists who are more
familiar with Python than Scala or Java. This also allows for
reuse of a wide variety of Python libraries for machine
learning, data visualization, numerical analysis, etc. What
you'll learn—and how you can apply it Compare the different
components provided by Spark, and what use cases they fit.
Learn how to use RDDs (resilient distributed datasets) with
PySpark. Write Spark applications in Python and submit them to
the cluster as Spark jobs. Get an introduction to the Spark
computing framework. Apply this approach to a worked example to
determine the most frequent airline delays in a specific month
and year. This lesson is for you because… You're a data
scientist, familiar with Python coding, who needs to get up and
running with PySpark You're a Python developer who needs to
leverage the distributed computing resources available on a
Hadoop cluster, without learning Java or Scala first
Prerequisites Familiarity with writing Python applications Some
familiarity with bash command-line operations Basic
understanding of how to use simple functional programming
constructs in Python, such as closures, lambdas, maps, etc.
Materials or downloads needed in advance Apache Spark This
lesson is taken from Data Analytics with Hadoop by Jenny Kim
and Benjamin Bengfort