ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Learning PySpark

دانلود کتاب آموزش PySpark

Learning PySpark

مشخصات کتاب

Learning PySpark

ویرایش:  
نویسندگان:   
سری:  
 
ناشر: Packt Publishing 
سال نشر: 2018 
تعداد صفحات: 0 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 17 مگابایت 

قیمت کتاب (تومان) : 42,000



کلمات کلیدی مربوط به کتاب آموزش PySpark: Spark (منبع الکترونیکی: بنیاد نرم افزار آپاچی)، نرم افزار کاربردی -- توسعه، پایتون (زبان برنامه کامپیوتری)



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 7


در صورت تبدیل فایل کتاب Learning PySpark به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب آموزش PySpark نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب آموزش PySpark

"Apache Spark یک موتور توزیع شده منبع باز برای پرس و جو و پردازش داده ها است. در این آموزش، مروری مختصر از Spark و پشته آن ارائه می دهیم. این آموزش تکنیک های موثر و صرفه جویی در زمان را در مورد چگونگی استفاده از قدرت پایتون و آن را در اکوسیستم Spark استفاده کنید. شما با درک دقیق معماری Apache Spark و نحوه راه اندازی یک محیط پایتون برای Spark شروع خواهید کرد. در مورد تکنیک‌های مختلف برای جمع‌آوری داده‌ها و تمایز (و درک) بین تکنیک‌های پردازش داده‌ها یاد می‌گیریم. سپس، مروری عمیق از RDD‌ها و مقایسه آن‌ها با DataFrames ارائه می‌کنیم. نمونه‌هایی از نحوه خواندن داده‌ها از فایل‌ها و از HDFS و نحوه تعیین طرح‌واره‌ها با استفاده از بازتاب یا برنامه‌نویسی (در مورد DataFrames). مفهوم اجرای تنبل توضیح داده شده است و ما تغییرات و اقدامات مختلف مختص RDD و DataFrame را بیان می‌کنیم. در نهایت به شما نشان می‌دهیم که چگونه از SQL برای تعامل استفاده کنید. با DataFrames در پایان این آموزش، نحوه پردازش داده ها با استفاده از Spark DataFrames و تسلط بر تکنیک های جمع آوری داده ها با پردازش داده های توزیع شده را خواهید آموخت.\"--صفحه توضیحات منبع.  < span>ادامه مطلب...
چکیده: \"Apache Spark یک موتور توزیع شده منبع باز برای پرس و جو و پردازش داده ها است. در این آموزش، مروری کوتاه بر Spark و پشته آن ارائه می دهیم. این آموزش تکنیک های موثر و صرفه جویی در زمان را در مورد نحوه استفاده از قدرت پایتون و استفاده از آن در اکوسیستم اسپارک ارائه می دهد. شما با درک دقیق معماری Apache Spark و نحوه راه اندازی یک محیط Python برای Spark شروع خواهید کرد. شما در مورد تکنیک های مختلف برای جمع آوری داده ها و تمایز بین (و درک) تکنیک های پردازش داده ها یاد خواهید گرفت. در مرحله بعد، ما یک بررسی عمیق از RDD ها و مقایسه آنها با DataFrames ارائه می دهیم. ما نمونه هایی از نحوه خواندن داده ها از فایل ها و HDFS و نحوه تعیین طرحواره ها با استفاده از بازتاب یا برنامه نویسی (در مورد DataFrames) ارائه می دهیم. مفهوم اجرای تنبل توضیح داده شده است و ما تغییرات و اقدامات مختلف مخصوص RDD ها و DataFrames را بیان می کنیم. در نهایت، نحوه استفاده از SQL برای تعامل با DataFrames را به شما نشان می دهیم. در پایان این آموزش، نحوه پردازش داده ها با استفاده از Spark DataFrames و تسلط بر تکنیک های جمع آوری داده ها با پردازش داده های توزیع شده را خواهید آموخت.\"--صفحه توضیحات منبع


توضیحاتی درمورد کتاب به خارجی

"Apache Spark is an open-source distributed engine for querying and processing data. In this tutorial, we provide a brief overview of Spark and its stack. This tutorial presents effective, time-saving techniques on how to leverage the power of Python and put it to use in the Spark ecosystem. You will start by getting a firm understanding of the Apache Spark architecture and how to set up a Python environment for Spark. You'll learn about different techniques for collecting data, and distinguish between (and understand) techniques for processing data. Next, we provide an in-depth review of RDDs and contrast them with DataFrames. We provide examples of how to read data from files and from HDFS and how to specify schemas using reflection or programmatically (in the case of DataFrames). The concept of lazy execution is described and we outline various transformations and actions specific to RDDs and DataFrames. Finally, we show you how to use SQL to interact with DataFrames. By the end of this tutorial, you will have learned how to process data using Spark DataFrames and mastered data collection techniques by distributed data processing."--Resource description page.  Read more...
Abstract: "Apache Spark is an open-source distributed engine for querying and processing data. In this tutorial, we provide a brief overview of Spark and its stack. This tutorial presents effective, time-saving techniques on how to leverage the power of Python and put it to use in the Spark ecosystem. You will start by getting a firm understanding of the Apache Spark architecture and how to set up a Python environment for Spark. You'll learn about different techniques for collecting data, and distinguish between (and understand) techniques for processing data. Next, we provide an in-depth review of RDDs and contrast them with DataFrames. We provide examples of how to read data from files and from HDFS and how to specify schemas using reflection or programmatically (in the case of DataFrames). The concept of lazy execution is described and we outline various transformations and actions specific to RDDs and DataFrames. Finally, we show you how to use SQL to interact with DataFrames. By the end of this tutorial, you will have learned how to process data using Spark DataFrames and mastered data collection techniques by distributed data processing."--Resource description page





نظرات کاربران