ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Interactive Spark using PySpark

دانلود کتاب Spark تعاملی با استفاده از PySpark

Interactive Spark using PySpark

مشخصات کتاب

Interactive Spark using PySpark

ویرایش: [1 ed.] 
نویسندگان:   
سری:  
ISBN (شابک) : 9781491965313, 1491965312 
ناشر: O'Reilly Media, Inc. 
سال نشر: 2016 
تعداد صفحات: 20 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 784 Kb 

قیمت کتاب (تومان) : 43,000

در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 4


در صورت تبدیل فایل کتاب Interactive Spark using PySpark به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب Spark تعاملی با استفاده از PySpark نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب Spark تعاملی با استفاده از PySpark

Apache Spark یک چارچوب درون حافظه است که به دانشمندان داده اجازه می دهد تا با سرعت بیشتری نسبت به Hadoop به کاوش و تعامل با کلان داده ها بپردازند. کاربران پایتون می توانند با استفاده از یک پوسته تعاملی به نام PySpark با Spark کار کنند. چرا مهم است؟ PySpark قابلیت‌های پردازش داده در مقیاس بزرگ Apache Spark را برای دانشمندان داده‌ای که بیشتر با Python آشنا هستند تا Scala یا Java در دسترس قرار می‌دهد. این همچنین به استفاده مجدد از طیف گسترده ای از کتابخانه های پایتون برای یادگیری ماشینی، تجسم داده ها، تجزیه و تحلیل عددی و غیره اجازه می دهد. آن را اعمال کنید اجزای مختلف ارائه شده توسط Spark و موارد استفاده آنها را با هم مقایسه کنید. نحوه استفاده از RDD ها (مجموعه داده های توزیع شده انعطاف پذیر) را با PySpark بیاموزید. برنامه های Spark را در پایتون بنویسید و آنها را به عنوان کارهای Spark به خوشه ارسال کنید. با چارچوب محاسباتی Spark آشنا شوید. این رویکرد را در یک مثال کاربردی برای تعیین بیشترین تاخیرهای خطوط هوایی در یک ماه و سال خاص اعمال کنید. این درس برای شماست زیرا... شما یک دانشمند داده هستید و با کدنویسی پایتون آشنا هستید و باید با PySpark راه اندازی کنید و اجرا کنید. پیش نیازهای اول جاوا یا اسکالا آشنایی با نوشتن برنامه های کاربردی پایتون مقداری آشنایی با عملیات خط فرمان bash آشنایی اولیه با نحوه استفاده از ساختارهای برنامه نویسی کاربردی ساده در پایتون، مانند بسته، لامبدا، نقشه و غیره. مواد یا دانلودهای مورد نیاز از قبل Apache Spark This درس از تجزیه و تحلیل داده ها با هدوپ توسط جنی کیم و بنجامین بنگفورت گرفته شده است.  بیشتر بخوانید...
چکیده: آپاچی اسپارک یک چارچوب درون حافظه است که به دانشمندان داده اجازه می دهد تا با سرعت بیشتری نسبت به Hadoop به کاوش و تعامل با کلان داده ها بپردازند. کاربران پایتون می توانند با استفاده از یک پوسته تعاملی به نام PySpark با Spark کار کنند. چرا مهم است؟ PySpark قابلیت‌های پردازش داده در مقیاس بزرگ Apache Spark را برای دانشمندان داده‌ای که بیشتر با Python آشنا هستند تا Scala یا Java در دسترس قرار می‌دهد. همچنین امکان استفاده مجدد از طیف گسترده ای از کتابخانه های پایتون برای یادگیری ماشینی، تجسم داده ها، تجزیه و تحلیل عددی و غیره را فراهم می کند. آنچه می آموزید—و چگونه می توانید آن را به کار ببرید اجزای مختلف ارائه شده توسط Spark را مقایسه کنید و با چه مواردی مناسب هستند. . نحوه استفاده از RDD ها (مجموعه داده های توزیع شده انعطاف پذیر) را با PySpark بیاموزید. برنامه های Spark را در پایتون بنویسید و آنها را به عنوان کارهای Spark به خوشه ارسال کنید. با چارچوب محاسباتی Spark آشنا شوید. این رویکرد را در یک مثال کاربردی برای تعیین بیشترین تاخیرهای خطوط هوایی در یک ماه و سال خاص اعمال کنید. این درس برای شماست زیرا... شما یک دانشمند داده هستید و با کدنویسی پایتون آشنا هستید و باید با PySpark راه اندازی کنید و اجرا کنید. پیش نیازهای اول جاوا یا اسکالا آشنایی با نوشتن برنامه های کاربردی پایتون مقداری آشنایی با عملیات خط فرمان bash آشنایی اولیه با نحوه استفاده از ساختارهای برنامه نویسی کاربردی ساده در پایتون، مانند بسته، لامبدا، نقشه و غیره. مواد یا دانلودهای مورد نیاز از قبل Apache Spark This درس از تجزیه و تحلیل داده ها با هدوپ توسط جنی کیم و بنجامین بنگفورت گرفته شده است


توضیحاتی درمورد کتاب به خارجی

Apache Spark is an in-memory framework that allows data scientists to explore and interact with big data much more quickly than with Hadoop. Python users can work with Spark using an interactive shell called PySpark. Why is it important? PySpark makes the large-scale data processing capabilities of Apache Spark accessible to data scientists who are more familiar with Python than Scala or Java. This also allows for reuse of a wide variety of Python libraries for machine learning, data visualization, numerical analysis, etc. What you'll learn—and how you can apply it Compare the different components provided by Spark, and what use cases they fit. Learn how to use RDDs (resilient distributed datasets) with PySpark. Write Spark applications in Python and submit them to the cluster as Spark jobs. Get an introduction to the Spark computing framework. Apply this approach to a worked example to determine the most frequent airline delays in a specific month and year. This lesson is for you because… You're a data scientist, familiar with Python coding, who needs to get up and running with PySpark You're a Python developer who needs to leverage the distributed computing resources available on a Hadoop cluster, without learning Java or Scala first Prerequisites Familiarity with writing Python applications Some familiarity with bash command-line operations Basic understanding of how to use simple functional programming constructs in Python, such as closures, lambdas, maps, etc. Materials or downloads needed in advance Apache Spark This lesson is taken from Data Analytics with Hadoop by Jenny Kim and Benjamin Bengfort.  Read more...
Abstract: Apache Spark is an in-memory framework that allows data scientists to explore and interact with big data much more quickly than with Hadoop. Python users can work with Spark using an interactive shell called PySpark. Why is it important? PySpark makes the large-scale data processing capabilities of Apache Spark accessible to data scientists who are more familiar with Python than Scala or Java. This also allows for reuse of a wide variety of Python libraries for machine learning, data visualization, numerical analysis, etc. What you'll learn—and how you can apply it Compare the different components provided by Spark, and what use cases they fit. Learn how to use RDDs (resilient distributed datasets) with PySpark. Write Spark applications in Python and submit them to the cluster as Spark jobs. Get an introduction to the Spark computing framework. Apply this approach to a worked example to determine the most frequent airline delays in a specific month and year. This lesson is for you because… You're a data scientist, familiar with Python coding, who needs to get up and running with PySpark You're a Python developer who needs to leverage the distributed computing resources available on a Hadoop cluster, without learning Java or Scala first Prerequisites Familiarity with writing Python applications Some familiarity with bash command-line operations Basic understanding of how to use simple functional programming constructs in Python, such as closures, lambdas, maps, etc. Materials or downloads needed in advance Apache Spark This lesson is taken from Data Analytics with Hadoop by Jenny Kim and Benjamin Bengfort





نظرات کاربران