ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Data Analytics with Hadoop: An Introduction for Data Scientists

دانلود کتاب تجزیه و تحلیل داده ها با Hadoop: مقدمه ای برای دانشمندان داده

Data Analytics with Hadoop: An Introduction for Data Scientists

مشخصات کتاب

Data Analytics with Hadoop: An Introduction for Data Scientists

دسته بندی: پایگاه داده ها
ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 1491913703, 9781491913703 
ناشر: O’Reilly Media 
سال نشر: 2016 
تعداد صفحات: 288 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 7 مگابایت 

قیمت کتاب (تومان) : 45,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 25


در صورت تبدیل فایل کتاب Data Analytics with Hadoop: An Introduction for Data Scientists به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تجزیه و تحلیل داده ها با Hadoop: مقدمه ای برای دانشمندان داده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تجزیه و تحلیل داده ها با Hadoop: مقدمه ای برای دانشمندان داده

آیا آماده استفاده از تکنیک های آماری و یادگیری ماشینی در مجموعه داده های بزرگ هستید؟ این راهنمای عملی به شما نشان می دهد که چرا اکوسیستم Hadoop برای این کار مناسب است. به جای استقرار، عملیات یا توسعه نرم‌افزاری که معمولاً با محاسبات توزیع‌شده مرتبط است، روی تحلیل‌های خاصی که می‌توانید بسازید، تکنیک‌های انبار داده‌ای که Hadoop ارائه می‌کند و جریان‌های کاری داده‌های مرتبه بالاتری که این چارچوب می‌تواند ایجاد کند، تمرکز خواهید کرد.

دانشمندان و تحلیلگران داده یاد خواهند گرفت که چگونه طیف گسترده ای از تکنیک ها را انجام دهند، از نوشتن برنامه های MapReduce و Spark با پایتون گرفته تا استفاده از مدل سازی پیشرفته و مدیریت داده ها با Spark MLlib، Hive و HBase. همچنین در مورد فرآیندهای تحلیلی و سیستم‌های داده موجود برای ساخت و توانمندسازی محصولات داده‌ای که می‌توانند حجم عظیمی از داده را مدیریت کنند - و در واقع به آن نیاز دارند، آشنا می‌شوید.


مفاهیم اصلی را درک کنید. هادوپ و محاسبات خوشه ای
استفاده از الگوهای طراحی و الگوریتم های تحلیلی موازی برای ایجاد مشاغل تجزیه و تحلیل داده های توزیع شده
در مورد مدیریت داده ها، استخراج، و انبارداری در یک زمینه توزیع شده با استفاده از Apache Hive و HBase بیاموزید
از Sqoop و Apache Flume برای دریافت داده‌ها از پایگاه‌های داده رابطه‌ای
برنامه‌های پیچیده Hadoop و Spark با Apache Pig و Spark DataFrames
اجرای تکنیک‌های یادگیری ماشینی مانند طبقه‌بندی، خوشه‌بندی و فیلتر کردن مشارکتی با Spark's MLlib


توضیحاتی درمورد کتاب به خارجی

Ready to use statistical and machine-learning techniques across large data sets? This practical guide shows you why the Hadoop ecosystem is perfect for the job. Instead of deployment, operations, or software development usually associated with distributed computing, you'll focus on particular analyses you can build, the data warehousing techniques that Hadoop provides, and higher order data workflows this framework can produce.

Data scientists and analysts will learn how to perform a wide range of techniques, from writing MapReduce and Spark applications with Python to using advanced modeling and data management with Spark MLlib, Hive, and HBase. You'll also learn about the analytical processes and data systems available to build and empower data products that can handle--and actually require--huge amounts of data.


Understand core concepts behind Hadoop and cluster computing
Use design patterns and parallel analytical algorithms to create distributed data analysis jobs
Learn about data management, mining, and warehousing in a distributed context using Apache Hive and HBase
Use Sqoop and Apache Flume to ingest data from relational databases
Program complex Hadoop and Spark applications with Apache Pig and Spark DataFrames
Perform machine learning techniques such as classification, clustering, and collaborative filtering with Spark's MLlib



فهرست مطالب

The age of the data product --
An operating system for big data --
A framework for Python and Hadoop streaming --
In-memory computing with Spark --
Distributed analysis and patterns --
Data mining and warehousing --
Data ingestion --
Analytics with higher-level APIs --
Machine learning --
Summary : doing distributed data science.




نظرات کاربران