دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: پایگاه داده ها ویرایش: 1 نویسندگان: Benjamin Bengfort. Jenny Kim سری: ISBN (شابک) : 1491913703, 9781491913703 ناشر: O’Reilly Media سال نشر: 2016 تعداد صفحات: 288 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 7 مگابایت
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Data Analytics with Hadoop: An Introduction for Data Scientists به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تجزیه و تحلیل داده ها با Hadoop: مقدمه ای برای دانشمندان داده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
آیا آماده استفاده از تکنیک های آماری و یادگیری ماشینی در
مجموعه داده های بزرگ هستید؟ این راهنمای عملی به شما نشان می دهد
که چرا اکوسیستم Hadoop برای این کار مناسب است. به جای استقرار،
عملیات یا توسعه نرمافزاری که معمولاً با محاسبات توزیعشده
مرتبط است، روی تحلیلهای خاصی که میتوانید بسازید، تکنیکهای
انبار دادهای که Hadoop ارائه میکند و جریانهای کاری دادههای
مرتبه بالاتری که این چارچوب میتواند ایجاد کند، تمرکز خواهید
کرد.
دانشمندان و تحلیلگران داده یاد خواهند گرفت که چگونه طیف گسترده
ای از تکنیک ها را انجام دهند، از نوشتن برنامه های MapReduce و
Spark با پایتون گرفته تا استفاده از مدل سازی پیشرفته و مدیریت
داده ها با Spark MLlib، Hive و HBase. همچنین در مورد فرآیندهای
تحلیلی و سیستمهای داده موجود برای ساخت و توانمندسازی محصولات
دادهای که میتوانند حجم عظیمی از داده را مدیریت کنند - و در
واقع به آن نیاز دارند، آشنا میشوید.
مفاهیم اصلی را درک کنید. هادوپ و محاسبات خوشه ای
استفاده از الگوهای طراحی و الگوریتم های تحلیلی موازی برای ایجاد
مشاغل تجزیه و تحلیل داده های توزیع شده
در مورد مدیریت داده ها، استخراج، و انبارداری در یک زمینه توزیع
شده با استفاده از Apache Hive و HBase بیاموزید
از Sqoop و Apache Flume برای دریافت دادهها از پایگاههای داده
رابطهای
برنامههای پیچیده Hadoop و Spark با Apache Pig و Spark
DataFrames
اجرای تکنیکهای یادگیری ماشینی مانند طبقهبندی، خوشهبندی و
فیلتر کردن مشارکتی با Spark's MLlib
Ready to use statistical and machine-learning techniques across
large data sets? This practical guide shows you why the Hadoop
ecosystem is perfect for the job. Instead of deployment,
operations, or software development usually associated with
distributed computing, you'll focus on particular analyses you
can build, the data warehousing techniques that Hadoop
provides, and higher order data workflows this framework can
produce.
Data scientists and analysts will learn how to perform a wide
range of techniques, from writing MapReduce and Spark
applications with Python to using advanced modeling and data
management with Spark MLlib, Hive, and HBase. You'll also learn
about the analytical processes and data systems available to
build and empower data products that can handle--and actually
require--huge amounts of data.
Understand core concepts behind Hadoop and cluster
computing
Use design patterns and parallel analytical algorithms to
create distributed data analysis jobs
Learn about data management, mining, and warehousing in a
distributed context using Apache Hive and HBase
Use Sqoop and Apache Flume to ingest data from relational
databases
Program complex Hadoop and Spark applications with Apache Pig
and Spark DataFrames
Perform machine learning techniques such as classification,
clustering, and collaborative filtering with Spark's MLlib
The age of the data product --
An operating system for big data --
A framework for Python and Hadoop streaming --
In-memory computing with Spark --
Distributed analysis and patterns --
Data mining and warehousing --
Data ingestion --
Analytics with higher-level APIs --
Machine learning --
Summary : doing distributed data science.