ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Big Data Analytics: A Hands-On Approach

دانلود کتاب تجزیه و تحلیل داده های بزرگ: یک رویکرد عملی

Big Data Analytics: A Hands-On Approach

مشخصات کتاب

Big Data Analytics: A Hands-On Approach

دسته بندی: سازمان و پردازش داده ها
ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9781949978001 
ناشر: Arshdeep Bahga & Vijay Madisetti 
سال نشر: 2019 
تعداد صفحات: 542 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 108 مگابایت 

قیمت کتاب (تومان) : 30,000



کلمات کلیدی مربوط به کتاب تجزیه و تحلیل داده های بزرگ: یک رویکرد عملی: اطلاعات بزرگ



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 13


در صورت تبدیل فایل کتاب Big Data Analytics: A Hands-On Approach به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تجزیه و تحلیل داده های بزرگ: یک رویکرد عملی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تجزیه و تحلیل داده های بزرگ: یک رویکرد عملی

این کتاب در سه بخش اصلی تنظیم شده است که در مجموع شامل دوازده فصل است. بخش اول مقدمه‌ای بر داده‌های بزرگ، کاربردهای کلان داده، و الگوها و معماری‌های علم داده و تجزیه و تحلیل ارائه می‌کند. یک روش جدید طراحی سیستم کاربردی علم داده و تجزیه و تحلیل پیشنهاد شده است و تحقق آن از طریق استفاده از چارچوب‌های کلان داده منبع باز توضیح داده شده است. این روش، کاربردهای تجزیه و تحلیل کلان داده را به عنوان تحقق مدل‌های پیشنهادی آلفا، بتا، گاما و دلتا توصیف می‌کند که شامل ابزارها و چارچوب‌هایی برای جمع‌آوری و جذب داده‌ها از منابع مختلف در زیرساخت تجزیه و تحلیل داده‌های بزرگ، سیستم‌های فایل توزیع‌شده و غیررابطه‌ای (NoSQL) است. پایگاه‌های اطلاعاتی برای ذخیره‌سازی داده‌ها، چارچوب‌های پردازش برای تجزیه و تحلیل دسته‌ای و بلادرنگ، پایگاه‌های اطلاعاتی سرویس‌دهی، چارچوب‌های وب و تجسم. این روش شناسی جدید شالوده آموزشی این کتاب را تشکیل می دهد. بخش دوم خواننده را با ابزارها و چارچوب‌های مختلف برای تجزیه و تحلیل داده‌های بزرگ، و جنبه‌های معماری و برنامه‌نویسی این چارچوب‌ها که در روش طراحی پیشنهادی استفاده می‌شود، آشنا می‌کند. ما پایتون را به عنوان زبان برنامه نویسی اصلی برای این کتاب انتخاب کردیم. زبان های دیگر، علاوه بر پایتون، نیز ممکن است به راحتی در پشته Big Data که در این کتاب توضیح داده شده است، استفاده شوند. ما ابزارها و چارچوب‌هایی را برای اکتساب داده توصیف می‌کنیم، از جمله چارچوب‌های پیام‌رسانی Publish-subscribe مانند Apache Kafka و Amazon Kinesis، اتصالات Source-Sink مانند Apache Flume، اتصالات پایگاه داده مانند Apache Sqoop، صف‌های پیام‌رسانی مانند RabbitMQ، ZeroMQ، RestSMQ، و کانکتورهای سفارشی مبتنی بر REST و کانکتورهای مبتنی بر WebSocket. خواننده با Hadoop Distributed File System (HDFS) و پایگاه داده غیر رابطه ای HBase آشنا می شود. فصل تجزیه و تحلیل دسته ای یک مطالعه عمیق از چارچوب هایی مانند Hadoop-MapReduce، Pig، Oozie، Spark و Solr ارائه می دهد. فصل تجزیه و تحلیل بلادرنگ بر چارچوب‌های Apache Storm و Spark Streaming تمرکز دارد. در فصل پرس و جوی تعاملی، با کمک مثال هایی، استفاده از فریم ورک ها و سرویس هایی مانند Spark SQL، Hive، Amazon Redshift و Google BigQuery را شرح می دهیم. فصل ارائه پایگاه‌های داده و چارچوب‌های وب، مقدمه‌ای بر پایگاه‌های اطلاعاتی محبوب و غیر رابطه‌ای (مانند MySQL، Amazon DynamoDB، Cassandra و MongoDB) و چارچوب وب جنگو پایتون ارائه می‌کند. بخش سوم موضوعات پیشرفته را بر روی داده های بزرگ از جمله الگوریتم های تحلیلی و ابزارهای تجسم داده ها متمرکز می کند. فصل الگوریتم‌های تجزیه و تحلیل، خواننده را با الگوریتم‌های یادگیری ماشین برای خوشه‌بندی، طبقه‌بندی، رگرسیون و سیستم‌های توصیه همراه با مثال‌هایی با استفاده از چارچوب‌های Spark MLlib و H2O آشنا می‌کند. فصل تجسم داده ها نمونه هایی از ایجاد انواع تجسم ها با استفاده از چارچوب هایی مانند لایتنینگ، pygal و Seaborn را شرح می دهد.


توضیحاتی درمورد کتاب به خارجی

The book is organized into three main parts, comprising a total of twelve chapters. Part I provides an introduction to big data, applications of big data, and big data science and analytics patterns and architectures. A novel data science and analytics application system design methodology is proposed and its realization through use of open-source big data frameworks is described. This methodology describes big data analytics applications as realization of the proposed Alpha, Beta, Gamma and Delta models, that comprise tools and frameworks for collecting and ingesting data from various sources into the big data analytics infrastructure, distributed filesystems and non-relational (NoSQL) databases for data storage, processing frameworks for batch and real-time analytics, serving databases, web and visualization frameworks. This new methodology forms the pedagogical foundation of this book. Part II introduces the reader to various tools and frameworks for big data analytics, and the architectural and programming aspects of these frameworks as used in the proposed design methodology. We chose Python as the primary programming language for this book. Other languages, besides Python, may also be easily used within the Big Data stack described in this book. We describe tools and frameworks for Data Acquisition including Publish-subscribe messaging frameworks such as Apache Kafka and Amazon Kinesis, Source-Sink connectors such as Apache Flume, Database Connectors such as Apache Sqoop, Messaging Queues such as RabbitMQ, ZeroMQ, RestMQ, Amazon SQS and custom REST-based connectors and WebSocket-based connectors. The reader is introduced to Hadoop Distributed File System (HDFS) and HBase non-relational database. The batch analysis chapter provides an in-depth study of frameworks such as Hadoop-MapReduce, Pig, Oozie, Spark and Solr. The real-time analysis chapter focuses on Apache Storm and Spark Streaming frameworks. In the chapter on interactive querying, we describe with the help of examples, the use of frameworks and services such as Spark SQL, Hive, Amazon Redshift and Google BigQuery. The chapter on serving databases and web frameworks provide an introduction to popular relational and non-relational databases (such as MySQL, Amazon DynamoDB, Cassandra, and MongoDB) and the Django Python web framework. Part III focuses advanced topics on big data including analytics algorithms and data visualization tools. The chapter on analytics algorithms introduces the reader to machine learning algorithms for clustering, classification, regression and recommendation systems, with examples using the Spark MLlib and H2O frameworks. The chapter on data visualization describes examples of creating various types of visualizations using frameworks such as Lightning, pygal and Seaborn.



فهرست مطالب

1 Introduction to Big Data 
2 Setting up Big Data Stack 
3 Big Data Patterns
4 NoSQL
5 Data Acquisition
6 Big Data Storage
7 Batch Analysis
8 Real-time Analysis
9 Interactive Querying
10 Serving Databases & Web Frameworks
11 Analytics Algorithms
12 Data Visualization




نظرات کاربران