ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Data Engineering with Apache Spark, Delta Lake, and Lakehouse: Create scalable pipelines that ingest, curate, and aggregate complex data in a timely and secure way

دانلود کتاب مهندسی داده با آپاچی اسپارک، دلتا لیک و لیک‌هاوس: خطوط لوله مقیاس‌پذیری ایجاد کنید که داده‌های پیچیده را به‌موقع و به‌موقع جمع‌آوری می‌کند.

Data Engineering with Apache Spark, Delta Lake, and Lakehouse: Create scalable pipelines that ingest, curate, and aggregate complex data in a timely and secure way

مشخصات کتاب

Data Engineering with Apache Spark, Delta Lake, and Lakehouse: Create scalable pipelines that ingest, curate, and aggregate complex data in a timely and secure way

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1801077746, 9781801077743 
ناشر: Packt Publishing 
سال نشر: 2021 
تعداد صفحات: 480 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 35 Mb 

قیمت کتاب (تومان) : 35,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 2


در صورت تبدیل فایل کتاب Data Engineering with Apache Spark, Delta Lake, and Lakehouse: Create scalable pipelines that ingest, curate, and aggregate complex data in a timely and secure way به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مهندسی داده با آپاچی اسپارک، دلتا لیک و لیک‌هاوس: خطوط لوله مقیاس‌پذیری ایجاد کنید که داده‌های پیچیده را به‌موقع و به‌موقع جمع‌آوری می‌کند. نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مهندسی داده با آپاچی اسپارک، دلتا لیک و لیک‌هاوس: خطوط لوله مقیاس‌پذیری ایجاد کنید که داده‌های پیچیده را به‌موقع و به‌موقع جمع‌آوری می‌کند.



پیچیدگی‌های پلت‌فرم‌های مهندسی داده امروزی را درک کنید و استراتژی‌های مقابله با آن‌ها را با کمک سناریوهای مورد استفاده به رهبری یک متخصص صنعت در داده‌های بزرگ بررسی کنید

Key ویژگی ها

  • با مفاهیم اصلی Apache Spark و Delta Lake برای ساختن پلتفرم های داده آشنا شوید
  • بیاموزید که چگونه داده هایی را دریافت کنید، پردازش کنید و تجزیه و تحلیل کنید. برای آموزش مدل‌های یادگیری ماشین استفاده می‌شود
  • درک نحوه عملیاتی کردن مدل‌های داده در تولید با استفاده از داده‌های انتخاب‌شده

توضیحات کتاب

در دنیای همیشه با تغییر داده ها و طرحواره ها، ایجاد خطوط لوله داده که می توانند به طور خودکار با تغییرات تنظیم شوند، مهم است. این کتاب به شما کمک می‌کند تا پلتفرم‌های داده مقیاس‌پذیری بسازید که مدیران، دانشمندان داده و تحلیل‌گران داده می‌توانند به آنها تکیه کنند.

این کتاب با مقدمه‌ای بر مهندسی داده، همراه با مفاهیم و معماری‌های کلیدی آن، به شما نشان می‌دهد. نحوه استفاده موثر از خدمات Microsoft Azure Cloud برای مهندسی داده. شما الگوهای طراحی دریاچه داده و مراحل مختلفی که از طریق آن داده ها باید در یک دریاچه داده معمولی جریان داشته باشند را پوشش می دهید. هنگامی که ویژگی های اصلی دریاچه دلتا را برای ساخت دریاچه های داده با عملکرد سریع و مدیریت در ذهن کاوش کردید، به پیاده سازی معماری لامبدا با استفاده از دریاچه دلتا خواهید رفت. این کتاب مملو از مثال‌های عملی و تکه‌های کد، شما را از طریق نمونه‌های دنیای واقعی بر اساس سناریوهای تولیدی که نویسنده در تجربه ۱۰ ساله‌اش در کار با داده‌های بزرگ با آن مواجه شده است، راهنمایی می‌کند. در نهایت، استراتژی‌های استقرار دریاچه داده را پوشش می‌دهید که نقش مهمی در تأمین منابع ابری و استقرار خطوط لوله داده به روشی تکرارپذیر و مداوم دارند.

در پایان این کتاب مهندسی داده، شما' خواهد دانست که چگونه به طور موثر با داده های همیشه در حال تغییر برخورد کند و خطوط لوله داده مقیاس پذیر ایجاد کند تا وظایف علم داده، ML و هوش مصنوعی (AI) را ساده کند.

آنچه یاد خواهید گرفت

    <. li>چالش‌هایی را که ممکن است در دنیای مهندسی داده با آن روبرو شوید کشف کنید
  • تراکنش‌های ACID را با استفاده از دریاچه دلتا به Apache Spark اضافه کنید
  • درک استراتژی‌های طراحی موثر برای ساخت دریاچه‌های داده در سطح سازمانی
  • کاوش الگوهای معماری و طراحی برای ساخت خطوط لوله انتقال داده کارآمد
  • تنظیم یک خط لوله داده برای پیش پردازش داده ها با استفاده از Apache Spark و Delta Lake
  • استقرار و نظارت خودکار خطوط لوله داده در تولید
  • با ایمن سازی، نظارت، و مدیریت مدل های خطوط لوله داده به طور موثر مقابله کنید

این کتاب برای چه کسانی است

این کتاب برای مهندسین داده و تحلیلگران داده مشتاق که تازه وارد دنیای مهندسی داده شده اند و به دنبال راهنمای عملی برای ساخت پلتفرم های داده مقیاس پذیر هستند. اگر قبلاً با PySpark کار می کنید و می خواهید از Delta Lake برای مهندسی داده استفاده کنید، این کتاب برای شما مفید خواهد بود. دانش اولیه Python، Spark و SQL مورد انتظار است.

فهرست محتوا

  1. داستان مهندسی داده و تجزیه و تحلیل
  2. کشف ذخیره سازی و محاسبه معماری دریاچه داده
  3. مهندسی داده در Microsoft Azure
  4. درک خطوط لوله داده
  5. مرحله جمع آوری داده - لایه برنز
  6. درک دریاچه دلتا< /li>
  7. مرحله مدیریت داده - لایه نقره ای
  8. مرحله تجمع داده ها - لایه طلایی
  9. استقرار و نظارت بر خطوط لوله در تولید
  10. حل مهندسی داده چالش ها
  11. تامین زیرساخت
  12. یکپارچه سازی و استقرار مستمر (CI/CD) خطوط لوله داده

توضیحاتی درمورد کتاب به خارجی

Understand the complexities of modern-day data engineering platforms and explore strategies to deal with them with the help of use case scenarios led by an industry expert in big data

Key Features

  • Become well-versed with the core concepts of Apache Spark and Delta Lake for building data platforms
  • Learn how to ingest, process, and analyze data that can be later used for training machine learning models
  • Understand how to operationalize data models in production using curated data

Book Description

In the world of ever-changing data and schemas, it is important to build data pipelines that can auto-adjust to changes. This book will help you build scalable data platforms that managers, data scientists, and data analysts can rely on.

Starting with an introduction to data engineering, along with its key concepts and architectures, this book will show you how to use Microsoft Azure Cloud services effectively for data engineering. You'll cover data lake design patterns and the different stages through which the data needs to flow in a typical data lake. Once you've explored the main features of Delta Lake to build data lakes with fast performance and governance in mind, you'll advance to implementing the lambda architecture using Delta Lake. Packed with practical examples and code snippets, this book takes you through real-world examples based on production scenarios faced by the author in his 10 years of experience working with big data. Finally, you'll cover data lake deployment strategies that play an important role in provisioning the cloud resources and deploying the data pipelines in a repeatable and continuous way.

By the end of this data engineering book, you'll know how to effectively deal with ever-changing data and create scalable data pipelines to streamline data science, ML, and artificial intelligence (AI) tasks.

What you will learn

  • Discover the challenges you may face in the data engineering world
  • Add ACID transactions to Apache Spark using Delta Lake
  • Understand effective design strategies to build enterprise-grade data lakes
  • Explore architectural and design patterns for building efficient data ingestion pipelines
  • Orchestrate a data pipeline for preprocessing data using Apache Spark and Delta Lake APIs
  • Automate deployment and monitoring of data pipelines in production
  • Get to grips with securing, monitoring, and managing data pipelines models efficiently

Who this book is for

This book is for aspiring data engineers and data analysts who are new to the world of data engineering and are looking for a practical guide to building scalable data platforms. If you already work with PySpark and want to use Delta Lake for data engineering, you'll find this book useful. Basic knowledge of Python, Spark, and SQL is expected.

Table of Contents

  1. The Story of Data Engineering and Analytics
  2. Discovering Storage and Compute Data Lake Architectures
  3. Data Engineering on Microsoft Azure
  4. Understanding Data Pipelines
  5. Data Collection Stage - The Bronze Layer
  6. Understanding Delta Lake
  7. Data Curation Stage - The Silver Layer
  8. Data Aggregation Stage - The Gold Layer
  9. Deploying and Monitoring Pipelines in Production
  10. Solving Data Engineering Challenges
  11. Infrastructure Provisioning
  12. Continuous Integration and Deployment (CI/CD) of Data Pipelines




نظرات کاربران