ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب The Azure Data Lakehouse Toolkit: Building and Scaling Data Lakehouses on Azure with Delta Lake, Apache Spark, Databricks, Synapse Analytics, and Snowflake

دانلود کتاب مجموعه ابزار Azure Data Lakehouse: ساخت و مقیاس‌بندی Lakehouse‌های داده در Azure با Delta Lake، Apache Spark، Databricks، Synapse Analytics و Snowflake

The Azure Data Lakehouse Toolkit: Building and Scaling Data Lakehouses on Azure with Delta Lake, Apache Spark, Databricks, Synapse Analytics, and Snowflake

مشخصات کتاب

The Azure Data Lakehouse Toolkit: Building and Scaling Data Lakehouses on Azure with Delta Lake, Apache Spark, Databricks, Synapse Analytics, and Snowflake

ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 1484282329, 9781484282328 
ناشر: Apress 
سال نشر: 2022 
تعداد صفحات: 0 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 18 مگابایت 

قیمت کتاب (تومان) : 37,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 8


در صورت تبدیل فایل کتاب The Azure Data Lakehouse Toolkit: Building and Scaling Data Lakehouses on Azure with Delta Lake, Apache Spark, Databricks, Synapse Analytics, and Snowflake به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مجموعه ابزار Azure Data Lakehouse: ساخت و مقیاس‌بندی Lakehouse‌های داده در Azure با Delta Lake، Apache Spark، Databricks، Synapse Analytics و Snowflake نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مجموعه ابزار Azure Data Lakehouse: ساخت و مقیاس‌بندی Lakehouse‌های داده در Azure با Delta Lake، Apache Spark، Databricks، Synapse Analytics و Snowflake



با استفاده از Delta Lake، Apache Spark، Azure Databricks، Azure Synapse Analytics و Snowflake، یک Lakehouse مدرن داده بر روی پلتفرم داده Azure طراحی و اجرا کنید. این کتاب جزئیات پیچیده پارادایم Data Lakehouse و نحوه طراحی کارآمد یک خانه داده مبتنی بر ابر را با استفاده از قابلیت‌های Apache Spark بسیار کارآمد و پیشرفته با استفاده از Azure Databricks، Azure Synapse Analytics و Snowflake به شما می‌آموزد. شما یاد خواهید گرفت که کد PySpark کارآمد را برای کارهای دسته ای و جریانی ELT در Azure بنویسید. و شما مثال‌های عملی و مبتنی بر سناریو را دنبال خواهید کرد که نشان می‌دهد چگونه از قابلیت‌های Delta Lake و Apache Spark برای بهینه‌سازی عملکرد، و ایمن‌سازی، اشتراک‌گذاری و مدیریت حجم بالا، سرعت بالا و تنوع بالای داده‌ها در Lakehouse خود استفاده کنید. با سهولت.

الگوهای موفقیتی که از خواندن این کتاب به دست می آورید به شما کمک می کند تا مهارت های خود را برای ساختن خانه های دریاچه ای با عملکرد بالا و مقیاس پذیر سازگار با اسید با استفاده از انعطاف پذیر و مقرون به صرفه تقویت کنید. قابلیت‌های ذخیره‌سازی و محاسباتی جداشده کارآمد. پوشش گسترده دریاچه دلتا تضمین می کند که شما از همه چیزهایی که این لایه ذخیره سازی منبع باز جدید می تواند ارائه دهد آگاه باشید و می توانید از آنها بهره مند شوید. علاوه بر مثال‌های عمیق در مورد Databricks در کتاب، پلتفرم‌های جایگزینی مانند Synapse Analytics و Snowflake را پوشش می‌دهد تا بتوانید پلتفرم مناسبی را برای نیازهای خود انتخاب کنید.

پس از خواندن این کتاب، می‌توانید قابلیت‌های Delta Lake، از جمله Schema Evolution، Change Feed، Live Tables، Sharing، و Clones را برای فعال کردن هوش تجاری بهتر و تجزیه و تحلیل‌های پیشرفته روی داده‌های خود در پلتفرم داده‌های Azure پیاده‌سازی کنید.

آنچه یاد خواهید گرفت
  • پیاده سازی پارادایم Data Lakehouse در پلتفرم ابری Azure مایکروسافت</ li>
  • از لایه ذخیره‌سازی منبع باز جدید Delta Lake برای خانه‌های دریاچه داده بهره ببرید 
  • از مزیت طرحواره استفاده کنید تکامل، تغییر فیدها، جداول زنده و موارد دیگر
  • نوشتن کد کاربردی PySpark برای کارهای داده lakehouse ELT</ li>
  • بهینه سازی عملکرد Apache Spark از طریق پارتیشن بندی، نمایه سازی و سایر گزینه های تنظیم
  • از بین گزینه هایی مانند Databricks، Synapse Analytics و Snowflake

این کتاب برای چه کسی است
متخصصان داده، تجزیه و تحلیل و هوش مصنوعی در همه سطوح، از جمله متخصصان معمار داده و مهندس داده. همچنین برای متخصصان داده که به دنبال الگوهای موفقیت هستند تا با یادگیری ساخت خانه های داده مقیاس پذیر برای سازمان ها و مشتریانی که به پلتفرم داده Azure مدرن مهاجرت می کنند، مرتبط باقی بمانند.

توضیحاتی درمورد کتاب به خارجی

Design and implement a modern data lakehouse on the Azure Data Platform using Delta Lake, Apache Spark, Azure Databricks, Azure Synapse Analytics, and Snowflake. This book teaches you the intricate details of the Data Lakehouse Paradigm and how to efficiently design a cloud-based data lakehouse using highly performant and cutting-edge Apache Spark capabilities using Azure Databricks, Azure Synapse Analytics, and Snowflake. You will learn to write efficient PySpark code for batch and streaming ELT jobs on Azure. And you will follow along with practical, scenario-based examples showing how to apply the capabilities of Delta Lake and Apache Spark to optimize performance, and secure, share, and manage a high volume, high velocity, and high variety of data in your lakehouse with ease.

The patterns of success that you acquire from reading this book will help you hone your skills to build high-performing and scalable ACID-compliant lakehouses using flexible and cost-efficient decoupled storage and compute capabilities. Extensive coverage of Delta Lake ensures that you are aware of and can benefit from all that this new, open source storage layer can offer. In addition to the deep examples on Databricks in the book, there is coverage of alternative platforms such as Synapse Analytics and Snowflake so that you can make the right platform choice for your needs.

After reading this book, you will be able to implement Delta Lake capabilities, including Schema Evolution, Change Feed, Live Tables, Sharing, and Clones to enable better business intelligence and advanced analytics on your data within the Azure Data Platform.

What You Will Learn
  • Implement the Data Lakehouse Paradigm on Microsoft’s Azure cloud platform
  • Benefit from the new Delta Lake open-source storage layer for data lakehouses 
  • Take advantage of schema evolution, change feeds, live tables, and more
  • Write functional PySpark code for data lakehouse ELT jobs
  • Optimize Apache Spark performance through partitioning, indexing, and other tuning options
  • Choose between alternatives such as Databricks, Synapse Analytics, and Snowflake

Who This Book Is For
Data, analytics, and AI professionals at all levels, including data architect and data engineer practitioners. Also for data professionals seeking patterns of success by which to remain relevant as they learn to build scalable data lakehouses for their organizations and customers who are migrating into the modern Azure Data Platform. 


فهرست مطالب

Table of Contents
About the Author
About the Technical Reviewer
Acknowledgments
Introduction
Chapter 1: The Data Lakehouse Paradigm
	Background
	​Architecture
	Ingestion and Processing
		Data Factory
		Databricks
		Functions and Logic Apps
		Synapse Analytics Serverless Pools
		Stream Analytics
		Messaging Hubs
	Storing and Serving
		Delta Lake
		Synapse Analytics Dedicated SQL Pools
		Relational Database
			Purchasing Models (SQL DTU vs. vCore Database)
			Service Tiers
			Deployment Models
		Non-relational Databases
		Snowflake
	Consumption
		Analysis Services
		Power BI
		Power Apps
		Advanced Analytics
		Cognitive Services
		Machine Learning
	Continuous Integration, Deployment, and Governance
		DevOps
		Purview
	Summary
Chapter 2: Snowflake
	Architecture
	Cost
	Security
		Azure Key Vault
		Azure Private Link
	Applications
	Replication and Failover
	Data Integration with Azure
		Data Lake Storage Gen2
		Real-Time Data Loading with ADLS gen2
		Data Factory
		Databricks
	Data Transformation
	Governance
		Column-Level Security
		Row-Level Security
		Access History
		Object Tagging
	Sharing
		Direct Share
		Data Marketplace
		Data Exchange
	Continuous Integration and Deployment
		Jenkins
		Azure DevOps
	Reporting
		Power BI
	Delta Lake, Machine Learning, and Constraints
		Delta Lake
		Machine Learning
		Constraints
	Summary
Chapter 3: Databricks
	Workspaces
		Data Science and Engineering
		Machine Learning
		SQL
	Compute
	Storage
		Mount Data Lake Storage Gen2 Account
			Getting Started
			Create a Secret Scope
			Mount Data Lake Storage Gen2
			Read Data Lake Storage Gen2 from Databricks
	Delta Lake
	Reporting
	Real-Time Analytics
	Advanced Analytics
	Security and Governance
	Continuous Integration and Deployment
	Integration with Synapse Analytics
	Dynamic Data Encryption
	Data Profile
	Query Profile
	Constraints
	Identity
	Delta Live Tables Merge
	Summary
Chapter 4: Synapse Analytics
	Workspaces
		Storage
			SQL Database (SQL Pools)
			Lake Database
			Integration Dataset
			External Datasets
		Development
		Integration
		Monitoring
		Management
	Reporting
	Continuous Integration and Deployment
	Real-Time Analytics
		Structured Streaming
		Synapse Link
	Advanced Analytics
	Security
	Governance
	Additional Features
		Delta Tables
		Machine Learning
		SQL Server Integration Services Integration Runtime (SSIS IR)
		Map Data Tool
		Data Sharing
		SQL Incremental
		Constraints
	Summary
Chapter 5: Pipelines and Jobs
	Databricks
	Data Factory
		Mapping Data Flows
		HDInsight Spark Activity
		Scheduling and Monitoring
	Synapse Analytics Workspace
	Summary
Chapter 6: Notebook Code
	PySpark
		Excel
		XML
		JSON
		ZIP
	Scala
	SQL
	Optimizing Performance
	Summary
Chapter 7: Schema Evolution
	Schema Evolution Using Parquet Format
	Schema Evolution Using Delta Format
		Append
		Overwrite
	Summary
Chapter 8: Change Data Feed
	Create Database and Tables
	Insert Data into Tables
	Change Data Capture
	Streaming Changes
	Summary
Chapter 9: Clones
	Shallow Clones
	Deep Clones
	Summary
Chapter 10: Live Tables
	Advantages of Delta Live Tables
	Create a Notebook
	Create and Run a Pipeline
	Schedule a Pipeline
	Explore Event Logs
	Summary
Chapter 11: Sharing
	Architecture
	Share Data
	Access Data
	Sharing Data with Snowflake
	Summary
Chapter 12: Dynamic Partition Pruning
	Partitions
	Prerequisites
		DPP Commands
		Create Cluster
		Create Notebook and Mount Data Lake
		Create Fact Table
		Verify Fact Table Partitions
		Create Dimension Table
	Join Results Without DPP Filter
	Join Results with DPP Filter
	Summary
Chapter 13: Z-Ordering and Data Skipping
	Prepare Data in Delta Lake
	Verify Data in Delta Lake
	Create Hive Table
	Run Optimize and Z-Order Commands
	Verify Data Skipping
	Summary
Chapter 14: Adaptive Query Execution
	How It Works
		Prerequisites
	Comparing AQE Performance on Query with Joins
		Create Datasets
		Disable AQE
		Enable AQE
	Summary
Chapter 15: Bloom Filter Index
	How a Bloom Filter Index Works
	Create a Cluster
	Create a Notebook and Insert Data
	Enable Bloom Filter Index
	Create Tables
	Create a Bloom Filter Index
	Optimize Table with Z-Order
	Verify Performance Improvements
	Summary
Chapter 16: Hypers​pace​
	Prerequisites
	Create Parquet Files
	Run a Query Without an Index
	Import Hyperspace
	Read the Parquet Files to a Data Frame
	Create a Hyperspace Index
	Rerun the Query with Hyperspace Index
	Other Hyperspace Management APIs
	Summary
Chapter 17: Auto Loader
	Advanced Schema Evolution
	Prerequisites
		Generate Data from SQL Database
		Load Data to Azure Data Lake Storage Gen2
		Configure Resources in Azure Portal
		Configure Databricks
	Run Auto Loader in Databricks
		Configuration Properties
		Rescue Data
		Schema Hints
		Infer Column Types
		Add New Columns
	Managing Auto Loader Resources
		Read a Stream
		Write a Stream
		Explore Results
	Summary
Chapter 18: Python Wheels
	Install Application Software
		Install Visual Studio Code and Python Extension
		Install Python
		Configure Python Interpreter Path for Visual Studio Code
		Verify Python Version in Visual Studio Code Terminal
	Set Up Wheel Directory Folders and Files
		Create Setup File
		Create Readme File
		Create License File
	Create Init File
		Create Package Function File
	Install Python Wheel Packages
		Install Wheel Package
		Install Check Wheel Package
	Create and Verify Wheel File
		Create Wheel File
		Check Wheel Contents
		Verify Wheel File
		Configure Databricks Environment
		Install Wheel to Databricks Library
	Create Databricks Notebook
		Mount Data Lake Folder
		Create Spark Database
		Verify Wheel Package
		Import Wheel Package
		Create Function Parameters
		Run Wheel Package Function
		Show Spark Tables
	Files in Databricks Repos
	Continuous Integration and Deployment
	Summary
Chapter 19: Security and Controls
	Implement Cluster, Pool, and Jobs Access Control
	Implement Workspace Access Control
	Implement Other Access and Visibility Controls
		Table Access Control
		Personal Access Tokens
		Visibility Controls
	Example Row-Level Security Implementation
		Create New User Groups
		Load Sample Data
			Create Delta Tables
		Run Queries Using Row-Level Security
		Create Row-Level Secured Views and Grant Selective User Access
	Interaction with Azure Active Directory
	Summary
Index




نظرات کاربران