ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Edge Computing Systems with Kubernetes: A use case guide for building edge systems using K3s, k3OS, and open source cloud native technologies

دانلود کتاب سیستم‌های محاسبات لبه با Kubernetes: راهنمای استفاده برای ساختن سیستم‌های لبه با استفاده از K3s، k3OS و فناوری‌های بومی ابر منبع باز

Edge Computing Systems with Kubernetes: A use case guide for building edge systems using K3s, k3OS, and open source cloud native technologies

مشخصات کتاب

Edge Computing Systems with Kubernetes: A use case guide for building edge systems using K3s, k3OS, and open source cloud native technologies

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1800568592, 9781800568594 
ناشر: Packt Publishing 
سال نشر: 2022 
تعداد صفحات: 458 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 8 Mb 

قیمت کتاب (تومان) : 38,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Edge Computing Systems with Kubernetes: A use case guide for building edge systems using K3s, k3OS, and open source cloud native technologies به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب سیستم‌های محاسبات لبه با Kubernetes: راهنمای استفاده برای ساختن سیستم‌های لبه با استفاده از K3s، k3OS و فناوری‌های بومی ابر منبع باز نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب سیستم‌های محاسبات لبه با Kubernetes: راهنمای استفاده برای ساختن سیستم‌های لبه با استفاده از K3s، k3OS و فناوری‌های بومی ابر منبع باز



آشنایی با نحوه استفاده از K3 و k3OS برای موارد استفاده مختلف و کشف بهترین روش‌ها برای ساختن یک سیستم محاسبات لبه

ویژگی‌های کلیدی

  • راهنمای پیاده سازی محیط محاسبات لبه
  • کاهش تأخیر و هزینه ها در زمان واقعی برنامه هایی که در لبه اجرا می شوند
  • نرم افزار منبع باز بومی ابری پایدار و مرتبط را برای تکمیل محیط های لبه خود پیدا کنید</ li>

شرح کتاب

محاسبات لبه راهی برای پردازش اطلاعات در نزدیکی منبع داده به جای پردازش آن در مراکز داده در ابر به این ترتیب، محاسبات لبه می‌تواند تأخیر را در هنگام پردازش داده‌ها کاهش دهد و تجربه کاربر در تجسم داده‌های بلادرنگ را برای برنامه‌های شما بهبود بخشد. با استفاده از K3، یک Kubernetes و k3OS سبک وزن، یک توزیع لینوکس مبتنی بر K3s همراه با سایر فناوری‌های بومی ابری منبع باز، می‌توانید بدون صرف هزینه زیاد، سیستم‌های محاسباتی لبه قابل اعتماد بسازید.

در این کتاب نحوه طراحی سیستم های محاسبات لبه با کانتینرها و دستگاه های لبه با استفاده از حسگرها، ماژول های GPS، WiFi، ارتباطات LoRa و غیره را خواهید آموخت. همچنین با موارد استفاده مختلف و مثال‌هایی که در این کتاب توضیح داده شده‌اند، نحوه حل موارد استفاده متداول برای محاسبات لبه مانند به‌روزرسانی برنامه‌های کاربردی خود با استفاده از GitOps، خواندن داده‌ها از حسگرها و ذخیره آن در پایگاه‌های داده SQL و NoSQL آشنا خواهید شد. فصل‌های بعدی به شما نشان می‌دهند که چگونه سخت‌افزار را به خوشه‌های لبه خود متصل کنید، با استفاده از یادگیری ماشینی پیش‌بینی کنید و تصاویر را با دید کامپیوتری تحلیل کنید. تمام مثال‌ها و موارد استفاده در این کتاب برای اجرا بر روی دستگاه‌هایی که از پردازنده‌های ARM 64 بیتی استفاده می‌کنند، با استفاده از دستگاه‌های Raspberry Pi به عنوان نمونه طراحی شده‌اند.

تا پایان این کتاب. ، می توانید سیستم های محاسباتی لبه خود را با استفاده از محتوای فصل ها به عنوان قطعات لگو متناسب با نیازهای خود بسازید.

آنچه خواهید آموخت</ h4>

  • K3OS و K3s را برای سناریوهای توسعه و تولید پیکربندی کنید
  • بسته‌بندی برنامه‌ها در K3 برای ارسال - سناریوهای گره
  • در سناریوهای گهگاهی متصل، از یک گره تا یک میلیون گره
  • < مستقر شوند. li>مدیریت GitOps برای برنامه‌های کاربردی در مکان‌های مختلف
  • از نرم‌افزار بومی ابر منبع باز برای تکمیل سیستم‌های محاسباتی لبه خود استفاده کنید span>
  • پیاده‌سازی برنامه‌های کاربردی حاشیه رویداد محور و بدون سرور
  • Collect و داده‌های حسگرهای لبه را پردازش کنید و آن‌ها را در فضای ابری تجسم کنید

این کتاب برای چه کسی است

<. p>این کتاب برای مهندسین (توسعه دهندگان و/یا اپراتورها) است که به دنبال ارتقای مزایای بومی ابری GitOps و Kubernetes هستند. هر کسی که دانش اولیه لینوکس و کانتینرها را داشته باشد و به دنبال یادگیری Kubernetes با استفاده از مثال‌های به کار رفته در محاسبات لبه‌ای و سیستم‌های سخت‌افزاری باشد، از این کتاب بهره خواهد برد.

فهرست محتوا</ h4>

  1. محاسبات لبه با Kubernetes
  2. نصب و پیکربندی K3s
  3. نصب و پیکربندی k3OS
  4. خوشه‌های Raspberry Pi و آزمایشگاه‌های محلی با K3s/k3OS< /span>
  5. مدیریت خوشه‌های چندگانه با Rancher
  6. کنترل‌های ورودی برای افشای برنامه ها
  7. GitOps با FluxCD
  8. مشاهده پذیری و مسیریابی ترافیک استفاده از Linkerd Service Mesh
  9. استراتژی‌های استقرار با استفاده از Native K8 و Linkerd
  10. پایگاه‌های داده NoSQL در Edge، Mongo و Redis
  11. خطوط یادگیری ماشین با گردش‌های کاری Argo
  12. ساخت یک سیستم محلی سازی جغرافیایی در لبه
  13. نظارت بر خوشه های لبه بزرگ
  14. ایجاد سیستم های فایل توزیع شده در K3
  15. طراحی سیستم محاسبات لبه خود

توضیحاتی درمورد کتاب به خارجی

Understand how to use K3s and k3OS for different use cases and discover best practices for building an edge computing system

Key Features

  • A guide to implementing an edge computing environment
  • Reduce latency and costs for real-time applications running at the edge
  • Find stable and relevant cloud native open source software to complement your edge environments

Book Description

Edge computing is a way of processing information near the source of data instead of processing it on data centers in the cloud. In this way, edge computing can reduce latency when data is processed, improving the user experience on real-time data visualization for your applications. Using K3s, a light-weight Kubernetes and k3OS, a K3s-based Linux distribution along with other open source cloud native technologies, you can build reliable edge computing systems without spending a lot of money.

In this book, you will learn how to design edge computing systems with containers and edge devices using sensors, GPS modules, WiFi, LoRa communication and so on. You will also get to grips with different use cases and examples covered in this book, how to solve common use cases for edge computing such as updating your applications using GitOps, reading data from sensors and storing it on SQL and NoSQL databases. Later chapters will show you how to connect hardware to your edge clusters, predict using machine learning, and analyze images with computer vision. All the examples and use cases in this book are designed to run on devices using 64-bit ARM processors, using Raspberry Pi devices as an example.

By the end of this book, you will be able to build your own edge computing systems using the content of the chapters as Lego pieces to fit your needs.

What you will learn

  • Configure k3OS and K3s for development and production scenarios
  • Package applications into K3s for shipped-node scenarios
  • Deploy in occasionally connected scenarios, from one node to one million nodes
  • Manage GitOps for applications across different locations
  • Use open source cloud native software to complement your edge computing systems
  • Implement observability event-driven and serverless edge applications
  • Collect and process data from sensors at the edge and visualize it into the cloud

Who this book is for

This book is for engineers (developers and/or operators) seeking to bring the cloud native benefits of GitOps and Kubernetes to the edge. Anyone with basic knowledge of Linux and containers looking to learn Kubernetes using examples applied to edge computing and hardware systems will benefit from this book.

Table of Contents

  1. Edge Computing with Kubernetes
  2. K3s Installation and Configuration
  3. k3OS Installation and Configuration
  4. Raspberry Pi Clusters and Local Labs with K3s/k3OS
  5. Multiple Cluster Management with Rancher
  6. Ingress Controllers to Expose Applications
  7. GitOps with FluxCD
  8. Observability and Traffic Routing Using Linkerd Service Mesh
  9. Deployment Strategies Using Native K8s and Linkerd
  10. NoSQL Databases on the Edge, Mongo and Redis
  11. Machine Learning Pipelines with Argo Workflows
  12. Building a Geo Localization System on the Edge
  13. Monitoring Large Edge Clusters
  14. Creating Distributed File Systems on K3s
  15. Designing Your Own Edge Computing System


فهرست مطالب

Cover
Title Page
Copyright and Credits
Dedication
Contributors
Table of Contents
Preface
Part 1: Edge Computing Basics
Chapter 1: Edge Computing with Kubernetes
	Technical requirements
	Edge data centers using K3s and basic edge computing concepts
		The edge and edge computing
		Benefits of edge computing
		Containers, Docker, and containerd for edge computing
		Distributed systems, edge computing, and Kubernetes
		Edge clusters using K3s – a lightweight Kubernetes
		Edge devices using ARM processors and micro data centers
	Edge computing diagrams to build your system
		Edge cluster and public cloud
		Regional edge clusters and public cloud
		Single node cluster and public/private cloud
	Adapting your software to run at the edge
		Adapting Go to run on ARM
		Adapting Rust to run on ARM
		Adapting Python to run on ARM
		Adapting Java to run on ARM
	Summary
	Questions
	Further reading
Chapter 2: K3s Installation and Configuration
	Technical requirements
	Introducing K3s and its architecture
	Preparing your edge environment to run K3s
		Hardware that you can use
		Linux distributions for ARM devices
	Creating K3s single and multi-node clusters
		Creating a single node K3s cluster using Ubuntu OS
		Adding more nodes to your K3s cluster for multi-node configuration
		Extracting K3s kubeconfig to access your cluster
	Advanced configurations
		Using external MySQL storage for K3s
		Installing Helm to install software packages in Kubernetes
		Changing the default ingress controller
		Uninstalling K3s from the master node or an agent node
	Troubleshooting a K3s cluster
	Summary
	Questions
	Further reading
Chapter 3: K3s Advanced Configurations and Management
	Technical requirements
	Bare metal load balancer with MetalLB
		Load balancer services in Kubernetes
		KlipperLB and MetalLB as bare metal load balancers
		KlipperLB and MetalLB – the goods and the bads
		Installing MetalLB
		Troubleshooting MetalLB
	Setting up Longhorn for storage
		Why use Longhorn?
		Installing Longhorn with ReadWriteMany mode
		Using Longhorn UI
	Upgrading your cluster
		Upgrading using K3s Bash scripts
		Upgrading K3s manually
		Restarting K3s
	Backing up and restoring your K3s configurations
		Backups from SQLite
		Backups and restoring from the SQL database K3s backend
	Embedded etcd management
		Installing the etcd backend
		Creating and restoring etcd snapshots
	Summary
	Questions
	Further reading
Chapter 4: k3OS Installation and Configurations
	Technical requirements
	k3OS – the Kubernetes operating system
	k3OS installation for x86_64 devices using an ISO image
	Advanced installations of k3OS using config files
		k3OS config file sections
		Configurations for master and agent nodes
		Multi-node cluster creation using config files
		Creating a multi-node K3s cluster using config files
	Multi-node ARM overlay installation
		Master node overlay installation
	Summary
	Questions
	Further reading
Chapter 5: K3s Homelab for Edge Computing Experiments
	Technical requirements
	Installing a multi-node K3s cluster on your local network
		Installing an Ubuntu image on your Raspberry device
		Configuring your Raspberry Pi to run the K3s installer
		Configuring the K3s master node
		Configuring the K3s agent nodes
		Installing MetalLB as the load balancing service
		Installing Longhorn with ReadWriteMany mode
		Extracting the K3s kubeconfig file to access your cluster
	Deploying your first application with kubectl
		Basic Kubernetes objects
		Deploying a simple NGINX server with pods using kubectl
		Deploying a Redis NoSQL database with pods
		Deploying and scaling an NGINX server with deployments
	Deploying a simple NGINX server using YAML files
		Deploying an NGINX server using a Pod
		Deploying an NGINX server using deployment
		Exposing your pods using the ClusterIP service and YAML files
		Exposing your pods using the NodePort service and YAML files
		Exposing your pods using a LoadBalancer service and YAML files
	Adding persistence to your applications
		Creating an NGINX pod with a storage volume
		Creating the database using a persistent volume
	Deploying a Kubernetes dashboard
	Summary
	Questions
	Further reading
Part 2: Cloud-Native Applications at the Edge
Chapter 6: Exposing Your Applications Using Ingress Controllers and Certificates
	Technical requirements
	Understanding ingress controllers
	Installing Helm for ingress controller installations
	Installing cert-manager
	NGINX ingress installation
	Using NGINX to expose your applications
	Using Traefik to expose your applications
	Contour ingress controller installation and use
		Using Contour with HTTPProxy and cert-manager
	Troubleshooting your ingress controllers
	Pros and cons of Traefik, NGINX, and Contour
	Tips and best practices for ingress controllers
	Summary
	Questions
	Further reading
Chapter 7: GitOps with Flux for Edge Applications
	Technical requirements
	Implementing GitOps for edge computing
		GitOps principles
		GitOps benefits
		GitOps, cloud native, and edge computing
	Flux and its architecture
	Designing GitOps with Flux for edge applications
		Creating a simple monorepo for GitOps
		Understanding the application and GitHub Actions
	Building your container image with GitHub Actions
	Installing and configuring Flux for GitOps
	Troubleshooting Flux installations
	Installing Flux monitoring dashboards
	Uninstalling Flux
	Summary
	Questions
	Further reading
Chapter 8: Observability and Traffic Splitting Using Linkerd
	Technical requirements
	Observability, monitoring, and analytics
		Golden metrics
	Introduction to service meshes and Linkerd
		Linkerd service mesh
	Implementing observability and traffic splitting with Linkerd
		Installing Linkerd in your cluster
		Installing and injecting the NGINX ingress controller
		Creating a demo application and faulty pods
	Testing observability and traffic splitting with Linkerd
		Using Linkerd’s CLI
	Uninstalling Linkerd
	Ideas to implement when using service meshes
	Summary
	Questions
	Further reading
Chapter 9: Edge Serverless and Event-Driven Architectures with Knative and Cloud Events
	Technical requirements
	Serverless at the edge with Knative and Cloud Events
	Implementing serverless functions using Knative Serving
		Installing Knative Serving
		Creating a simple serverless function
	Implementing a serverless API using traffic splitting with Knative
	Using declarative files in Knative
	Implementing events and event-driven pipelines using sequences with Knative Eventing
		Installing Knative Eventing
		Implementing a simple event
		Using sequences to implement event-driven pipelines
	Summary
	Questions
	Further reading
Chapter 10: SQL and NoSQL Databases at the Edge
	Technical requirements
	CAP theorem for SQL and NoSQL databases
	Creating a volume to persist your data
	Using MySQL and MariaDB SQL databases
	Using a Redis key-value NoSQL database
	Using a MongoDB document-oriented NoSQL database
	Using a PostgreSQL object-relational and SQL database
	Using a Neo4j graph NoSQL database
	Summary
	Questions
	Further reading
Part 3: Edge Computing Use Cases in Practice
Chapter 11: Monitoring the Edge with Prometheus and Grafana
	Technical requirements
	Monitoring edge environments
	Deploying Redis to persist Mosquitto sensor data
	Installing Mosquitto to process sensor data
	Processing Mosquitto topics
	Installing Prometheus, a time series database
	Deploying a custom exporter for Prometheus
	Configuring a DHT11 sensor to send humidity and temperature weather data
	Installing Grafana to create dashboards
	Summary
	Questions
	Further reading
Chapter 12: Communicating with Edge Devices across Long Distances Using LoRa
	Technical requirements
	LoRa wireless protocol and edge computing
	Deploying MySQL to store sensor data
	Deploying a service to store sensor data in a MySQL database
	Programming the ESP32 microcontroller to send sensor data
		Configuring Heltec ESP32 + LoRa to read DHT11 sensor data
		Installing the USB to UART bridge driver
		Installing Arduino IDE
		Troubleshooting Arduino IDE when using Heltec ESP32 + LoRa
		Uploading code to the ESP32 microcontroller to send sensor data
	Programming the ESP32 microcontroller to receive sensor data
	Visualizing data from ESP32 microcontrollers using MySQL and Grafana
	Summary
	Questions
	Further reading
Chapter 13: Geolocalization Applications Using GPS, NoSQL, and K3s Clusters
	Technical requirements
	Understanding how GPS is used in a geo-tracking system
	Using Redis to store GPS coordinates data
	Using MongoDB to store your device’s tracking data
	Creating services to monitor your devices in real time using GPS
		Deploying gps-server to store GPS coordinates
		Creating a service to log GPS positions and enable real-time tracking for your devices
		Deploying tracking-server to store logs from GPS coordinates to be used for vehicles routing report
	Configuring your Raspberry Pi to track your device using GPS
		Understanding the GPS reader code to send GPS coordinates
		Deploying gps-reader to send GPS coordinates to the cloud
	Visualizing your devices using Open Street Maps in real time
		Understanding the geo-tracking map visualizer code
		Understanding the vehicles routes report
	Deploying a real-time map and report application to track your devices
	Summary
	Questions
	Further reading
Chapter 14: Computer Vision with Python and K3s Clusters
	Technical requirements
	Computer vision and smart traffic systems
	Using Redis to store temporary object GPS positions
	Deploying a computer vision service to detect car obstacles using OpenCV, TensorFlow Lite, and scikit-learn
		Preparing your Raspberry Pi to run the computer vision application
		Deploying the inference service to detect objects
		Deploying the gps-queue service to store GPS coordinates
		Deploying traffic-manager to store GPS coordinates
		Deploying a simple proxy to bypass CORS
	Deploying the edge application to visualize warnings based on computer vision
		Installing the Traffic Map application to visualize objects detected by drivers
		Detecting objects with computer vision using OpenCV, TensorFlow Lite, and scikit-learn
	Deploying a global visualizer for the smart traffic system
	Summary
	Questions
	Further reading
Chapter 15: Designing Your Own Edge Computing System
	Using the edge computing system design canvas
		Purpose
		Features
		Challenges
		People
		Costs
		Automation
		Data
		Security
		Edge
		Devices
		Sensors
		Cloud
		Communication
		Metrics
	Using managed services from cloud providers
	Existing hardware for your projects
	Exploring complementary software for your system
	Recommendations to build your edge computing system
	Exploring additional edge computing use cases
	Summary
	Questions
	Further reading
About Packt
Other Books You May Enjoy
Index




نظرات کاربران