ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Data-Intensive Workflow Management: For Clouds and Data-Intensive and Scalable Computing Environments (Synthesis Lectures on Data Management)

دانلود کتاب مدیریت گردش کار فشرده داده: برای ابرها و محیط های محاسباتی فشرده و مقیاس پذیر (سخنرانی ترکیبی در مورد مدیریت داده)

Data-Intensive Workflow Management: For Clouds and Data-Intensive and Scalable Computing Environments (Synthesis Lectures on Data Management)

مشخصات کتاب

Data-Intensive Workflow Management: For Clouds and Data-Intensive and Scalable Computing Environments (Synthesis Lectures on Data Management)

ویرایش:  
نویسندگان: , ,   
سری: Synthesis Lectures on Data Management 
ISBN (شابک) : 1681735571, 9781681735573 
ناشر: MORGAN & CLAYPOOL 
سال نشر: 2019 
تعداد صفحات: 181 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 مگابایت 

قیمت کتاب (تومان) : 52,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Data-Intensive Workflow Management: For Clouds and Data-Intensive and Scalable Computing Environments (Synthesis Lectures on Data Management) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مدیریت گردش کار فشرده داده: برای ابرها و محیط های محاسباتی فشرده و مقیاس پذیر (سخنرانی ترکیبی در مورد مدیریت داده) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مدیریت گردش کار فشرده داده: برای ابرها و محیط های محاسباتی فشرده و مقیاس پذیر (سخنرانی ترکیبی در مورد مدیریت داده)



جریان‌های کاری ممکن است به عنوان انتزاعی‌هایی تعریف شوند که برای مدل‌سازی جریان منسجم فعالیت‌ها در زمینه یک آزمایش علمی در سیلیکو استفاده می‌شوند.

اینها عبارتند از در بسیاری از حوزه‌های علوم مانند بیوانفورماتیک، نجوم و مهندسی استفاده می‌شود. چنین گردش‌کاری‌ها معمولاً تعداد قابل توجهی از فعالیت‌ها و فعال‌سازی‌ها (یعنی وظایف مرتبط با فعالیت‌ها) را ارائه می‌کنند و ممکن است به زمان طولانی برای اجرا نیاز داشته باشند. با توجه به نیاز مستمر به ذخیره و پردازش کارآمد داده‌ها (که آنها را به جریان کاری فشرده داده تبدیل می‌کند)، از محیط‌های محاسباتی با کارایی بالا مرتبط با تکنیک‌های موازی‌سازی برای اجرای این گردش‌ها استفاده می‌شود. در آغاز دهه 2010، فناوری‌های ابری به عنوان محیطی امیدوارکننده برای اجرای جریان‌های کاری علمی ظاهر شدند. با استفاده از ابرها، دانشمندان فراتر از رایانه‌های موازی منفرد به صدها یا حتی هزاران ماشین مجازی گسترش یافته‌اند.

اخیراً، چارچوب‌های محاسبات مقیاس‌پذیر (DISC) فشرده داده (مانند Apache Spark و Hadoop) و محیط‌ها پدیدار شده‌اند. و برای اجرای گردش های کاری فشرده داده استفاده می شود. محیط‌های DISC از پردازنده‌ها و دیسک‌ها در خوشه‌های محاسباتی کالاهای بزرگ تشکیل شده‌اند که با استفاده از سوئیچ‌ها و شبکه‌های ارتباطی پرسرعت به هم متصل شده‌اند. مزیت اصلی چارچوب‌های DISC این است که از مدیریت داده‌های درون حافظه کارآمد برای برنامه‌های کاربردی در مقیاس بزرگ، مانند گردش‌های کاری فشرده داده، پشتیبانی و اعطا می‌کنند. با این حال، اجرای گردش‌های کاری در محیط‌های ابری و DISC چالش‌های زیادی مانند زمان‌بندی فعالیت‌ها و فعال‌سازی‌های گردش کار، مدیریت داده‌های تولید شده، جمع‌آوری داده‌های منشأ، و غیره را ایجاد می‌کند.

چند رویکرد موجود با چالش‌هایی که قبلاً ذکر شد، سروکار دارند. به این ترتیب، نیاز واقعی به درک نحوه مدیریت این گردش‌های کاری و پلتفرم‌های مختلف کلان داده که توسعه و معرفی شده‌اند، وجود دارد. به این ترتیب، این کتاب می تواند به محققان کمک کند تا بفهمند چگونه پیوند مدیریت گردش کار با محاسبات مقیاس پذیر فشرده داده می تواند به درک و تجزیه و تحلیل داده های بزرگ علمی کمک کند.

در این کتاب، هدف ما شناسایی و تقطیر بدنه کار است. مدیریت گردش کار در محیط های ابری و DISC ما با بحث در مورد اصول اولیه گردش کار علمی با داده فشرده شروع می کنیم. در مرحله بعد، دو گردش کار را ارائه می کنیم که در یک سایت واحد و ابرهای چند سایتی با استفاده از منشأ اجرا می شوند. پس از آن، به سمت مدیریت گردش کار در محیط‌های DISC می‌رویم و راه‌حل‌هایی را با جزئیات ارائه می‌کنیم که اجرای بهینه گردش کار را با استفاده از چارچوب‌هایی مانند Apache Spark و برنامه‌های افزودنی آن امکان‌پذیر می‌سازد.


توضیحاتی درمورد کتاب به خارجی

Workflows may be defined as abstractions used to model the coherent flow of activities in the context of an in silico scientific experiment.

They are employed in many domains of science such as bioinformatics, astronomy, and engineering. Such workflows usually present a considerable number of activities and activations (i.e., tasks associated with activities) and may need a long time for execution. Due to the continuous need to store and process data efficiently (making them data-intensive workflows), high-performance computing environments allied to parallelization techniques are used to run these workflows. At the beginning of the 2010s, cloud technologies emerged as a promising environment to run scientific workflows. By using clouds, scientists have expanded beyond single parallel computers to hundreds or even thousands of virtual machines.

More recently, Data-Intensive Scalable Computing (DISC) frameworks (e.g., Apache Spark and Hadoop) and environments emerged and are being used to execute data-intensive workflows. DISC environments are composed of processors and disks in large-commodity computing clusters connected using high-speed communications switches and networks. The main advantage of DISC frameworks is that they support and grant efficient in-memory data management for large-scale applications, such as data-intensive workflows. However, the execution of workflows in cloud and DISC environments raise many challenges such as scheduling workflow activities and activations, managing produced data, collecting provenance data, etc.

Several existing approaches deal with the challenges mentioned earlier. This way, there is a real need for understanding how to manage these workflows and various big data platforms that have been developed and introduced. As such, this book can help researchers understand how linking workflow management with Data-Intensive Scalable Computing can help in understanding and analyzing scientific big data.

In this book, we aim to identify and distill the body of work on workflow management in clouds and DISC environments. We start by discussing the basic principles of data-intensive scientific workflows. Next, we present two workflows that are executed in a single site and multi-site clouds taking advantage of provenance. Afterward, we go towards workflow management in DISC environments, and we present, in detail, solutions that enable the optimized execution of the workflow using frameworks such as Apache Spark and its extensions.



فهرست مطالب

Preface
Acknowledgments
Overview
	Motivating Examples
		Montage
		SciEvol
	The Life Cycle of Cloud and DISC Workflows
	Structure of the Book
Background Knowledge
	Key Concepts
		Workflow Formalism
		Workflow Standards
		Scientific Workflow Management Systems
		Distributed Execution of Workflows
		A Brief on Existing SWfMSs
	Distributed Environments Used for Executing Workflows
		Computing Clusters
		Cloud Computing
		Data-Intensive Scalable Computing Clusters
		Apache Spark
	Conclusion
Workflow Execution in a Single-Site Cloud
	Bibliographic and Historical Notes
		Early Work on Single-Site Virtual Machine Provisioning for Scientific Workflows
		Early Work on Single-Site Workflow Scheduling
		Chapter Goals and Contributions
	Multi-Objective Cost Model
	Single-Site Virtual Machine Provisioning (SSVP)
		Problem Definition
		SSVP Algorithm
	SGreedy Scheduling Algorithm
	Evaluating SSVP and SGreedy
	Conclusion
Workflow Execution in a Multi-Site Cloud
	Overview of Workflow Execution in a Multi-Site Cloud
		Workflow Execution with a Multi-Site Cloud Platform
		Direct Workflow Execution
	Fine-Grained Workflow Execution
		Using Distributed Data Management Techniques
		Activation Scheduling in a Multi-Site Cloud
	Coarse-Grained Workflow Execution with Multiple Objectives
		Workflow Partitioning
		Fragment Scheduling Algorithms
		Performance Analysis
	Conclusion
Workflow Execution in DISC Environments
	Bibliographic and Historical Notes
		Early Work on Fine Tuning Parameters of DISC Frameworks
		Early Work on Provenance Capture in DISC Frameworks
		Early Work on Scheduling and Data Placement Strategies in DISC Frameworks
		Chapter Goals and Contributions
	Fine Tuning of Spark Parameters
		Problem Definition
		SpaCE: A Spark Fine-Tuning Engine
	Provenance Management in Apache Spark
		Retrospective and Domain Provenance Manager
		Prospective Provenance Manager
		SAMbA-FS–Mapping File Contents into Main-Memory
		Provenance Data Server
		Evaluation of SAMbA
	Scheduling Spark Workflows in DISC Environments
		TARDIS Architecture
		TARDIS Data Placement and Scheduling
	Conclusion
Conclusion
Bibliography
Authors' Biographies
Blank Page




نظرات کاربران