دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Daniel C. M. de Oliveira, Ji Liu, Esther Pacitti سری: Synthesis Lectures on Data Management ISBN (شابک) : 1681735571, 9781681735573 ناشر: MORGAN & CLAYPOOL سال نشر: 2019 تعداد صفحات: 181 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
در صورت تبدیل فایل کتاب Data-Intensive Workflow Management: For Clouds and Data-Intensive and Scalable Computing Environments (Synthesis Lectures on Data Management) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب مدیریت گردش کار فشرده داده: برای ابرها و محیط های محاسباتی فشرده و مقیاس پذیر (سخنرانی ترکیبی در مورد مدیریت داده) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
جریانهای کاری ممکن است به عنوان انتزاعیهایی تعریف شوند که برای مدلسازی جریان منسجم فعالیتها در زمینه یک آزمایش علمی در سیلیکو استفاده میشوند.
اینها عبارتند از در بسیاری از حوزههای علوم مانند بیوانفورماتیک، نجوم و مهندسی استفاده میشود. چنین گردشکاریها معمولاً تعداد قابل توجهی از فعالیتها و فعالسازیها (یعنی وظایف مرتبط با فعالیتها) را ارائه میکنند و ممکن است به زمان طولانی برای اجرا نیاز داشته باشند. با توجه به نیاز مستمر به ذخیره و پردازش کارآمد دادهها (که آنها را به جریان کاری فشرده داده تبدیل میکند)، از محیطهای محاسباتی با کارایی بالا مرتبط با تکنیکهای موازیسازی برای اجرای این گردشها استفاده میشود. در آغاز دهه 2010، فناوریهای ابری به عنوان محیطی امیدوارکننده برای اجرای جریانهای کاری علمی ظاهر شدند. با استفاده از ابرها، دانشمندان فراتر از رایانههای موازی منفرد به صدها یا حتی هزاران ماشین مجازی گسترش یافتهاند.
اخیراً، چارچوبهای محاسبات مقیاسپذیر (DISC) فشرده داده (مانند Apache Spark و Hadoop) و محیطها پدیدار شدهاند. و برای اجرای گردش های کاری فشرده داده استفاده می شود. محیطهای DISC از پردازندهها و دیسکها در خوشههای محاسباتی کالاهای بزرگ تشکیل شدهاند که با استفاده از سوئیچها و شبکههای ارتباطی پرسرعت به هم متصل شدهاند. مزیت اصلی چارچوبهای DISC این است که از مدیریت دادههای درون حافظه کارآمد برای برنامههای کاربردی در مقیاس بزرگ، مانند گردشهای کاری فشرده داده، پشتیبانی و اعطا میکنند. با این حال، اجرای گردشهای کاری در محیطهای ابری و DISC چالشهای زیادی مانند زمانبندی فعالیتها و فعالسازیهای گردش کار، مدیریت دادههای تولید شده، جمعآوری دادههای منشأ، و غیره را ایجاد میکند.
چند رویکرد موجود با چالشهایی که قبلاً ذکر شد، سروکار دارند. به این ترتیب، نیاز واقعی به درک نحوه مدیریت این گردشهای کاری و پلتفرمهای مختلف کلان داده که توسعه و معرفی شدهاند، وجود دارد. به این ترتیب، این کتاب می تواند به محققان کمک کند تا بفهمند چگونه پیوند مدیریت گردش کار با محاسبات مقیاس پذیر فشرده داده می تواند به درک و تجزیه و تحلیل داده های بزرگ علمی کمک کند.
در این کتاب، هدف ما شناسایی و تقطیر بدنه کار است. مدیریت گردش کار در محیط های ابری و DISC ما با بحث در مورد اصول اولیه گردش کار علمی با داده فشرده شروع می کنیم. در مرحله بعد، دو گردش کار را ارائه می کنیم که در یک سایت واحد و ابرهای چند سایتی با استفاده از منشأ اجرا می شوند. پس از آن، به سمت مدیریت گردش کار در محیطهای DISC میرویم و راهحلهایی را با جزئیات ارائه میکنیم که اجرای بهینه گردش کار را با استفاده از چارچوبهایی مانند Apache Spark و برنامههای افزودنی آن امکانپذیر میسازد.
Workflows may be defined as abstractions used to model the coherent flow of activities in the context of an in silico scientific experiment.
They are employed in many domains of science such as bioinformatics, astronomy, and engineering. Such workflows usually present a considerable number of activities and activations (i.e., tasks associated with activities) and may need a long time for execution. Due to the continuous need to store and process data efficiently (making them data-intensive workflows), high-performance computing environments allied to parallelization techniques are used to run these workflows. At the beginning of the 2010s, cloud technologies emerged as a promising environment to run scientific workflows. By using clouds, scientists have expanded beyond single parallel computers to hundreds or even thousands of virtual machines.
More recently, Data-Intensive Scalable Computing (DISC) frameworks (e.g., Apache Spark and Hadoop) and environments emerged and are being used to execute data-intensive workflows. DISC environments are composed of processors and disks in large-commodity computing clusters connected using high-speed communications switches and networks. The main advantage of DISC frameworks is that they support and grant efficient in-memory data management for large-scale applications, such as data-intensive workflows. However, the execution of workflows in cloud and DISC environments raise many challenges such as scheduling workflow activities and activations, managing produced data, collecting provenance data, etc.
Several existing approaches deal with the challenges mentioned earlier. This way, there is a real need for understanding how to manage these workflows and various big data platforms that have been developed and introduced. As such, this book can help researchers understand how linking workflow management with Data-Intensive Scalable Computing can help in understanding and analyzing scientific big data.
In this book, we aim to identify and distill the body of work on workflow management in clouds and DISC environments. We start by discussing the basic principles of data-intensive scientific workflows. Next, we present two workflows that are executed in a single site and multi-site clouds taking advantage of provenance. Afterward, we go towards workflow management in DISC environments, and we present, in detail, solutions that enable the optimized execution of the workflow using frameworks such as Apache Spark and its extensions.
Preface Acknowledgments Overview Motivating Examples Montage SciEvol The Life Cycle of Cloud and DISC Workflows Structure of the Book Background Knowledge Key Concepts Workflow Formalism Workflow Standards Scientific Workflow Management Systems Distributed Execution of Workflows A Brief on Existing SWfMSs Distributed Environments Used for Executing Workflows Computing Clusters Cloud Computing Data-Intensive Scalable Computing Clusters Apache Spark Conclusion Workflow Execution in a Single-Site Cloud Bibliographic and Historical Notes Early Work on Single-Site Virtual Machine Provisioning for Scientific Workflows Early Work on Single-Site Workflow Scheduling Chapter Goals and Contributions Multi-Objective Cost Model Single-Site Virtual Machine Provisioning (SSVP) Problem Definition SSVP Algorithm SGreedy Scheduling Algorithm Evaluating SSVP and SGreedy Conclusion Workflow Execution in a Multi-Site Cloud Overview of Workflow Execution in a Multi-Site Cloud Workflow Execution with a Multi-Site Cloud Platform Direct Workflow Execution Fine-Grained Workflow Execution Using Distributed Data Management Techniques Activation Scheduling in a Multi-Site Cloud Coarse-Grained Workflow Execution with Multiple Objectives Workflow Partitioning Fragment Scheduling Algorithms Performance Analysis Conclusion Workflow Execution in DISC Environments Bibliographic and Historical Notes Early Work on Fine Tuning Parameters of DISC Frameworks Early Work on Provenance Capture in DISC Frameworks Early Work on Scheduling and Data Placement Strategies in DISC Frameworks Chapter Goals and Contributions Fine Tuning of Spark Parameters Problem Definition SpaCE: A Spark Fine-Tuning Engine Provenance Management in Apache Spark Retrospective and Domain Provenance Manager Prospective Provenance Manager SAMbA-FS–Mapping File Contents into Main-Memory Provenance Data Server Evaluation of SAMbA Scheduling Spark Workflows in DISC Environments TARDIS Architecture TARDIS Data Placement and Scheduling Conclusion Conclusion Bibliography Authors' Biographies Blank Page