دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: Thomas Fahringer (auth.), Christoph W. Keßler (eds.) سری: ISBN (شابک) : 9783528054014, 9783322878656 ناشر: Vieweg+Teubner Verlag سال نشر: 1994 تعداد صفحات: 234 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
کلمات کلیدی مربوط به کتاب موازی سازی خودکار: رویکردهای جدید به تولید کد ، توزیع داده ها و پیش بینی عملکرد: علوم کامپیوتر، عمومی
در صورت تبدیل فایل کتاب Automatic Parallelization: New Approaches to Code Generation, Data Distribution, and Performance prediction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب موازی سازی خودکار: رویکردهای جدید به تولید کد ، توزیع داده ها و پیش بینی عملکرد نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
سیستمهای چند پردازشی با حافظه توزیعشده (DMS)، مانند هایپرمکعبهای اینتل، Paragon، CM-5 ماشین فکری، و سطح محاسباتی Meiko، به سرعت مورد قبول کاربران قرار گرفتهاند و وعده ارائه قدرت محاسباتی مورد نیاز برای حل این چالش بزرگ را میدهند. مشکلات علم و مهندسی ساخت این ماشین ها نسبتاً ارزان است و به طور بالقوه برای تعداد زیادی پردازنده مقیاس پذیر هستند. با این حال، برنامهنویسی آنها دشوار است: عدم یکنواختی حافظه که دسترسیهای محلی را بسیار سریعتر از انتقال دادههای غیرمحلی از طریق عملیات ارسال پیام میکند، دلالت بر این دارد که موقعیت الگوریتمها باید برای دستیابی به عملکرد قابل قبول مورد سوء استفاده قرار گیرد. مدیریت داده ها، با اهداف دوگانه گسترش حجم کار محاسباتی و به حداقل رساندن تأخیرهای ناشی از زمانی که یک پردازنده باید منتظر داده های غیر محلی باشد، از اهمیت بالایی برخوردار می شود. هنگامی که یک کد با دست موازی می شود، برنامه نویس باید کار و داده های برنامه را بین پردازنده هایی که آن را اجرا می کنند توزیع کند. یکی از رویکردهای رایج برای انجام این کار، استفاده از منظم بودن اکثر محاسبات عددی است. این به اصطلاح داده های چندگانه یک برنامه (SPMD) یا مدل محاسبات موازی داده است. با استفاده از این روش، آرایههای داده در برنامه اصلی هر کدام بین پردازندهها توزیع میشوند و یک رابطه مالکیت ایجاد میکنند و محاسباتی که یک آیتم داده را تعریف میکنند توسط پردازندههای صاحب داده انجام میشود.
Distributed-memory multiprocessing systems (DMS), such as Intel's hypercubes, the Paragon, Thinking Machine's CM-5, and the Meiko Computing Surface, have rapidly gained user acceptance and promise to deliver the computing power required to solve the grand challenge problems of Science and Engineering. These machines are relatively inexpensive to build, and are potentially scalable to large numbers of processors. However, they are difficult to program: the non-uniformity of the memory which makes local accesses much faster than the transfer of non-local data via message-passing operations implies that the locality of algorithms must be exploited in order to achieve acceptable performance. The management of data, with the twin goals of both spreading the computational workload and minimizing the delays caused when a processor has to wait for non-local data, becomes of paramount importance. When a code is parallelized by hand, the programmer must distribute the program's work and data to the processors which will execute it. One of the common approaches to do so makes use of the regularity of most numerical computations. This is the so-called Single Program Multiple Data (SPMD) or data parallel model of computation. With this method, the data arrays in the original program are each distributed to the processors, establishing an ownership relation, and computations defining a data item are performed by the processors owning the data.
Front Matter....Pages i-6
The Weight Finder — An Advanced Profiler for Fortran Programs....Pages 7-31
Predicting Execution Times of Sequential Scientific Kernels....Pages 32-44
Isolating the Reasons for the Performance of Parallel Machines on Numerical Programs....Pages 45-77
Targeting Transputer Systems, Past and Future....Pages 78-83
Adaptor: A Compilation System for Data Parallel Fortran Programs....Pages 84-98
SNAP! Prototyping a Sequential and Numerical Application Parallelizer....Pages 99-109
Knowledge-Based Automatic Parallelization by Pattern Recognition....Pages 110-135
Automatic Data Layout for Distributed-Memory Machines in the D Programming Environment....Pages 136-152
Subspace Optimizations....Pages 153-176
Data and Process Alignment in Modula-2*....Pages 177-191
Automatic Parallelization for Distributed Memory Multiprocessors....Pages 192-217
Back Matter....Pages 218-224