ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Programming Massively Parallel Processors

دانلود کتاب برنامه نویسی به طور گسترده پردازنده های موازی

Programming Massively Parallel Processors

مشخصات کتاب

Programming Massively Parallel Processors

ویرایش: 2nd edition 
نویسندگان: ,   
سری:  
ISBN (شابک) : 9780124159921 
ناشر: Morgan Kaufmann 
سال نشر: 2012 
تعداد صفحات: 519 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 21 مگابایت 

قیمت کتاب (تومان) : 39,000



کلمات کلیدی مربوط به کتاب برنامه نویسی به طور گسترده پردازنده های موازی: مهندسی نرم افزار، کتاب های الکترونیک



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 14


در صورت تبدیل فایل کتاب Programming Massively Parallel Processors به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب برنامه نویسی به طور گسترده پردازنده های موازی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب برنامه نویسی به طور گسترده پردازنده های موازی

برنامه نویسی پردازشگرهای موازی انبوه: یک رویکرد عملی، ویرایش دوم، به دانش آموزان می آموزد که چگونه پردازنده های موازی گسترده را برنامه ریزی کنند. این یک بحث مفصل از تکنیک های مختلف برای ساخت برنامه های موازی ارائه می دهد. از مطالعات موردی برای نشان دادن فرآیند توسعه استفاده می‌شود که با تفکر محاسباتی شروع می‌شود و با برنامه‌های موازی مؤثر و کارآمد خاتمه می‌یابد. این راهنما مفاهیم اساسی برنامه نویسی موازی و معماری GPU را هم به دانشجو و هم حرفه ای نشان می دهد. موضوعات عملکرد، قالب ممیز شناور، الگوهای موازی، و موازی سازی پویا به طور عمیق پوشش داده شده است. این نسخه اصلاح شده شامل نمونه های برنامه نویسی موازی بیشتر، کتابخانه های پرکاربرد مانند Thrust و توضیحاتی در مورد آخرین ابزارها است. همچنین پوشش جدیدی از CUDA 5.0، عملکرد بهبود یافته، ابزارهای توسعه پیشرفته، افزایش پشتیبانی سخت افزاری و موارد دیگر را فراهم می کند. افزایش پوشش فناوری مرتبط، OpenCL و مطالب جدید در مورد الگوهای الگوریتم، خوشه های GPU، برنامه نویسی میزبان و موازی سازی داده ها. و دو مطالعه موردی جدید (در مورد بازسازی MRI و تجسم مولکولی) که آخرین کاربردهای CUDA و GPU را برای تحقیقات علمی و محاسبات با کارایی بالا بررسی می‌کنند. این کتاب باید منبع ارزشمندی برای دانشجویان پیشرفته، مهندسان نرم افزار، برنامه نویسان و مهندسان سخت افزار باشد. پوشش جدید CUDA 5.0، عملکرد بهبود یافته، ابزارهای توسعه پیشرفته، افزایش پشتیبانی سخت افزاری، و موارد بیشتر افزایش پوشش فناوری مرتبط، OpenCL و مطالب جدید در مورد الگوهای الگوریتم، خوشه های GPU، برنامه نویسی میزبان و موازی سازی داده ها دو مطالعه موردی جدید (در مورد بازسازی MRI) و تجسم مولکولی) آخرین کاربردهای CUDA و GPU را برای تحقیقات علمی و محاسبات با کارایی بالا بررسی کنید.


توضیحاتی درمورد کتاب به خارجی

Programming Massively Parallel Processors: A Hands-on Approach, Second Edition, teaches students how to program massively parallel processors. It offers a detailed discussion of various techniques for constructing parallel programs. Case studies are used to demonstrate the development process, which begins with computational thinking and ends with effective and efficient parallel programs. This guide shows both student and professional alike the basic concepts of parallel programming and GPU architecture. Topics of performance, floating-point format, parallel patterns, and dynamic parallelism are covered in depth. This revised edition contains more parallel programming examples, commonly-used libraries such as Thrust, and explanations of the latest tools. It also provides new coverage of CUDA 5.0, improved performance, enhanced development tools, increased hardware support, and more; increased coverage of related technology, OpenCL and new material on algorithm patterns, GPU clusters, host programming, and data parallelism; and two new case studies (on MRI reconstruction and molecular visualization) that explore the latest applications of CUDA and GPUs for scientific research and high-performance computing. This book should be a valuable resource for advanced students, software engineers, programmers, and hardware engineers. New coverage of CUDA 5.0, improved performance, enhanced development tools, increased hardware support, and more Increased coverage of related technology, OpenCL and new material on algorithm patterns, GPU clusters, host programming, and data parallelism Two new case studies (on MRI reconstruction and molecular visualization) explore the latest applications of CUDA and GPUs for scientific research and high-performance computing.



فهرست مطالب

Front Cover......Page 1
Programming Massively Parallel Processors......Page 4
Copyright Page......Page 5
Contents......Page 6
Preface......Page 14
How to Use the Book......Page 15
Tying It All Together: The Final Project......Page 16
Design Document......Page 17
Online Supplements......Page 18
Acknowledgements......Page 20
Dedication......Page 22
1 Introduction......Page 24
1.1 Heterogeneous Parallel Computing......Page 25
1.2 Architecture of a Modern GPU......Page 31
1.3 Why More Speed or Parallelism?......Page 33
1.4 Speeding Up Real Applications......Page 35
1.5 Parallel Programming Languages and Models......Page 37
1.6 Overarching Goals......Page 39
1.7 Organization of the Book......Page 40
References......Page 44
2.1 Evolution of Graphics Pipelines......Page 46
The Era of Fixed-Function Graphics Pipelines......Page 47
Evolution of Programmable Real-Time Graphics......Page 51
Unified Graphics and Computing Processors......Page 54
2.2 GPGPU: An Intermediate Step......Page 56
2.3 GPU Computing......Page 57
Scalable GPUs......Page 58
Recent Developments......Page 59
References and Further Reading......Page 60
3 Introduction to Data Parallelism and CUDA C......Page 64
3.1 Data Parallelism......Page 65
3.2 CUDA Program Structure......Page 66
3.3 A Vector Addition Kernel......Page 68
3.4 Device Global Memory and Data Transfer......Page 71
3.5 Kernel Functions and Threading......Page 76
Predefined Variables......Page 82
3.7 Exercises......Page 83
References......Page 85
4 Data-Parallel Execution Model......Page 86
4.1 Cuda Thread Organization......Page 87
4.2 Mapping Threads to Multidimensional Data......Page 91
4.3 Matrix-Matrix Multiplication—A More Complex Kernel......Page 97
4.4 Synchronization and Transparent Scalability......Page 104
4.5 Assigning Resources to Blocks......Page 106
4.6 Querying Device Properties......Page 108
4.7 Thread Scheduling and Latency Tolerance......Page 110
4.9 Exercises......Page 114
5 CUDA Memories......Page 118
5.1 Importance of Memory Access Efficiency......Page 119
5.2 CUDA Device Memory Types......Page 120
5.3 A Strategy for Reducing Global Memory Traffic......Page 128
5.4 A Tiled Matrix–Matrix Multiplication Kernel......Page 132
5.5 Memory as a Limiting Factor to Parallelism......Page 138
5.6 Summary......Page 141
5.7 Exercises......Page 142
6 Performance Considerations......Page 146
6.1 Warps and Thread Execution......Page 147
6.2 Global Memory Bandwidth......Page 155
6.3 Dynamic Partitioning of Execution Resources......Page 164
6.4 Instruction Mix and Thread Granularity......Page 166
6.6 Exercises......Page 168
References......Page 172
7 Floating-Point Considerations......Page 174
Normalized Representation of M......Page 175
Excess Encoding of E......Page 176
7.2 Representable Numbers......Page 178
7.3 Special Bit Patterns and Precision in Ieee Format......Page 183
7.4 Arithmetic Accuracy and Rounding......Page 184
7.5 Algorithm Considerations......Page 185
7.6 Numerical Stability......Page 187
7.7 Summary......Page 192
7.8 Exercises......Page 193
References......Page 194
8 Parallel Patterns: Convolution......Page 196
8.1 Background......Page 197
8.2 1D Parallel Convolution—A Basic Algorithm......Page 202
8.3 Constant Memory and Caching......Page 204
8.4 Tiled 1D Convolution with Halo Elements......Page 208
8.5 A Simpler Tiled 1D Convolution—General Caching......Page 215
8.6 Summary......Page 216
8.7 Exercises......Page 217
9 Parallel Patterns: Prefix Sum......Page 220
9.1 Background......Page 221
9.2 A Simple Parallel Scan......Page 223
9.3 Work Efficiency Considerations......Page 227
9.4 A Work-Efficient Parallel Scan......Page 228
9.5 Parallel Scan for Arbitrary-Length Inputs......Page 233
9.6 Summary......Page 237
9.7 Exercises......Page 238
Reference......Page 239
10 Parallel Patterns: Sparse Matrix–Vector Multiplication......Page 240
10.1 Background......Page 241
10.2 Parallel SpMV Using CSR......Page 245
10.3 Padding and Transposition......Page 247
10.4 Using Hybrid to Control Padding......Page 249
10.5 Sorting and Partitioning for Regularization......Page 253
10.6 Summary......Page 255
10.7 Exercises......Page 256
References......Page 257
11 Application Case Study: Advanced MRI Reconstruction......Page 258
11.1 Application Background......Page 259
11.2 Iterative Reconstruction......Page 262
11.3 Computing FHD......Page 264
Step 1: Determine the Kernel Parallelism Structure......Page 266
Step 2: Getting Around the Memory Bandwidth Limitation......Page 272
Step 3: Using Hardware Trigonometry Functions......Page 278
Step 4: Experimental Performance Tuning......Page 282
11.4 Final Evaluation......Page 283
11.5 Exercises......Page 285
References......Page 287
12 Application Case Study: Molecular Visualization and Analysis......Page 288
12.1 Application Background......Page 289
12.2 A Simple Kernel Implementation......Page 291
12.3 Thread Granularity Adjustment......Page 295
12.4 Memory Coalescing......Page 297
12.5 Summary......Page 300
References......Page 302
13 Parallel Programming and Computational Thinking......Page 304
13.1 Goals of Parallel Computing......Page 305
13.2 Problem Decomposition......Page 306
13.3 Algorithm Selection......Page 310
13.4 Computational Thinking......Page 316
13.6 Exercises......Page 317
References......Page 318
14.1 Background......Page 320
14.2 Data Parallelism Model......Page 322
14.3 Device Architecture......Page 324
14.4 Kernel Functions......Page 326
14.5 Device Management and Kernel Launch......Page 327
14.6 Electrostatic Potential Map in Opencl......Page 330
14.7 Summary......Page 334
14.8 Exercises......Page 335
References......Page 336
15.1 OpenACC Versus CUDA C......Page 338
15.2 Execution Model......Page 341
15.3 Memory Model......Page 342
Parallel Region, Gangs, and Workers......Page 343
Gang Loop......Page 345
OpenACC Versus CUDA......Page 346
Vector Loop......Page 349
Prescriptive Versus Descriptive......Page 350
Ways to Help an OpenACC Compiler......Page 352
Data Clauses......Page 354
Data Construct......Page 355
Asynchronous Computation and Data Transfer......Page 358
15.5 Future Directions of OpenACC......Page 359
15.6 Exercises......Page 360
16.1 Background......Page 362
16.2 Motivation......Page 365
16.3 Basic Thrust Features......Page 366
Iterators and Memory Space......Page 367
Interoperability......Page 368
16.4 Generic Programming......Page 370
16.6 Programmer Productivity......Page 372
Real-World Performance......Page 373
16.7 Best Practices......Page 375
Fusion......Page 376
Structure of Arrays......Page 377
Implicit Ranges......Page 379
16.8 Exercises......Page 380
References......Page 381
17 CUDA FORTRAN......Page 382
17.1 CUDA FORTRAN and CUDA C Differences......Page 383
17.2 A First CUDA FORTRAN Program......Page 384
17.3 Multidimensional Array in CUDA FORTRAN......Page 386
17.4 Overloading Host/Device Routines With Generic Interfaces......Page 387
17.5 Calling CUDA C Via Iso_C_Binding......Page 390
17.6 Kernel Loop Directives and Reduction Operations......Page 392
17.7 Dynamic Shared Memory......Page 393
17.8 Asynchronous Data Transfers......Page 394
17.9 Compilation and Profiling......Page 400
17.10 Calling Thrust from CUDA FORTRAN......Page 401
17.11 Exercises......Page 405
18 An Introduction to C++ AMP......Page 406
18.1 Core C++ Amp Features......Page 407
Explicit and Implicit Data Copies......Page 414
Asynchronous Operation......Page 416
18.3 Managing Accelerators......Page 418
18.4 Tiled Execution......Page 421
18.5 C++ AMP Graphics Features......Page 424
18.7 Exercises......Page 428
19 Programming a Heterogeneous Computing Cluster......Page 430
19.2 A Running Example......Page 431
19.3 MPI Basics......Page 433
19.4 MPI Point-to-Point Communication Types......Page 437
19.5 Overlapping Computation and Communication......Page 444
19.7 Summary......Page 454
19.8 Exercises......Page 455
Reference......Page 456
20 CUDA Dynamic Parallelism......Page 458
20.1 Background......Page 459
20.2 Dynamic Parallelism Overview......Page 461
Events......Page 462
Streams......Page 463
Synchronization Scope......Page 464
Local Memory......Page 465
Texture Memory......Page 466
20.5 A Simple Example......Page 467
Memory Footprint......Page 469
Memory Allocation and Lifetime......Page 471
20.7 A More Complex Example......Page 472
Bezier Curve Calculation (Predynamic Parallelism)......Page 473
Bezier Curve Calculation (with Dynamic Parallelism)......Page 476
20.8 Summary......Page 479
Reference......Page 480
21.1 Goals Revisited......Page 482
21.2 Memory Model Evolution......Page 484
21.3 Kernel Execution Control Evolution......Page 487
21.5 Programming Environment......Page 490
21.6 Future Outlook......Page 491
References......Page 492
A.1 matrixmul.cu......Page 494
A.2 matrixmul_gold.cpp......Page 497
A.3 matrixmul.h......Page 498
A.4 assist.h......Page 499
A.5 Expected Output......Page 503
B.1 GPU Compute Capability Tables......Page 504
B.2 Memory Coalescing Variations......Page 505
Index......Page 510




نظرات کاربران