دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Aamodt. Tor M., Fung. Wilson Wai Lun, Rogers. Timothy G. سری: Synthesis lectures in computer architecture #44. ISBN (شابک) : 9781627056182, 1627056181 ناشر: Morgan & Claypool Publishers سال نشر: 2018 تعداد صفحات: 142 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 1 مگابایت
کلمات کلیدی مربوط به کتاب معماری پردازنده های گرافیکی همه منظوره: واحدهای پردازش گرافیکی، معماری کامپیوتر، کامپیوترها / عمومی، GPGPU، معماری کامپیوتر
در صورت تبدیل فایل کتاب General-purpose graphics processor architectures به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب معماری پردازنده های گرافیکی همه منظوره نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
واحدهای پردازشگر گرافیکی (GPU) که در ابتدا برای پشتیبانی از بازیهای ویدیویی توسعه یافته بودند، اکنون به طور فزایندهای برای برنامههای کاربردی عمومی (غیر گرافیکی) از یادگیری ماشینی تا استخراج ارزهای رمزنگاری شده استفاده میشوند. پردازندههای گرافیکی میتوانند با اختصاص بخش بزرگتری از منابع سختافزاری به محاسبات، عملکرد و کارایی بهتری در مقایسه با واحدهای پردازش مرکزی (CPU) داشته باشند. علاوه بر این، برنامهپذیری همه منظوره آنها GPUهای امروزی را در مقایسه با شتابدهندههای دامنه خاص برای توسعهدهندگان نرمافزار جذاب میکند. این کتاب مقدمه ای را برای علاقه مندان به مطالعه معماری پردازنده های گرافیکی که از محاسبات همه منظوره پشتیبانی می کنند ارائه می دهد. این اطلاعات را جمع آوری می کند که در حال حاضر فقط در میان طیف گسترده ای از منابع متفاوت یافت می شود. نویسندگان توسعه شبیهساز GPGPU-Sim را رهبری کردند که به طور گسترده در تحقیقات دانشگاهی در مورد معماریهای GPU استفاده میشود. فصل اول این کتاب ساختار سخت افزاری اصلی پردازنده های گرافیکی را تشریح می کند و مروری کوتاه بر تاریخچه آنها ارائه می دهد. فصل 2 خلاصه ای از مدل های برنامه نویسی GPU مربوط به بقیه کتاب را ارائه می دهد. فصل 3 معماری هسته های محاسباتی GPU را بررسی می کند. فصل 4 به بررسی معماری سیستم حافظه GPU می پردازد. پس از تشریح معماری سیستم های موجود، فصل های 3 و 4 مروری بر تحقیقات مرتبط ارائه می کنند. فصل 5 تحقیقات مقطعی را که بر هسته محاسباتی و سیستم حافظه تأثیر می گذارد، خلاصه می کند. این کتاب باید منبع ارزشمندی را برای کسانی که مایل به درک معماری واحدهای پردازشگر گرافیکی (GPU) مورد استفاده برای تسریع برنامههای کاربردی همه منظوره هستند و برای کسانی که میخواهند مقدمهای بر بدنه تحقیقاتی که به سرعت در حال رشد هستند به دست آورند ارائه دهد. معماری این پردازندههای گرافیکی.
Originally developed to support video games, graphics processor units (GPUs) are now increasingly used for general-purpose (non-graphics) applications ranging from machine learning to mining of cryptographic currencies. GPUs can achieve improved performance and efficiency versus central processing units (CPUs) by dedicating a larger fraction of hardware resources to computation. In addition, their general-purpose programmability makes contemporary GPUs appealing to software developers in comparison to domain-specific accelerators. This book provides an introduction to those interested in studying the architecture of GPUs that support general-purpose computing. It collects together information currently only found among a wide range of disparate sources. The authors led development of the GPGPU-Sim simulator widely used in academic research on GPU architectures. The first chapter of this book describes the basic hardware structure of GPUs and provides a brief overview of their history. Chapter 2 provides a summary of GPU programming models relevant to the rest of the book. Chapter 3 explores the architecture of GPU compute cores. Chapter 4 explores the architecture of the GPU memory system. After describing the architecture of existing systems, Chapters 3 and 4 provide an overview of related research. Chapter 5 summarizes cross-cutting research impacting both the compute core and memory system. This book should provide a valuable resource for those wishing to understand the architecture of graphics processor units (GPUs) used for acceleration of general-purpose applications and to those who want to obtain an introduction to the rapidly growing body of research exploring how to improve the architecture of these GPUs. Read more...
1. Introduction --
1.1 The landscape of computation accelerators --
1.2 GPU hardware basics --
1.3 A brief history of GPUs --
1.4 Book outline --
2. Programming model --
2.1 Execution model --
2.2 GPU instruction set architectures --
2.2.1 NVIDIA GPU instruction set architectures --
2.2.2 AMD graphics core next instruction set architecture --
3. The SIMT core: instruction and register data flow --
3.1 One-loop approximation --
3.1.1 SIMT execution masking --
3.1.2 SIMT deadlock and stackless SIMT architectures --
3.1.3 Warp scheduling --
3.2 Two-loop approximation --
3.3 Three-loop approximation --
3.3.1 Operand collector --
3.3.2 Instruction replay: handling structural hazards --
3.4 Research directions on branch divergence --
3.4.1 Warp compaction --
3.4.2 Intra-warp divergent path management --
3.4.3 Adding MIMD capability --
3.4.4 Complexity-effective divergence management --
3.5 Research directions on scalarization and affine execution --
3.5.1 Detection of uniform or affine variables --
3.5.2 Exploiting uniform or affine variables in GPU --
3.6 Research directions on register file architecture --
3.6.1 Hierarchical register file --
3.6.2 Drowsy state register file --
3.6.3 Register file virtualization --
3.6.4 Partitioned register file --
3.6.5 RegLess --
4. Memory system --
4.1 First-level memory structures --
4.1.1 Scratchpad memory and L1 data cache --
4.1.2 L1 texture cache --
4.1.3 Unified texture and data cache --
4.2 On-chip interconnection network --
4.3 Memory partition unit --
4.3.1 L2 cache --
4.3.2 Atomic operations --
4.3.3 Memory access scheduler --
4.4 Research directions for GPU memory systems --
4.4.1 Memory access scheduling and interconnection network design --
4.4.2 Caching effectiveness --
4.4.3 Memory request prioritization and cache bypassing --
4.4.4 Exploiting inter-warp heterogeneity --
4.4.5 Coordinated cache bypassing --
4.4.6 Adaptive cache management --
4.4.7 Cache prioritization --
4.4.8 Virtual memory page placement --
4.4.9 Data placement --
4.4.10 Multi-chip-module GPUs --
5. Crosscutting research on GPU computing architectures --
5.1 Thread scheduling --
5.1.1 Research on assignment of threadblocks to cores --
5.1.2 Research on cycle-by-cycle scheduling decisions --
5.1.3 Research on scheduling multiple kernels --
5.1.4 Fine-grain synchronization aware scheduling --
5.2 Alternative ways of expressing parallelism --
5.3 Support for transactional memory --
5.3.1 Kilo TM --
5.3.2 Warp TM and temporal conflict detection --
5.4 Heterogeneous systems --
Bibliography --
Authors\' biographies.