دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Joo-Young Kim, Bongjin Kim, Tony Tae-Hyoung Kim سری: ISBN (شابک) : 9783030987817, 3030987817 ناشر: Springer Nature سال نشر: 2022 تعداد صفحات: 168 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 7 Mb
در صورت تبدیل فایل کتاب Processing-in-Memory for AI: From Circuits to Systems به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پردازش در حافظه برای هوش مصنوعی: از مدارها تا سیستم ها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب مقدمهای جامع بر فناوری پردازش در حافظه (PIM)، از معماریهای آن گرفته تا پیادهسازی مدارها در انواع حافظههای چندگانه ارائه میکند و توضیح میدهد که چگونه میتواند یک معماری کامپیوتری قابل دوام در عصر هوش مصنوعی و دادههای بزرگ باشد. نویسندگان چالشهای سیستمهای سختافزاری هوش مصنوعی، محدودیتهای پردازش در حافظه (PIM) و رویکردها را برای استخراج الزامات سطح سیستم برای یک راهحل عملی و عملی PIM خلاصه میکنند. این ارائه بر روی راهحلهای PIM امکانپذیر تمرکز دارد که میتوانند در سیستمهای واقعی، از جمله معماریها، مدارها، و موارد پیادهسازی برای هر نوع حافظه اصلی (SRAM، DRAM و ReRAM) پیادهسازی و استفاده شوند.
This book provides a comprehensive introduction to processing-in-memory (PIM) technology, from its architectures to circuits implementations on multiple memory types and describes how it can be a viable computer architecture in the era of AI and big data. The authors summarize the challenges of AI hardware systems, processing-in-memory (PIM) constraints and approaches to derive system-level requirements for a practical and feasible PIM solution. The presentation focuses on feasible PIM solutions that can be implemented and used in real systems, including architectures, circuits, and implementation cases for each major memory type (SRAM, DRAM, and ReRAM).
Contents 1 Introduction 1.1 Hardware Acceleration for Artificial Intelligence and Machine Learning 1.2 Machine Learning Computations 1.2.1 Fully Connected Layer 1.2.2 Convolutional Layer 1.2.3 Recurrent Layer 1.3 von Neumann Bottleneck 1.3.1 Memory Wall Problem 1.3.2 Latest AI Accelerators with High-Bandwidth Memories 1.4 Processing-in-Memory Architecture 1.4.1 Paradigm Shift from Compute to Memory 1.4.2 Challenges 1.5 Book Organization References 2 Backgrounds 2.1 Basic Memory Operations 2.1.1 SRAM Basics 2.1.2 DRAM Basics 2.1.3 ReRAM Basics 2.2 PIM Fundamentals 2.3 PIM Output Read-out 2.4 PIM Design Challenges References 3 SRAM-Based Processing-in-Memory (PIM) 3.1 Introduction 3.2 SRAM-Based PIM Cell Designs 3.2.1 Standard 6T SRAM-Based PIM 3.2.2 Custom SRAM Cells for PIM 3.3 SRAM-Based PIM Macro Designs 3.4 Summary References 4 DRAM-Based Processing-in-Memory 4.1 Introduction 4.2 Basic DRAM Operation 4.3 Bulk Bitwise Processing-in-Memory 4.3.1 AMBIT 4.3.1.1 Triple Row Activation 4.3.1.2 AMBIT DRAM Organization 4.3.1.3 Fast Row Copy 4.3.1.4 Bulk Bitwise NOT 4.3.1.5 Row Addressing 4.3.1.6 AMBIT Command Execution 4.3.1.7 Evaluation 4.3.2 DRISA 4.3.2.1 Motivation 4.3.2.2 Cell Microarchitectures 4.3.2.3 Computing Using NOR Operation 4.3.2.4 Evaluation 4.4 Bank-Level Processing-in-Memory 4.4.1 Newton 4.4.1.1 Motivation 4.4.1.2 Architecture 4.4.1.3 Newton's Operation 4.4.1.4 Evaluation 4.4.2 HBM-PIM 4.4.2.1 Motivation 4.4.2.2 HBM-PIM Architecture 4.4.2.3 HBM-PIM Controller 4.4.2.4 Programmable Computing Unit 4.4.2.5 Operation Flow 4.4.2.6 Data Movements 4.4.2.7 Implementation Results 4.5 3-D Processing-in-Memory 4.5.1 Neurocube 4.5.2 Tetris 4.5.3 iPIM References 5 ReRAM-Based Processing-in-Memory (PIM) 5.1 Introduction 5.2 Basic ReRAM PIM Operation 5.3 Multiplication in ReRAM PIMs 5.3.1 Binary Multiply 5.3.2 Multiplication with Ternary Weight 5.3.3 Multi-bit Multiplication 5.3.3.1 Multiplication Using One Cycle and One Column 5.3.3.2 Parallel-Input Parallel-Weight (PIPW) 5.3.3.3 Serial-Input Parallel-Weight (SIPW) 5.4 ReRAM PIM Architecture 5.4.1 Introduction 5.4.2 Non-volatile PIM Processor 5.4.3 ReRAM PIM Architecture 5.4.4 ADCs and DACs in ReRAM PIM 5.5 ReRAM Co-processor 5.5.1 Architecture 5.5.2 Mixed-Signal Interface 5.5.3 ADCs and DACs Operation 5.6 Transposable ReRAM for Inference and Training 5.7 Bitline Sensing for MAC Accuracy Improvement 5.7.1 Variations in Bitline Current 5.7.2 Input-Aware Dynamic Reference Generation 5.7.3 Weighted Current Generation 5.7.3.1 PIM Macro Architecture 5.7.3.2 Serial-Input Non-weighted Product (SINWP) 5.7.3.3 Down-scaling Weighted Current Translator (DSWCT) 5.8 Versatile ReRAM-Based PIM Functions 5.8.1 Versatile PIM Architecture 5.8.2 2T2R ReRAM Bit Cell for Versatile Functions 5.8.2.1 Basic Memory Operation 5.8.2.2 TCAM Operation 5.8.2.3 Logic-in-Memory Operation 5.8.2.4 Dot Product Operation 5.9 Summary References 6 PIM for ML Training 6.1 Introduction 6.2 Training Computations 6.2.1 Feed-Forward Propagation 6.2.2 Backward Propagation 6.2.3 Gradient Calculation and Weight Update 6.3 SRAM-Based PIM for Training 6.3.1 Two-Way Transpose SRAM PIM 6.3.1.1 SRAM Compute-in-Memory Macro Design 6.3.1.2 In-memory Multiplication for Forward and Backward Propagation 6.3.2 CIMAT 6.3.2.1 7T and 8T Transpose SRAM Cell Design 6.3.2.2 Weight Mapping Strategies and Data Flow 6.3.2.3 Pipeline Design 6.3.3 HFP-CIM 6.3.3.1 Heterogeneous Floating-Point Computing Architecture 6.3.3.2 Overall Processor Design and Sparsity Handling 6.4 ReRAM-Based PIM for Training 6.4.1 PipeLayer 6.4.1.1 Architecture of PipeLayer 6.4.1.2 Data Mapping and Parallelism of PipeLayer 6.4.2 FloatPIM 6.4.2.1 FloatPIM's Digital Operation 6.4.2.2 Hardware Architecture 6.4.2.3 Training of FloatPIM References 7 PIM Software Stack 7.1 PIM Software Stack Overview 7.1.1 PIM Software Stack Challenges 7.2 PIM Offloading Execution 7.3 PIM Data Mapping 7.4 PIM Execution Scheduling 7.5 Cache Coherence References 8 Conclusion Correction to: Processing-in-Memory for AI