دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1 ed.] نویسندگان: Vivienne Sze, Yu-Hsin Chen, Tien-Ju Yang, Joel S. Emer سری: ISBN (شابک) : 9781681738338 ناشر: Morgan and Company سال نشر: 2020 تعداد صفحات: [341] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 20 Mb
در صورت تبدیل فایل کتاب Efficient Processing of Deep Neural Networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پردازش کارآمد شبکه های عصبی عمیق نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب یک درمان ساختاریافته از اصول و تکنیکهای کلیدی برای فعال کردن پردازش کارآمد شبکههای عصبی عمیق (DNN) ارائه میکند. DNN ها در حال حاضر به طور گسترده برای بسیاری از برنامه های هوش مصنوعی (AI) از جمله بینایی کامپیوتر، تشخیص گفتار و روباتیک استفاده می شوند. در حالی که DNN ها دقت پیشرفته ای را در بسیاری از وظایف هوش مصنوعی ارائه می دهند، به قیمت پیچیدگی محاسباتی بالا تمام می شود. بنابراین، تکنیکهایی که پردازش کارآمد شبکههای عصبی عمیق را برای بهبود معیارهای کلیدی-مانند بهرهوری انرژی، توان عملیاتی و تأخیر- بدون کاهش دقت یا افزایش هزینههای سختافزاری امکانپذیر میسازند، برای فعال کردن استقرار گسترده DNN در سیستمهای هوش مصنوعی حیاتی هستند. این کتاب شامل پس زمینه در پردازش DNN است. توصیف و طبقه بندی رویکردهای معماری سخت افزاری برای طراحی شتاب دهنده های DNN. معیارهای کلیدی برای ارزیابی و مقایسه طرح های مختلف؛ ویژگیهای پردازش DNN که با طراحی مشترک سختافزار/الگوریتم برای بهبود بهرهوری انرژی و توان عملیاتی سازگاری دارند. و فرصت هایی برای به کارگیری فناوری های جدید. خوانندگان یک مقدمه ساختاریافته در این زمینه و همچنین رسمی سازی و سازماندهی مفاهیم کلیدی از آثار معاصر را خواهند یافت که بینش هایی را ارائه می دهند که ممکن است ایده های جدیدی را ایجاد کند.
This book provides a structured treatment of the key principles and techniques for enabling efficient processing of deep neural networks (DNNs). DNNs are currently widely used for many artificial intelligence (AI) applications, including computer vision, speech recognition, and robotics. While DNNs deliver state-of-the-art accuracy on many AI tasks, it comes at the cost of high computational complexity. Therefore, techniques that enable efficient processing of deep neural networks to improve key metrics-such as energy-efficiency, throughput, and latency-without sacrificing accuracy or increasing hardware costs are critical to enabling the wide deployment of DNNs in AI systems. The book includes background on DNN processing; a description and taxonomy of hardware architectural approaches for designing DNN accelerators; key metrics for evaluating and comparing different designs; features of DNN processing that are amenable to hardware/algorithm co-design to improve energy efficiency and throughput; and opportunities for applying new technologies. Readers will find a structured introduction to the field as well as formalization and organization of key concepts from contemporary work that provide insights that may spark new ideas.
Preface Acknowledgments Understanding Deep Neural Networks Introduction Background on Deep Neural Networks Artificial Intelligence and Deep Neural Networks Neural Networks and Deep Neural Networks Training versus Inference Development History Applications of DNNs Embedded versus Cloud Overview of Deep Neural Networks Attributes of Connections Within a Layer Attributes of Connections Between Layers Popular Types of Layers in DNNs CONV Layer (Convolutional) FC Layer (Fully Connected) Nonlinearity Pooling and Unpooling Normalization Compound Layers Convolutional Neural Networks (CNNs) Popular CNN Models Other DNNs DNN Development Resources Frameworks Models Popular Datasets for Classification Datasets for Other Tasks Summary Design of Hardware for Processing DNNs Key Metrics and Design Objectives Accuracy Throughput and Latency Energy Efficiency and Power Consumption Hardware Cost Flexibility Scalability Interplay Between Different Metrics Kernel Computation Matrix Multiplication with Toeplitz Tiling for Optimizing Performance Computation Transform Optimizations Gauss' Complex Multiplication Transform Strassen's Matrix Multiplication Transform Winograd Transform Fast Fourier Transform Selecting a Transform Summary Designing DNN Accelerators Evaluation Metrics and Design Objectives Key Properties of DNN to Leverage DNN Hardware Design Considerations Architectural Techniques for Exploiting Data Reuse Temporal Reuse Spatial Reuse Techniques to Reduce Reuse Distance Dataflows and Loop Nests Dataflow Taxonomy Weight Stationary (WS) Output Stationary (OS) Input Stationary (IS) Row Stationary (RS) Other Dataflows Dataflows for Cross-Layer Processing DNN Accelerator Buffer Management Strategies Implicit versus Explicit Orchestration Coupled versus Decoupled Orchestration Explicit Decoupled Data Orchestration (EDDO) Flexible NoC Design for DNN Accelerators Flexible Hierarchical Mesh Network Summary Operation Mapping on Specialized Hardware Mapping and Loop Nests Mappers and Compilers Mapper Organization Map Spaces and Iteration Spaces Mapper Search Mapper Models and Configuration Generation Analysis Framework for Energy Efficiency Input Data Access Energy Cost Partial Sum Accumulation Energy Cost Obtaining the Reuse Parameters Eyexam: Framework for Evaluating Performance Simple 1-D Convolution Example Apply Performance Analysis Framework to 1-D Example Tools for Map Space Exploration Co-Design of DNN Hardware and Algorithms Reducing Precision Benefits of Reduce Precision Determining the Bit Width Quantization Standard Components of the Bit Width Mixed Precision: Different Precision for Different Data Types Varying Precision: Change Precision for Different Parts of the DNN Binary Nets Interplay Between Precision and Other Design Choices Summary of Design Considerations for Reducing Precision Exploiting Sparsity Sources of Sparsity Activation Sparsity Weight Sparsity Compression Tensor Terminology Classification of Tensor Representations Representation of Payloads Representation Optimizations Tensor Representation Notation Sparse Dataflow Exploiting Sparse Weights Exploiting Sparse Activations Exploiting Sparse Weights and Activations Exploiting Sparsity in FC Layers Summary of Sparse Dataflows Summary Designing Efficient DNN Models Manual Network Design Improving Efficiency of CONV Layers Improving Efficiency of FC Layers Improving Efficiency of Network Architecture After Training Neural Architecture Search Shrinking the Search Space Improving the Optimization Algorithm Accelerating the Performance Evaluation Example of Neural Architecture Search Knowledge Distillation Design Considerations for Efficient DNN Models Advanced Technologies Processing Near Memory Embedded High-Density Memories Stacked Memory (3-D Memory) Processing in Memory Non-Volatile Memories (NVM) Static Random Access Memories (SRAM) Dynamic Random Access Memories (DRAM) Design Challenges Processing in Sensor Processing in the Optical Domain Conclusion Bibliography Authors' Biographies