ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Efficient Processing of Deep Neural Networks

دانلود کتاب پردازش کارآمد شبکه های عصبی عمیق

Efficient Processing of Deep Neural Networks

مشخصات کتاب

Efficient Processing of Deep Neural Networks

ویرایش: [1 ed.] 
نویسندگان: , , ,   
سری:  
ISBN (شابک) : 9781681738338 
ناشر: Morgan and Company 
سال نشر: 2020 
تعداد صفحات: [341] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 20 Mb 

قیمت کتاب (تومان) : 54,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 2


در صورت تبدیل فایل کتاب Efficient Processing of Deep Neural Networks به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب پردازش کارآمد شبکه های عصبی عمیق نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب پردازش کارآمد شبکه های عصبی عمیق

این کتاب یک درمان ساختاریافته از اصول و تکنیک‌های کلیدی برای فعال کردن پردازش کارآمد شبکه‌های عصبی عمیق (DNN) ارائه می‌کند. DNN ها در حال حاضر به طور گسترده برای بسیاری از برنامه های هوش مصنوعی (AI) از جمله بینایی کامپیوتر، تشخیص گفتار و روباتیک استفاده می شوند. در حالی که DNN ها دقت پیشرفته ای را در بسیاری از وظایف هوش مصنوعی ارائه می دهند، به قیمت پیچیدگی محاسباتی بالا تمام می شود. بنابراین، تکنیک‌هایی که پردازش کارآمد شبکه‌های عصبی عمیق را برای بهبود معیارهای کلیدی-مانند بهره‌وری انرژی، توان عملیاتی و تأخیر- بدون کاهش دقت یا افزایش هزینه‌های سخت‌افزاری امکان‌پذیر می‌سازند، برای فعال کردن استقرار گسترده DNN در سیستم‌های هوش مصنوعی حیاتی هستند. این کتاب شامل پس زمینه در پردازش DNN است. توصیف و طبقه بندی رویکردهای معماری سخت افزاری برای طراحی شتاب دهنده های DNN. معیارهای کلیدی برای ارزیابی و مقایسه طرح های مختلف؛ ویژگی‌های پردازش DNN که با طراحی مشترک سخت‌افزار/الگوریتم برای بهبود بهره‌وری انرژی و توان عملیاتی سازگاری دارند. و فرصت هایی برای به کارگیری فناوری های جدید. خوانندگان یک مقدمه ساختاریافته در این زمینه و همچنین رسمی سازی و سازماندهی مفاهیم کلیدی از آثار معاصر را خواهند یافت که بینش هایی را ارائه می دهند که ممکن است ایده های جدیدی را ایجاد کند.


توضیحاتی درمورد کتاب به خارجی

This book provides a structured treatment of the key principles and techniques for enabling efficient processing of deep neural networks (DNNs). DNNs are currently widely used for many artificial intelligence (AI) applications, including computer vision, speech recognition, and robotics. While DNNs deliver state-of-the-art accuracy on many AI tasks, it comes at the cost of high computational complexity. Therefore, techniques that enable efficient processing of deep neural networks to improve key metrics-such as energy-efficiency, throughput, and latency-without sacrificing accuracy or increasing hardware costs are critical to enabling the wide deployment of DNNs in AI systems. The book includes background on DNN processing; a description and taxonomy of hardware architectural approaches for designing DNN accelerators; key metrics for evaluating and comparing different designs; features of DNN processing that are amenable to hardware/algorithm co-design to improve energy efficiency and throughput; and opportunities for applying new technologies. Readers will find a structured introduction to the field as well as formalization and organization of key concepts from contemporary work that provide insights that may spark new ideas.



فهرست مطالب

Preface
Acknowledgments
Understanding Deep Neural Networks
	Introduction
		Background on Deep Neural Networks
			Artificial Intelligence and Deep Neural Networks
			Neural Networks and Deep Neural Networks
		Training versus Inference
		Development History
		Applications of DNNs
		Embedded versus Cloud
	Overview of Deep Neural Networks
		Attributes of Connections Within a Layer
		Attributes of Connections Between Layers
		Popular Types of Layers in DNNs
			CONV Layer (Convolutional)
			FC Layer (Fully Connected)
			Nonlinearity
			Pooling and Unpooling
			Normalization
			Compound Layers
		Convolutional Neural Networks (CNNs)
			Popular CNN Models
		Other DNNs
		DNN Development Resources
			Frameworks
			Models
			Popular Datasets for Classification
			Datasets for Other Tasks
			Summary
Design of Hardware for Processing DNNs
	Key Metrics and Design Objectives
		Accuracy
		Throughput and Latency
		Energy Efficiency and Power Consumption
		Hardware Cost
		Flexibility
		Scalability
		Interplay Between Different Metrics
	Kernel Computation
		Matrix Multiplication with Toeplitz
		Tiling for Optimizing Performance
		Computation Transform Optimizations
			Gauss' Complex Multiplication Transform
			Strassen's Matrix Multiplication Transform
			Winograd Transform
			Fast Fourier Transform
			Selecting a Transform
		Summary
	Designing DNN Accelerators
		Evaluation Metrics and Design Objectives
		Key Properties of DNN to Leverage
		DNN Hardware Design Considerations
		Architectural Techniques for Exploiting Data Reuse
			Temporal Reuse
			Spatial Reuse
		Techniques to Reduce Reuse Distance
		Dataflows and Loop Nests
		Dataflow Taxonomy
			Weight Stationary (WS)
			Output Stationary (OS)
			Input Stationary (IS)
			Row Stationary (RS)
			Other Dataflows
			Dataflows for Cross-Layer Processing
		DNN Accelerator Buffer Management Strategies
			Implicit versus Explicit Orchestration
			Coupled versus Decoupled Orchestration
			Explicit Decoupled Data Orchestration (EDDO)
		Flexible NoC Design for DNN Accelerators
			Flexible Hierarchical Mesh Network
		Summary
	Operation Mapping on Specialized Hardware
		Mapping and Loop Nests
		Mappers and Compilers
		Mapper Organization
			Map Spaces and Iteration Spaces
			Mapper Search
			Mapper Models and Configuration Generation
		Analysis Framework for Energy Efficiency
			Input Data Access Energy Cost
			Partial Sum Accumulation Energy Cost
			Obtaining the Reuse Parameters
		Eyexam: Framework for Evaluating Performance
			Simple 1-D Convolution Example
			Apply Performance Analysis Framework to 1-D Example
		Tools for Map Space Exploration
Co-Design of DNN Hardware and Algorithms
	Reducing Precision
		Benefits of Reduce Precision
		Determining the Bit Width
			Quantization
			Standard Components of the Bit Width
		Mixed Precision: Different Precision for Different Data Types
		Varying Precision: Change Precision for Different Parts of the DNN
		Binary Nets
		Interplay Between Precision and Other Design Choices
		Summary of Design Considerations for Reducing Precision
	Exploiting Sparsity
		Sources of Sparsity
			Activation Sparsity
			Weight Sparsity
		Compression
			Tensor Terminology
			Classification of Tensor Representations
			Representation of Payloads
			Representation Optimizations
			Tensor Representation Notation
		Sparse Dataflow
			Exploiting Sparse Weights
			Exploiting Sparse Activations
			Exploiting Sparse Weights and Activations
			Exploiting Sparsity in FC Layers
			Summary of Sparse Dataflows
		Summary
	Designing Efficient DNN Models
		Manual Network Design
			Improving Efficiency of CONV Layers
			Improving Efficiency of FC Layers
			Improving Efficiency of Network Architecture After Training
		Neural Architecture Search
			Shrinking the Search Space
			Improving the Optimization Algorithm
			Accelerating the Performance Evaluation
			Example of Neural Architecture Search
		Knowledge Distillation
		Design Considerations for Efficient DNN Models
	Advanced Technologies
		Processing Near Memory
			Embedded High-Density Memories
			Stacked Memory (3-D Memory)
		Processing in Memory
			Non-Volatile Memories (NVM)
			Static Random Access Memories (SRAM)
			Dynamic Random Access Memories (DRAM)
			Design Challenges
		Processing in Sensor
		Processing in the Optical Domain
	Conclusion
	Bibliography
	Authors' Biographies




نظرات کاربران