ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Deep Learning and Scientific Computing with R torch (Chapman & Hall/CRC The R Series)

دانلود کتاب یادگیری عمیق و محاسبات علمی با مشعل R (Chapman & Hall/CRC The R Series)

Deep Learning and Scientific Computing with R torch (Chapman & Hall/CRC The R Series)

مشخصات کتاب

Deep Learning and Scientific Computing with R torch (Chapman & Hall/CRC The R Series)

ویرایش: [1 ed.] 
نویسندگان:   
سری:  
ISBN (شابک) : 1032231386, 9781032231389 
ناشر: Chapman and Hall/CRC 
سال نشر: 2023 
تعداد صفحات: 394
[414] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 11 Mb 

قیمت کتاب (تومان) : 54,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 8


در صورت تبدیل فایل کتاب Deep Learning and Scientific Computing with R torch (Chapman & Hall/CRC The R Series) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری عمیق و محاسبات علمی با مشعل R (Chapman & Hall/CRC The R Series) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری عمیق و محاسبات علمی با مشعل R (Chapman & Hall/CRC The R Series)

torch یک پورت R PyTorch است که یکی از دو فریم ورک یادگیری عمیق در صنعت و تحقیق است. همچنین یک ابزار عالی برای استفاده در محاسبات علمی است. به طور کامل در R و C/C++ نوشته شده است. اگرچه هنوز \"جوان\" به عنوان یک پروژه، R مشعل در حال حاضر دارای یک جامعه پر جنب و جوش از کاربران و توسعه دهندگان است. تجربه نشان می دهد که کاربران مشعل از طیف وسیعی از پس زمینه های مختلف هستند. این کتاب قصد دارد برای (تقریبا) همه مفید باشد. در سطح جهانی، اهداف آن سه چیز است: ارائه مقدمه ای کامل برای اصول اولیه مشعل - هم با توضیح دقیق مفاهیم و ایده ها، و هم با نشان دادن مثال های کافی برای خواننده برای تبدیل شدن به \"مسلط\" در مشعل دوباره با تمرکز بر توضیح مفهومی، نشان دهید. نحوه استفاده از مشعل در برنامه‌های یادگیری عمیق، از تشخیص تصویر در طول پیش‌بینی سری‌های زمانی تا طبقه‌بندی صوتی، مقدمه‌ای مناسب برای خواننده برای موضوعات محاسباتی علمی انتخابی (یعنی محاسبات ماتریسی، تبدیل فوریه گسسته، و موجک‌ها) ارائه کنید. )، همه با کد مشعل همراه است که می توانید با آن بازی کنید. یادگیری عمیق و محاسبات علمی با مشعل R با تخصص فنی دست اول و به روشی جذاب و خواندنی نوشته شده است.


توضیحاتی درمورد کتاب به خارجی

torch is an R port of PyTorch, one of the two most-employed deep learning frameworks in industry and research. It is also an excellent tool to use in scientific computations. It is written entirely in R and C/C++. Though still \"young\" as a project, R torch already has a vibrant community of users and developers. Experience shows that torch users come from a broad range of different backgrounds. This book aims to be useful to (almost) everyone. Globally speaking, its purposes are threefold: Provide a thorough introduction to torch basics - both by carefully explaining underlying concepts and ideas, and showing enough examples for the reader to become \"fluent\" in torch Again with a focus on conceptual explanation, show how to use torch in deep-learning applications, ranging from image recognition over time series prediction to audio classification Provide a concepts-first, reader-friendly introduction to selected scientific-computation topics (namely, matrix computations, the Discrete Fourier Transform, and wavelets), all accompanied by torch code you can play with. Deep Learning and Scientific Computing with R torch is written with first-hand technical expertise and in an engaging, fun-to-read way.



فهرست مطالب

Cover
Half Title
Series Page
Title Page
Copyright Page
Contents
List of Figures
Preface
Author Biography
I. Getting Familiar with Torch
	1. Overview
	2. On torch, and How to Get It
		2.1. In torch World
		2.2. Installing and Running torch
	3. Tensors
		3.1. What’s in a Tensor?
		3.2. Creating Tensors
			3.2.1. Tensors from values
			3.2.2. Tensors from specifications
			3.2.3. Tensors from datasets
		3.3. Operations on Tensors
			3.3.1. Summary operations
		3.4. Accessing Parts of a Tensor
			3.4.1. “Think R”
		3.5. Reshaping Tensors
			3.5.1. Zero-copy reshaping vs. reshaping with copy
		3.6. Broadcasting
			3.6.1. Broadcasting rules
	4. Autograd
		4.1. Why Compute Derivatives?
		4.2. Automatic Differentiation Example
		4.3. Automatic Differentiation with torch autograd
	5. Function Minimization with autograd
		5.1. An Optimization Classic
		5.2. Minimization from Scratch
	6. A Neural Network from Scratch
		6.1. Idea
		6.2. Layers
		6.3. Activation Functions
		6.4. Loss Functions
		6.5. Implementation
			6.5.1. Generate random data
			6.5.2. Build the network
			6.5.3. Train the network
	7. Modules
		7.1. Built-in nn_module()s
		7.2. Building up a Model
			7.2.1. Models as sequences of layers: nn_sequential() index{nn_sequential()}
			7.2.2. Models with custom logic
	8. Optimizers
		8.1. Why Optimizers?
		8.2. Using built-in torch Optimizers
		8.3. Parameter Update Strategies
			8.3.1. Gradient descent (a.k.a. steepest descent, a.k.a. stochastic gradient descent (SGD))
			8.3.2. Things that matter
			8.3.3. Staying on track: Gradient descent with momentum
			8.3.4. Adagrad
			8.3.5. RMSProp
			8.3.6. Adam
	9. Loss Functions
		9.1. torch Loss Functions
		9.2. What Loss Function Should I Choose?
			9.2.1. Maximum likelihood
			9.2.2. Regression
			9.2.3. Classification
	10. Function Minimization with L-BFGS
		10.1. Meet L-BFGS
			10.1.1. Changing slopes
			10.1.2. Exact Newton method
			10.1.3. Approximate Newton: BFGS and L-BFGS
			10.1.4. Line search
		10.2. Minimizing the Rosenbrock Function with optim_lbfgs()
			10.2.1. optim_lbfgs() default behavior
			10.2.2. optim_lbfgs() with line search
	11. Modularizing the Neural Network
		11.1. Data
		11.2. Network
		11.3. Training
		11.4. What’s to Come
II. Deep Learning with torch
	12. Overview
	13. Loading Data
		13.1. Data vs. dataset() vs. dataloader() – What’s the Difference?
		13.2. Using dataset()s
			13.2.1. A self-built dataset()
			13.2.2. tensor_dataset()
			13.2.3. torchvision::mnist_dataset()
		13.3. Using dataloader()s
	14. Training with luz
		14.1. Que haya luz – Que haja luz – Let there be Light
		14.2. Porting the Toy Example
			14.2.1. Data
			14.2.2. Model
			14.2.3. Training
		14.3. A More Realistic Scenario
			14.3.1. Integrating training, validation, and test
			14.3.2. Using callbacks to “hook” into the training process
			14.3.3. How luz helps with devices
		14.4. Appendix: A Train-Validate-Test Workflow Implemented by Hand
	15. A First Go at Image Classification
		15.1. What does It Take to Classify an Image?
		15.2. Neural Networks for Feature Detection and Feature Emergence
			15.2.1. Detecting low-level features with cross-correlation
			15.2.2. Build up feature hierarchies
		15.3. Classification on Tiny Imagenet
			15.3.1. Data pre-processing
			15.3.2. Image classification from scratch
	16. Making Models Generalize
		16.1. The Royal Road: more – and More Representative! – Data
		16.2. Pre-processing Stage: Data Augmentation
			16.2.1. Classic data augmentation
			16.2.2. Mixup
		16.3. Modeling Stage: Dropout and Regularization
			16.3.1. Dropout
			16.3.2. Regularization
		16.4. Training Stage: Early Stopping
	17. Speeding up Training
		17.1. Batch Normalization
		17.2. Dynamic Learning Rates
			17.2.1. Learning rate finder
			17.2.2. Learning rate schedulers
		17.3. Transfer Learning
	18. Image Classification, Take Two: Improving Performance
		18.1. Data Input (Common for all)
		18.2. Run 1: Dropout
		18.3. Run 2: Batch Normalization
		18.4. Run 3: Transfer Learning
	19. Image Segmentation
		19.1. Segmentation vs. Classification
		19.2. U-Net, a “classic” in image segmentation
		19.3. U-Net – a torch implementation
			19.3.1. Encoder
			19.3.2. Decoder
			19.3.3. The “U”
			19.3.4. Top-level module
		19.4. Dogs and Cats
	20. Tabular Data
		20.1. Types of Numerical Data, by Example
		20.2. A torch dataset for Tabular Data
		20.3. Embeddings in Deep Learning: The Idea
		20.4. Embeddings in deep learning: Implementation
		20.5. Model and Model Training
		20.6. Embedding-generated Representations by Example
	21. Time Series
		21.1. Deep Learning for Sequences: The Idea
		21.2. A Basic Recurrent Neural Network
			21.2.1. Basic rnn_cell()
			21.2.2. Basic rnn_module()
		21.3. Recurrent Neural Networks in torch
		21.4. RNNs in Practice: GRU and LSTM
		21.5. Forecasting Electricity Demand
			21.5.1. Data inspection
			21.5.2. Forecasting the very next value
			21.5.3. Forecasting multiple time steps ahead
	22. Audio Classification
		22.1. Classifying Speech Data
		22.2. Two Equivalent Representations
		22.3. Combining Representations: The Spectrogram
		22.4. Training a Model for Audio Classification
			22.4.1. Baseline setup: Training a convnet on spectrograms
			22.4.2. Variation one: Use a Mel-scale spectrogram instead
			22.4.3. Variation two: Complex-valued spectograms
III. Other Things to do with torch: Matrices, Fourier Transform, and Wavelets
	23. Overview
	24. Matrix Computations: Least-squares Problems
		24.1. Five Ways to do Least Squares
		24.2. Regression for Weather Prediction
			24.2.1. Least squares (I): Setting expectations with lm()
			24.2.2. Least squares (II): Using linalg_lstsq()
			24.2.3. Interlude: What if we hadn’t standardized the data?
			24.2.4. Least squares (III): The normal equations
			24.2.5. Least squares (IV): Cholesky decomposition
			24.2.6. Least squares (V): LU factorization
			24.2.7. Least squares (VI): QR factorization
			24.2.8. Least squares (VII): Singular Value Decomposition (SVD)
			24.2.9. Checking execution times
		24.3. A Quick Look at Stability
	25. Matrix Computations: Convolution
		25.1. Why Convolution?
		25.2. Convolution in One Dimension
			25.2.1. Two ways to think about convolution
			25.2.2. Implementation
		25.3. Convolution in Two Dimensions
			25.3.1. How it works (output view)
			25.3.2. Implementation
	26. Exploring the Discrete Fourier Transform (DFT)
		26.1. Understanding the Output of torch_fft_fft()
			26.1.1. Starting point: A cosine of frequency 1
			26.1.2. Reconstructing the magic
			26.1.3. Varying frequency
			26.1.4. Varying amplitude
			26.1.5. Adding phase
			26.1.6. Superposition of sinusoids
		26.2. Coding the DFT
		26.3. Fun with sox
	27. The Fast Fourier Transform (FFT)
		27.1. Some Terminology
		27.2. Radix-2 decimation-in-time(DIT) walkthrough
			27.2.1. The main idea: Recursive split
			27.2.2. One further simplification
		27.3. FFT as Matrix Factorization
		27.4. Implementing the FFT
			27.4.1. DFT, the “loopy” way
			27.4.2. DFT, vectorized
			27.4.3. Radix-2 decimation in time FFT, recursive
			27.4.4. Radix-2 decimation in time FFT by matrix factorization
			27.4.5. Radix-2 decimation in time FFT, optimized for vectorization
			27.4.6. Checking against torch_fft_fft()
			27.4.7. Comparing performance
			27.4.8. Making use of Just-in-Time (JIT) compilation
	28. Wavelets
		28.1. Introducing the Morlet Wavelet
		28.2. The roles of ???? and ????????
		28.3. Wavelet Transform: A Straightforward Implementation
		28.4. Resolution in Time versus in Frequency
		28.5. How is this Different from a Spectrogram?
		28.6. Performing the Wavelet Transform in the Fourier Domain
		28.7. Creating the Wavelet Diagram
		28.8. A Real-world Example: Chaffinch’s Song
References
Index




نظرات کاربران