ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Probabilistic Deep Learning with Python

دانلود کتاب یادگیری عمیق احتمالی با پایتون

Probabilistic Deep Learning with Python

مشخصات کتاب

Probabilistic Deep Learning with Python

ویرایش: [1 ed.] 
نویسندگان: , ,   
سری:  
ISBN (شابک) : 1617296074, 9781617296079 
ناشر: Manning Publications 
سال نشر: 2020 
تعداد صفحات: [297] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 19 Mb 

قیمت کتاب (تومان) : 37,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 4


در صورت تبدیل فایل کتاب Probabilistic Deep Learning with Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری عمیق احتمالی با پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری عمیق احتمالی با پایتون

یادگیری عمیق احتمالی: با Python، Keras و TensorFlow Probability رویکرد احتمالی رو به افزایش محبوبیت یادگیری عمیق را آموزش می‌دهد که به شما امکان می‌دهد نتایج خود را با سرعت و دقت بیشتری بدون آزمایش و خطای زیاد اصلاح کنید. با تأکید بر تکنیک‌های عملی که از چارچوب احتمالی Tensorflow مبتنی بر پایتون استفاده می‌کنند، یاد می‌گیرید که برنامه‌های یادگیری عمیق با کارایی بالا بسازید که می‌توانند به طور قابل اعتمادی نویز و عدم قطعیت داده‌های دنیای واقعی را مدیریت کنند. در مورد تکنولوژی دنیا مکانی پر سر و صدا و نامطمئن است. مدل‌های یادگیری عمیق احتمالی این نویز و عدم قطعیت را ضبط می‌کنند و آن را به سناریوهای دنیای واقعی می‌کشند. این تکنیک‌ها برای ماشین‌های خودران و آزمایش‌های علمی بسیار مهم هستند، این تکنیک‌ها به مهندسان یادگیری عمیق کمک می‌کنند تا دقت نتایج خود را ارزیابی کنند، خطاها را شناسایی کنند و درک خود را از نحوه کار الگوریتم‌ها بهبود بخشند. درباره کتاب یادگیری عمیق احتمالی یک راهنمای عملی برای اصولی است که از شبکه های عصبی پشتیبانی می کند. یاد بگیرید که عملکرد شبکه را با توزیع مناسب برای انواع داده های مختلف بهبود بخشید، و انواع بیزی را کشف کنید که می توانند عدم قطعیت خود را برای افزایش دقت بیان کنند. این کتاب کدهایی با کاربرد آسان ارائه می‌کند و از چارچوب‌های محبوب برای تمرکز شما بر روی برنامه‌های کاربردی استفاده می‌کند.


توضیحاتی درمورد کتاب به خارجی

Probabilistic Deep Learning: With Python, Keras and TensorFlow Probability teaches the increasingly popular probabilistic approach to deep learning that allows you to refine your results more quickly and accurately without much trial-and-error testing. Emphasizing practical techniques that use the Python-based Tensorflow Probability Framework, you’ll learn to build highly-performant deep learning applications that can reliably handle the noise and uncertainty of real-world data. About the technology The world is a noisy and uncertain place. Probabilistic deep learning models capture that noise and uncertainty, pulling it into real-world scenarios. Crucial for self-driving cars and scientific testing, these techniques help deep learning engineers assess the accuracy of their results, spot errors, and improve their understanding of how algorithms work. About the book Probabilistic Deep Learning is a hands-on guide to the principles that support neural networks. Learn to improve network performance with the right distribution for different data types, and discover Bayesian variants that can state their own uncertainty to increase accuracy. This book provides easy-to-apply code and uses popular frameworks to keep you focused on practical applications.



فهرست مطالب

Probabilistic Deep Learning
brief contents
contents
preface
acknowledgments
about this book
	Who should read this book
	How this book is organized: A roadmap
	About the code
	liveBook discussion forum
about the authors
about the cover illustration
Part 1—Basics of deep learning
	1 Introduction to probabilistic deep learning
		1.1 A first look at probabilistic models
		1.2 A first brief look at deep learning (DL)
			1.2.1 A success story
		1.3 Classification
			1.3.1 Traditional approach to image classification
			1.3.2 Deep learning approach to image classification
			1.3.3 Non-probabilistic classification
			1.3.4 Probabilistic classification
			1.3.5 Bayesian probabilistic classification
		1.4 Curve fitting
			1.4.1 Non-probabilistic curve fitting
			1.4.2 Probabilistic curve fitting
			1.4.3 Bayesian probabilistic curve fitting
		1.5 When to use and when not to use DL?
			1.5.1 When not to use DL
			1.5.2 When to use DL
			1.5.3 When to use and when not to use probabilistic models?
		1.6 What you’ll learn in this book
		Summary
	2 Neural network architectures
		2.1 Fully connected neural networks (fcNNs)
			2.1.1 The biology that inspired the design of artificial NNs
			2.1.2 Getting started with implementing an NN
			2.1.3 Using a fully connected NN (fcNN) to classify images
		2.2 Convolutional NNs for image-like data
			2.2.1 Main ideas in a CNN architecture
			2.2.2 A minimal CNN for edge lovers
			2.2.3 Biological inspiration for a CNN architecture
			2.2.4 Building and understanding a CNN
		2.3 One-dimensional CNNs for ordered data
			2.3.1 Format of time-ordered data
			2.3.2 What’s special about ordered data?
			2.3.3 Architectures for time-ordered data
		Summary
	3 Principles of curve fitting
		3.1 “Hello world” in curve fitting
			3.1.1 Fitting a linear regression model based on a loss function
		3.2 Gradient descent method
			3.2.1 Loss with one free model parameter
			3.2.2 Loss with two free model parameters
		3.3 Special DL sauce
			3.3.1 Mini-batch gradient descent
			3.3.2 Using SGD variants to speed up the learning
			3.3.3 Automatic differentiation
		3.4 Backpropagation in DL frameworks
			3.4.1 Static graph frameworks
			3.4.2 Dynamic graph frameworks
		Summary
Part 2—Maximum likelihood approaches for probabilistic DL models
	4 Building loss functions with the likelihood approach
		4.1 Introduction to the MaxLike principle: The mother of all loss functions
		4.2 Deriving a loss function for a classification problem
			4.2.1 Binary classification problem
			4.2.2 Classification problems with more than two classes
			4.2.3 Relationship between NLL, cross entropy, and Kullback-Leibler divergence
		4.3 Deriving a loss function for regression problems
			4.3.1 Using a NN without hidden layers and one output neuron for modeling a linear relationship between input and output
			4.3.2 Using a NN with hidden layers to model non-linear relationships between input and output
			4.3.3 Using an NN with additional output for regression tasks with nonconstant variance
		Summary
	5 Probabilistic deep learning models with TensorFlow Probability
		5.1 Evaluating and comparing different probabilistic prediction models
		5.2 Introducing TensorFlow Probability (TFP)
		5.3 Modeling continuous data with TFP
			5.3.1 Fitting and evaluating a linear regression model with constant variance
			5.3.2 Fitting and evaluating a linear regression model with a nonconstant standard deviation
		5.4 Modeling count data with TensorFlow Probability
			5.4.1 The Poisson distribution for count data
			5.4.2 Extending the Poisson distribution to a zero-inflated Poisson (ZIP) distribution
		Summary
	6 Probabilistic deep learning models in the wild
		6.1 Flexible probability distributions in state-of-the-art DL models
			6.1.1 Multinomial distribution as a flexible distribution
			6.1.2 Making sense of discretized logistic mixture
		6.2 Case study: Bavarian roadkills
		6.3 Go with the flow: Introduction to normalizing flows (NFs)
			6.3.1 The principle idea of NFs
			6.3.2 The change of variable technique for probabilities
			6.3.3 Fitting an NF to data
			6.3.4 Going deeper by chaining flows
			6.3.5 Transformation between higher dimensional spaces*
			6.3.6 Using networks to control flows
			6.3.7 Fun with flows: Sampling faces
		Summary
Part 3—Bayesian approaches for probabilistic DL models
	7 Bayesian learning
		7.1 What’s wrong with non-Bayesian DL: The elephant in the room
		7.2 The first encounter with a Bayesian approach
			7.2.1 Bayesian model: The hacker’s way
			7.2.2 What did we just do?
		7.3 The Bayesian approach for probabilistic models
			7.3.1 Training and prediction with a Bayesian model
			7.3.2 A coin toss as a Hello World example for Bayesian models
			7.3.3 Revisiting the Bayesian linear regression model
		Summary
	8 Bayesian neural networks
		8.1 Bayesian neural networks (BNNs)
		8.2 Variational inference (VI) as an approximative Bayes approach
			8.2.1 Looking under the hood of VI*
			8.2.2 Applying VI to the toy problem*
		8.3 Variational inference with TensorFlow Probability
		8.4 MC dropout as an approximate Bayes approach
			8.4.1 Classical dropout used during training
			8.4.2 MC dropout used during train and test times
		8.5 Case studies
			8.5.1 Regression case study on extrapolation
			8.5.2 Classification case study with novel classes
		Summary
Glossary of terms and abbreviations
index
	Numerics
	A
	B
	C
	D
	E
	F
	G
	H
	I
	J
	K
	L
	M
	N
	O
	P
	Q
	R
	S
	T
	U
	V
	W
	Z




نظرات کاربران