ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Deep Reinforcement Learning in Action

دانلود کتاب تقویت عمیق در عمل

Deep Reinforcement Learning in Action

مشخصات کتاب

Deep Reinforcement Learning in Action

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1617295434, 9781617295430 
ناشر: Manning Publications 
سال نشر: 2020 
تعداد صفحات: 383 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 17 مگابایت 

قیمت کتاب (تومان) : 37,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Deep Reinforcement Learning in Action به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تقویت عمیق در عمل نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تقویت عمیق در عمل

انسان‌ها از بازخورد بهترین چیز را یاد می‌گیرند - ما تشویق می‌شویم اقداماتی انجام دهیم که منجر به نتایج مثبت شود، در حالی که با تصمیم‌هایی با پیامدهای منفی منصرف می‌شویم. این فرآیند تقویتی را می توان برای برنامه های کامپیوتری اعمال کرد و به آنها اجازه می دهد تا مسائل پیچیده تری را حل کنند که برنامه نویسی کلاسیک نمی تواند. Deep Reinforcement Learning در عمل، مفاهیم اساسی و اصطلاحات یادگیری تقویتی عمیق را به همراه مهارت ها و تکنیک های عملی که برای پیاده سازی آن در پروژه های خود نیاز دارید، به شما می آموزد. ویژگی های کلیدی * ساختار مشکلات به عنوان فرآیندهای تصمیم گیری مارکوف * الگوریتم های محبوب مانند Deep Q-Networks، روش گرادیان خط مشی و الگوریتم های تکاملی و شهودی که آنها را هدایت می کند * استفاده از الگوریتم های یادگیری تقویتی برای مشکلات دنیای واقعی مخاطب شما به مهارت های پایتون و پایتون نیاز دارید. درک اولیه یادگیری عمیق درباره فناوری یادگیری تقویتی عمیق شکلی از یادگیری ماشینی است که در آن عوامل هوش مصنوعی رفتار بهینه را از ورودی حسی خام خود می آموزند. سیستم محیط را درک می کند، نتایج تصمیمات گذشته خود را تفسیر می کند و از این اطلاعات برای بهینه سازی رفتار خود برای حداکثر بازده طولانی مدت استفاده می کند. یادگیری تقویتی عمیق به موفقیت AlphaGo کمک کرد، اما این تنها کاری نیست که می تواند انجام دهد! الکساندر زی یک مهندس یادگیری ماشین در آمازون AI است که روی MXNet کار می کند که مجموعه ای از محصولات یادگیری ماشینی AWS را تامین می کند. براندون براون یک وبلاگ نویس یادگیری ماشین و تجزیه و تحلیل داده در outlace.com است که متعهد به ارائه آموزش واضح در مورد موضوعات دشوار برای تازه واردان است.


توضیحاتی درمورد کتاب به خارجی

Humans learn best from feedback-we are encouraged to take actions that lead to positive results while deterred by decisions with negative consequences. This reinforcement process can be applied to computer programs allowing them to solve more complex problems that classical programming cannot. Deep Reinforcement Learning in Action teaches you the fundamental concepts and terminology of deep reinforcement learning, along with the practical skills and techniques you'll need to implement it into your own projects. Key features * Structuring problems as Markov Decision Processes * Popular algorithms such Deep Q-Networks, Policy Gradient method and Evolutionary Algorithms and the intuitions that drive them * Applying reinforcement learning algorithms to real-world problems Audience You'll need intermediate Python skills and a basic understanding of deep learning. About the technology Deep reinforcement learning is a form of machine learning in which AI agents learn optimal behavior from their own raw sensory input. The system perceives the environment, interprets the results of its past decisions, and uses this information to optimize its behavior for maximum long-term return. Deep reinforcement learning famously contributed to the success of AlphaGo but that's not all it can do! Alexander Zai is a Machine Learning Engineer at Amazon AI working on MXNet that powers a suite of AWS machine learning products. Brandon Brown is a Machine Learning and Data Analysis blogger at outlace.com committed to providing clear teaching on difficult topics for newcomers.



فهرست مطالب

brief contents
contents
preface
acknowledgments
about this book
	Who should read this book
	How this book is organized: A roadmap
	About the code
	liveBook discussion forum
about the authors
about the cover illustration
Part 1—Foundations
	1 What is reinforcement learning?
		1.1 The “deep” in deep reinforcement learning
		1.2 Reinforcement learning
		1.3 Dynamic programming versus Monte Carlo
		1.4 The reinforcement learning framework
		1.5 What can I do with reinforcement learning?
		1.6 Why deep reinforcement learning?
		1.7 Our didactic tool: String diagrams
		1.8 What’s next?
		Summary
	2 Modeling reinforcement learning problems: Markov decision processes
		2.1 String diagrams and our teaching methods
		2.2 Solving the multi-arm bandit
			2.2.1 Exploration and exploitation
			2.2.2 Epsilon-greedy strategy
			2.2.3 Softmax selection policy
		2.3 Applying bandits to optimize ad placements
			2.3.1 Contextual bandits
			2.3.2 States, actions, rewards
		2.4 Building networks with PyTorch
			2.4.1 Automatic differentiation
			2.4.2 Building Models
		2.5 Solving contextual bandits
		2.6 The Markov property
		2.7 Predicting future rewards: Value and policy functions
			2.7.1 Policy functions
			2.7.2 Optimal policy
			2.7.3 Value functions
		Summary
	3 Predicting the best states and actions: Deep Q-networks
		3.1 The Q function
		3.2 Navigating with Q-learning
			3.2.1 What is Q-learning?
			3.2.2 Tackling Gridworld
			3.2.3 Hyperparameters
			3.2.4 Discount factor
			3.2.5 Building the network
			3.2.6 Introducing the Gridworld game engine
			3.2.7 A neural network as the Q function
		3.3 Preventing catastrophic forgetting: Experience replay
			3.3.1 Catastrophic forgetting
			3.3.2 Experience replay
		3.4 Improving stability with a target network
			3.4.1 Learning instability
		3.5 Review
		Summary
	4 Learning to pick the best policy: Policy gradient methods
		4.1 Policy function using neural networks
			4.1.1 Neural network as the policy function
			4.1.2 Stochastic policy gradient
			4.1.3 Exploration
		4.2 Reinforcing good actions: The policy gradient algorithm
			4.2.1 Defining an objective
			4.2.2 Action reinforcement
			4.2.3 Log probability
			4.2.4 Credit assignment
		4.3 Working with OpenAI Gym
			4.3.1 CartPole
			4.3.2 The OpenAI Gym API
		4.4 The REINFORCE algorithm
			4.4.1 Creating the policy network
			4.4.2 Having the agent interact with the environment
			4.4.3 Training the model
			4.4.4 The full training loop
			4.4.5 Chapter conclusion
		Summary
	5 Tackling more complex problems with actor-critic methods
		5.1 Combining the value and policy function
		5.2 Distributed training
		5.3 Advantage actor-critic
		5.4 N-step actor-critic
		Summary
Part 2—Above and beyond
	6 Alternative optimization methods: Evolutionary algorithms
		6.1 A different approach to reinforcement learning
		6.2 Reinforcement learning with evolution strategies
			6.2.1 Evolution in theory
			6.2.2 Evolution in practice
		6.3 A genetic algorithm for CartPole
		6.4 Pros and cons of evolutionary algorithms
			6.4.1 Evolutionary algorithms explore more
			6.4.2 Evolutionary algorithms are incredibly sample intensive
			6.4.3 Simulators
		6.5 Evolutionary algorithms as a scalable alternative
			6.5.1 Scaling evolutionary algorithms
			6.5.2 Parallel vs. serial processing
			6.5.3 Scaling efficiency
			6.5.4 Communicating between nodes
			6.5.5 Scaling linearly
			6.5.6 Scaling gradient-based approaches
		Summary
	7 Distributional DQN: Getting the full story
		7.1 What’s wrong with Q-learning?
		7.2 Probability and statistics revisited
			7.2.1 Priors and posteriors
			7.2.2 Expectation and variance
		7.3 The Bellman equation
			7.3.1 The distributional Bellman equation
		7.4 Distributional Q-learning
			7.4.1 Representing a probability distribution in Python
			7.4.2 Implementing the Dist-DQN
		7.5 Comparing probability distributions
		7.6 Dist-DQN on simulated data
		7.7 Using distributional Q-learning to play Freeway
		Summary
	8 Curiosity-driven exploration
		8.1 Tackling sparse rewards with predictive coding
		8.2 Inverse dynamics prediction
		8.3 Setting up Super Mario Bros.
		8.4 Preprocessing and the Q-network
		8.5 Setting up the Q-network and policy function
		8.6 Intrinsic curiosity module
		8.7 Alternative intrinsic reward mechanisms
		Summary
	9 Multi-agent reinforcement learning
		9.1 From one to many agents
		9.2 Neighborhood Q-learning
		9.3 The 1D Ising model
		9.4 Mean field Q-learning and the 2D Ising model
		9.5 Mixed cooperative-competitive games
		Summary
	10 Interpretable reinforcement learning: Attention and relational models
		10.1 Machine learning interpretability with attention and relational biases
			10.1.1 Invariance and equivariance
		10.2 Relational reasoning with attention
			10.2.1 Attention models
			10.2.2 Relational reasoning
			10.2.3 Self-attention models
		10.3 Implementing self-attention for MNIST
			10.3.1 Transformed MNIST
			10.3.2 The relational module
			10.3.3 Tensor contractions and Einstein notation
			10.3.4 Training the relational module
		10.4 Multi-head attention and relational DQN
		10.5 Double Q-learning
		10.6 Training and attention visualization
			10.6.1 Maximum entropy learning
			10.6.2 Curriculum learning
			10.6.3 Visualizing attention weights
		Summary
	11 In conclusion: A review and roadmap
		11.1 What did we learn?
		11.2 The uncharted topics in deep reinforcement learning
			11.2.1 Prioritized experience replay
			11.2.2 Proximal policy optimization (PPO)
			11.2.3 Hierarchical reinforcement learning and the options framework
			11.2.4 Model-based planning
			11.2.5 Monte Carlo tree search (MCTS)
		11.3 The end
Appendix—Mathematics, deep learning, PyTorch
	A.1 Linear algebra
	A.2 Calculus
	A.3 Deep learning
	A.4 PyTorch
Reference list
index
	Symbols
	Numerics
	A
	B
	C
	D
	E
	F
	G
	H
	I
	J
	K
	L
	M
	N
	O
	P
	Q
	R
	S
	T
	U
	V
	W
	X
	Y




نظرات کاربران