دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Alexander Zai. Brandon Brown
سری:
ISBN (شابک) : 1617295434, 9781617295430
ناشر: Manning Publications
سال نشر: 2020
تعداد صفحات: 383
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 17 مگابایت
در صورت تبدیل فایل کتاب Deep Reinforcement Learning in Action به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تقویت عمیق در عمل نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
انسانها از بازخورد بهترین چیز را یاد میگیرند - ما تشویق میشویم اقداماتی انجام دهیم که منجر به نتایج مثبت شود، در حالی که با تصمیمهایی با پیامدهای منفی منصرف میشویم. این فرآیند تقویتی را می توان برای برنامه های کامپیوتری اعمال کرد و به آنها اجازه می دهد تا مسائل پیچیده تری را حل کنند که برنامه نویسی کلاسیک نمی تواند. Deep Reinforcement Learning در عمل، مفاهیم اساسی و اصطلاحات یادگیری تقویتی عمیق را به همراه مهارت ها و تکنیک های عملی که برای پیاده سازی آن در پروژه های خود نیاز دارید، به شما می آموزد. ویژگی های کلیدی * ساختار مشکلات به عنوان فرآیندهای تصمیم گیری مارکوف * الگوریتم های محبوب مانند Deep Q-Networks، روش گرادیان خط مشی و الگوریتم های تکاملی و شهودی که آنها را هدایت می کند * استفاده از الگوریتم های یادگیری تقویتی برای مشکلات دنیای واقعی مخاطب شما به مهارت های پایتون و پایتون نیاز دارید. درک اولیه یادگیری عمیق درباره فناوری یادگیری تقویتی عمیق شکلی از یادگیری ماشینی است که در آن عوامل هوش مصنوعی رفتار بهینه را از ورودی حسی خام خود می آموزند. سیستم محیط را درک می کند، نتایج تصمیمات گذشته خود را تفسیر می کند و از این اطلاعات برای بهینه سازی رفتار خود برای حداکثر بازده طولانی مدت استفاده می کند. یادگیری تقویتی عمیق به موفقیت AlphaGo کمک کرد، اما این تنها کاری نیست که می تواند انجام دهد! الکساندر زی یک مهندس یادگیری ماشین در آمازون AI است که روی MXNet کار می کند که مجموعه ای از محصولات یادگیری ماشینی AWS را تامین می کند. براندون براون یک وبلاگ نویس یادگیری ماشین و تجزیه و تحلیل داده در outlace.com است که متعهد به ارائه آموزش واضح در مورد موضوعات دشوار برای تازه واردان است.
Humans learn best from feedback-we are encouraged to take actions that lead to positive results while deterred by decisions with negative consequences. This reinforcement process can be applied to computer programs allowing them to solve more complex problems that classical programming cannot. Deep Reinforcement Learning in Action teaches you the fundamental concepts and terminology of deep reinforcement learning, along with the practical skills and techniques you'll need to implement it into your own projects. Key features * Structuring problems as Markov Decision Processes * Popular algorithms such Deep Q-Networks, Policy Gradient method and Evolutionary Algorithms and the intuitions that drive them * Applying reinforcement learning algorithms to real-world problems Audience You'll need intermediate Python skills and a basic understanding of deep learning. About the technology Deep reinforcement learning is a form of machine learning in which AI agents learn optimal behavior from their own raw sensory input. The system perceives the environment, interprets the results of its past decisions, and uses this information to optimize its behavior for maximum long-term return. Deep reinforcement learning famously contributed to the success of AlphaGo but that's not all it can do! Alexander Zai is a Machine Learning Engineer at Amazon AI working on MXNet that powers a suite of AWS machine learning products. Brandon Brown is a Machine Learning and Data Analysis blogger at outlace.com committed to providing clear teaching on difficult topics for newcomers.
brief contents contents preface acknowledgments about this book Who should read this book How this book is organized: A roadmap About the code liveBook discussion forum about the authors about the cover illustration Part 1—Foundations 1 What is reinforcement learning? 1.1 The “deep” in deep reinforcement learning 1.2 Reinforcement learning 1.3 Dynamic programming versus Monte Carlo 1.4 The reinforcement learning framework 1.5 What can I do with reinforcement learning? 1.6 Why deep reinforcement learning? 1.7 Our didactic tool: String diagrams 1.8 What’s next? Summary 2 Modeling reinforcement learning problems: Markov decision processes 2.1 String diagrams and our teaching methods 2.2 Solving the multi-arm bandit 2.2.1 Exploration and exploitation 2.2.2 Epsilon-greedy strategy 2.2.3 Softmax selection policy 2.3 Applying bandits to optimize ad placements 2.3.1 Contextual bandits 2.3.2 States, actions, rewards 2.4 Building networks with PyTorch 2.4.1 Automatic differentiation 2.4.2 Building Models 2.5 Solving contextual bandits 2.6 The Markov property 2.7 Predicting future rewards: Value and policy functions 2.7.1 Policy functions 2.7.2 Optimal policy 2.7.3 Value functions Summary 3 Predicting the best states and actions: Deep Q-networks 3.1 The Q function 3.2 Navigating with Q-learning 3.2.1 What is Q-learning? 3.2.2 Tackling Gridworld 3.2.3 Hyperparameters 3.2.4 Discount factor 3.2.5 Building the network 3.2.6 Introducing the Gridworld game engine 3.2.7 A neural network as the Q function 3.3 Preventing catastrophic forgetting: Experience replay 3.3.1 Catastrophic forgetting 3.3.2 Experience replay 3.4 Improving stability with a target network 3.4.1 Learning instability 3.5 Review Summary 4 Learning to pick the best policy: Policy gradient methods 4.1 Policy function using neural networks 4.1.1 Neural network as the policy function 4.1.2 Stochastic policy gradient 4.1.3 Exploration 4.2 Reinforcing good actions: The policy gradient algorithm 4.2.1 Defining an objective 4.2.2 Action reinforcement 4.2.3 Log probability 4.2.4 Credit assignment 4.3 Working with OpenAI Gym 4.3.1 CartPole 4.3.2 The OpenAI Gym API 4.4 The REINFORCE algorithm 4.4.1 Creating the policy network 4.4.2 Having the agent interact with the environment 4.4.3 Training the model 4.4.4 The full training loop 4.4.5 Chapter conclusion Summary 5 Tackling more complex problems with actor-critic methods 5.1 Combining the value and policy function 5.2 Distributed training 5.3 Advantage actor-critic 5.4 N-step actor-critic Summary Part 2—Above and beyond 6 Alternative optimization methods: Evolutionary algorithms 6.1 A different approach to reinforcement learning 6.2 Reinforcement learning with evolution strategies 6.2.1 Evolution in theory 6.2.2 Evolution in practice 6.3 A genetic algorithm for CartPole 6.4 Pros and cons of evolutionary algorithms 6.4.1 Evolutionary algorithms explore more 6.4.2 Evolutionary algorithms are incredibly sample intensive 6.4.3 Simulators 6.5 Evolutionary algorithms as a scalable alternative 6.5.1 Scaling evolutionary algorithms 6.5.2 Parallel vs. serial processing 6.5.3 Scaling efficiency 6.5.4 Communicating between nodes 6.5.5 Scaling linearly 6.5.6 Scaling gradient-based approaches Summary 7 Distributional DQN: Getting the full story 7.1 What’s wrong with Q-learning? 7.2 Probability and statistics revisited 7.2.1 Priors and posteriors 7.2.2 Expectation and variance 7.3 The Bellman equation 7.3.1 The distributional Bellman equation 7.4 Distributional Q-learning 7.4.1 Representing a probability distribution in Python 7.4.2 Implementing the Dist-DQN 7.5 Comparing probability distributions 7.6 Dist-DQN on simulated data 7.7 Using distributional Q-learning to play Freeway Summary 8 Curiosity-driven exploration 8.1 Tackling sparse rewards with predictive coding 8.2 Inverse dynamics prediction 8.3 Setting up Super Mario Bros. 8.4 Preprocessing and the Q-network 8.5 Setting up the Q-network and policy function 8.6 Intrinsic curiosity module 8.7 Alternative intrinsic reward mechanisms Summary 9 Multi-agent reinforcement learning 9.1 From one to many agents 9.2 Neighborhood Q-learning 9.3 The 1D Ising model 9.4 Mean field Q-learning and the 2D Ising model 9.5 Mixed cooperative-competitive games Summary 10 Interpretable reinforcement learning: Attention and relational models 10.1 Machine learning interpretability with attention and relational biases 10.1.1 Invariance and equivariance 10.2 Relational reasoning with attention 10.2.1 Attention models 10.2.2 Relational reasoning 10.2.3 Self-attention models 10.3 Implementing self-attention for MNIST 10.3.1 Transformed MNIST 10.3.2 The relational module 10.3.3 Tensor contractions and Einstein notation 10.3.4 Training the relational module 10.4 Multi-head attention and relational DQN 10.5 Double Q-learning 10.6 Training and attention visualization 10.6.1 Maximum entropy learning 10.6.2 Curriculum learning 10.6.3 Visualizing attention weights Summary 11 In conclusion: A review and roadmap 11.1 What did we learn? 11.2 The uncharted topics in deep reinforcement learning 11.2.1 Prioritized experience replay 11.2.2 Proximal policy optimization (PPO) 11.2.3 Hierarchical reinforcement learning and the options framework 11.2.4 Model-based planning 11.2.5 Monte Carlo tree search (MCTS) 11.3 The end Appendix—Mathematics, deep learning, PyTorch A.1 Linear algebra A.2 Calculus A.3 Deep learning A.4 PyTorch Reference list index Symbols Numerics A B C D E F G H I J K L M N O P Q R S T U V W X Y