دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: 1 نویسندگان: Yuxi (Hayden) Liu سری: ISBN (شابک) : 1838551964, 9781838551964 ناشر: Packt Publishing سال نشر: 2019 تعداد صفحات: 334 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 8 مگابایت
کلمات کلیدی مربوط به کتاب کتاب آشپزی آموزش تقویتی PyTorch 1.x: بیش از 60 دستور العمل برای طراحی، توسعه و استقرار مدلهای هوش مصنوعی خودآموز با استفاده از پایتون: یادگیری ماشینی، یادگیری تقویتی، پایتون، ورزشگاه OpenAI، برنامه نویسی پویا، PyTorch، یادگیری تفاوت زمانی، یادگیری Q، فرآیند تصمیم گیری مارکوف، شبیه سازی مونت کارلو، شبکه های Q عمیق، روش های گرادیان خط مشی
در صورت تبدیل فایل کتاب PyTorch 1.x Reinforcement Learning Cookbook: Over 60 recipes to design, develop, and deploy self-learning AI models using Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب کتاب آشپزی آموزش تقویتی PyTorch 1.x: بیش از 60 دستور العمل برای طراحی، توسعه و استقرار مدلهای هوش مصنوعی خودآموز با استفاده از پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
پیاده سازی تکنیک ها و الگوریتم های یادگیری تقویتی با کمک مثال ها و دستور العمل های واقعی ویژگی های کلیدی • از PyTorch 1.x برای طراحی و ساخت مدل های هوش مصنوعی (AI) خودآموز استفاده کنید • پیاده سازی الگوریتم های RL برای حل چالش های کنترل و بهینه سازی که امروزه دانشمندان داده با آن مواجه هستند • از کتابخانه های مدرن RL برای شبیه سازی یک محیط کنترل شده برای پروژه های خود استفاده کنید توضیحات کتاب یادگیری تقویتی (RL) شاخه ای از یادگیری ماشینی است که در زمان های اخیر محبوبیت پیدا کرده است. این به شما امکان می دهد مدل های هوش مصنوعی را آموزش دهید که از اقدامات خود درس می گیرند و رفتار خود را بهینه می کنند. PyTorch همچنین به دلیل کارایی و سهولت استفاده به عنوان ابزار ترجیحی برای آموزش مدلهای RL ظاهر شده است. با این کتاب، مفاهیم مهم RL و پیاده سازی الگوریتم ها در PyTorch 1.x را بررسی خواهید کرد. دستور العمل های موجود در کتاب، همراه با مثال های دنیای واقعی، به شما کمک می کند تا بر تکنیک های مختلف RL، مانند برنامه نویسی پویا، شبیه سازی مونت کارلو، تفاوت زمانی و یادگیری Q تسلط پیدا کنید. همچنین بینش هایی در مورد کاربردهای خاص صنعت این تکنیک ها به دست خواهید آورد. فصل های بعدی شما را از طریق حل مسائلی مانند مسئله راهزن چند بازویی و مسئله کارتپل با استفاده از الگوریتم راهزن چند بازویی و تقریب تابع راهنمایی می کنند. همچنین یاد خواهید گرفت که چگونه از Deep Q-Networks برای تکمیل بازیهای Atari و همچنین نحوه اجرای مؤثر شیبهای خط مشی استفاده کنید. در نهایت، متوجه خواهید شد که چگونه تکنیکهای RL برای بلک جک، محیطهای Gridworld، تبلیغات اینترنتی و بازی Flappy Bird اعمال میشوند. در پایان این کتاب، مهارتهای مورد نیاز برای پیادهسازی الگوریتمهای محبوب RL و استفاده از تکنیکهای RL برای حل مسائل دنیای واقعی را خواهید داشت. آنچه خواهید آموخت • از Q-learning و الگوریتم state-action-reward-state-action (SARSA) برای حل مسائل مختلف Gridworld استفاده کنید. • یک الگوریتم راهزن چند مسلح برای بهینه سازی تبلیغات نمایشی ایجاد کنید • با استفاده از Deep Q-Networks فرآیندهای یادگیری و کنترل را افزایش دهید • فرآیندهای تصمیم گیری مارکوف، محیط های OpenAI Gym و سایر مشکلات رایج کنترل را شبیه سازی کنید • انتخاب و ساخت مدل های RL، ارزیابی عملکرد آنها، و بهینه سازی و استقرار آنها • از روش های گرادیان خط مشی برای حل مسائل RL پیوسته استفاده کنید این کتاب برای چه کسی است مهندسان یادگیری ماشین، دانشمندان داده و محققان هوش مصنوعی که به دنبال راه حل های سریع برای مشکلات مختلف یادگیری تقویتی هستند، این کتاب را مفید خواهند یافت. اگرچه دانش قبلی در مورد مفاهیم یادگیری ماشین مورد نیاز است، تجربه با PyTorch مفید خواهد بود اما ضروری نیست.
Implement reinforcement learning techniques and algorithms with the help of real-world examples and recipes Key Features • Use PyTorch 1.x to design and build self-learning artificial intelligence (AI) models • Implement RL algorithms to solve control and optimization challenges faced by data scientists today • Apply modern RL libraries to simulate a controlled environment for your projects Book Description Reinforcement learning (RL) is a branch of machine learning that has gained popularity in recent times. It allows you to train AI models that learn from their own actions and optimize their behavior. PyTorch has also emerged as the preferred tool for training RL models because of its efficiency and ease of use. With this book, you'll explore the important RL concepts and the implementation of algorithms in PyTorch 1.x. The recipes in the book, along with real-world examples, will help you master various RL techniques, such as dynamic programming, Monte Carlo simulations, temporal difference, and Q-learning. You'll also gain insights into industry-specific applications of these techniques. Later chapters will guide you through solving problems such as the multi-armed bandit problem and the cartpole problem using the multi-armed bandit algorithm and function approximation. You'll also learn how to use Deep Q-Networks to complete Atari games, along with how to effectively implement policy gradients. Finally, you'll discover how RL techniques are applied to Blackjack, Gridworld environments, internet advertising, and the Flappy Bird game. By the end of this book, you'll have developed the skills you need to implement popular RL algorithms and use RL techniques to solve real-world problems. What you will learn • Use Q-learning and the state–action–reward–state–action (SARSA) algorithm to solve various Gridworld problems • Develop a multi-armed bandit algorithm to optimize display advertising • Scale up learning and control processes using Deep Q-Networks • Simulate Markov Decision Processes, OpenAI Gym environments, and other common control problems • Select and build RL models, evaluate their performance, and optimize and deploy them • Use policy gradient methods to solve continuous RL problems Who this book is for Machine learning engineers, data scientists and AI researchers looking for quick solutions to different reinforcement learning problems will find this book useful. Although prior knowledge of machine learning concepts is required, experience with PyTorch will be useful but not necessary.
Cover Title Page Copyright and Credits About Packt Contributors Table of Contents Preface Chapter 1: Getting Started with Reinforcement Learning and PyTorch Setting up the working environment How to do it... How it works... There's more... See also Installing OpenAI Gym How to do it... How it works... There's more... See also Simulating Atari environments How to do it... How it works... There's more... See also Simulating the CartPole environment How to do it... How it works... There's more... Reviewing the fundamentals of PyTorch How to do it... There's more... See also Implementing and evaluating a random search policy How to do it... How it works... There's more... Developing the hill-climbing algorithm How to do it... How it works... There's more... See also Developing a policy gradient algorithm How to do it... How it works... There's more... See also Chapter 2: Markov Decision Processes and Dynamic Programming Technical requirements Creating a Markov chain How to do it... How it works... There's more... See also Creating an MDP How to do it... How it works... There's more... See also Performing policy evaluation How to do it... How it works... There's more... Simulating the FrozenLake environment Getting ready How to do it... How it works... There's more... Solving an MDP with a value iteration algorithm How to do it... How it works... There's more... Solving an MDP with a policy iteration algorithm How to do it... How it works... There's more... See also Solving the coin-flipping gamble problem How to do it... How it works... There's more... Chapter 3: Monte Carlo Methods for Making Numerical Estimations Calculating Pi using the Monte Carlo method How to do it... How it works... There's more... See also Performing Monte Carlo policy evaluation How to do it... How it works... There's more... Playing Blackjack with Monte Carlo prediction How to do it... How it works... There's more... See also Performing on-policy Monte Carlo control How to do it... How it works... There's more... Developing MC control with epsilon-greedy policy How to do it... How it works... Performing off-policy Monte Carlo control How to do it... How it works... There's more... See also Developing MC control with weighted importance sampling How to do it... How it works... There's more... See also Chapter 4: Temporal Difference and Q-Learning Setting up the Cliff Walking environment playground Getting ready How to do it... How it works... Developing the Q-learning algorithm How to do it... How it works... There's more... Setting up the Windy Gridworld environment playground How to do it... How it works... Developing the SARSA algorithm How to do it... How it works... There's more... Solving the Taxi problem with Q-learning Getting ready How to do it... How it works... Solving the Taxi problem with SARSA How to do it... How it works... There's more... Developing the Double Q-learning algorithm How to do it... How it works... See also Chapter 5: Solving Multi-armed Bandit Problems Creating a multi-armed bandit environment How to do it... How it works... Solving multi-armed bandit problems with the epsilon-greedy policy How to do it... How it works... There's more... Solving multi-armed bandit problems with the softmax exploration How to do it... How it works... Solving multi-armed bandit problems with the upper confidence bound algorithm How to do it... How it works... There's more... See also Solving internet advertising problems with a multi-armed bandit How to do it... How it works... Solving multi-armed bandit problems with the Thompson sampling algorithm How to do it... How it works... See also Solving internet advertising problems with contextual bandits How to do it... How it works... Chapter 6: Scaling Up Learning with Function Approximation Setting up the Mountain Car environment playground Getting ready How to do it... How it works... Estimating Q-functions with gradient descent approximation How to do it... How it works... See also Developing Q-learning with linear function approximation How to do it... How it works... Developing SARSA with linear function approximation How to do it... How it works... Incorporating batching using experience replay How to do it... How it works... Developing Q-learning with neural network function approximation How to do it... How it works... See also Solving the CartPole problem with function approximation How to do it... How it works... Chapter 7: Deep Q-Networks in Action Developing deep Q-networks How to do it... How it works... See also Improving DQNs with experience replay How to do it... How it works... Developing double deep Q-Networks How to do it... How it works... Tuning double DQN hyperparameters for CartPole How to do it... How it works... Developing Dueling deep Q-Networks How to do it... How it works... Applying Deep Q-Networks to Atari games How to do it... How it works... Using convolutional neural networks for Atari games How to do it... How it works... See also Chapter 8: Implementing Policy Gradients and Policy Optimization Implementing the REINFORCE algorithm How to do it... How it works... See also Developing the REINFORCE algorithm with baseline How to do it... How it works... Implementing the actor-critic algorithm How to do it... How it works... Solving Cliff Walking with the actor-critic algorithm How to do it... How it works... Setting up the continuous Mountain Car environment How to do it... How it works... Solving the continuous Mountain Car environment with the advantage actor-critic network How to do it... How it works... There's more... See also Playing CartPole through the cross-entropy method How to do it... How it works... Chapter 9: Capstone Project – Playing Flappy Bird with DQN Setting up the game environment Getting ready How to do it... How it works... Building a Deep Q-Network to play Flappy Bird How to do it... How it works... Training and tuning the network How to do it... How it works... Deploying the model and playing the game How to do it... How it works... Other Books You May Enjoy Index