ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب PyTorch 1.x Reinforcement Learning Cookbook: Over 60 recipes to design, develop, and deploy self-learning AI models using Python

دانلود کتاب کتاب آشپزی آموزش تقویتی PyTorch 1.x: بیش از 60 دستور العمل برای طراحی، توسعه و استقرار مدل‌های هوش مصنوعی خودآموز با استفاده از پایتون

PyTorch 1.x Reinforcement Learning Cookbook: Over 60 recipes to design, develop, and deploy self-learning AI models using Python

مشخصات کتاب

PyTorch 1.x Reinforcement Learning Cookbook: Over 60 recipes to design, develop, and deploy self-learning AI models using Python

دسته بندی: سایبرنتیک: هوش مصنوعی
ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 1838551964, 9781838551964 
ناشر: Packt Publishing 
سال نشر: 2019 
تعداد صفحات: 334 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 8 مگابایت 

قیمت کتاب (تومان) : 39,000



کلمات کلیدی مربوط به کتاب کتاب آشپزی آموزش تقویتی PyTorch 1.x: بیش از 60 دستور العمل برای طراحی، توسعه و استقرار مدل‌های هوش مصنوعی خودآموز با استفاده از پایتون: یادگیری ماشینی، یادگیری تقویتی، پایتون، ورزشگاه OpenAI، برنامه نویسی پویا، PyTorch، یادگیری تفاوت زمانی، یادگیری Q، فرآیند تصمیم گیری مارکوف، شبیه سازی مونت کارلو، شبکه های Q عمیق، روش های گرادیان خط مشی



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب PyTorch 1.x Reinforcement Learning Cookbook: Over 60 recipes to design, develop, and deploy self-learning AI models using Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب کتاب آشپزی آموزش تقویتی PyTorch 1.x: بیش از 60 دستور العمل برای طراحی، توسعه و استقرار مدل‌های هوش مصنوعی خودآموز با استفاده از پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب کتاب آشپزی آموزش تقویتی PyTorch 1.x: بیش از 60 دستور العمل برای طراحی، توسعه و استقرار مدل‌های هوش مصنوعی خودآموز با استفاده از پایتون

پیاده سازی تکنیک ها و الگوریتم های یادگیری تقویتی با کمک مثال ها و دستور العمل های واقعی ویژگی های کلیدی • از PyTorch 1.x برای طراحی و ساخت مدل های هوش مصنوعی (AI) خودآموز استفاده کنید • پیاده سازی الگوریتم های RL برای حل چالش های کنترل و بهینه سازی که امروزه دانشمندان داده با آن مواجه هستند • از کتابخانه های مدرن RL برای شبیه سازی یک محیط کنترل شده برای پروژه های خود استفاده کنید توضیحات کتاب یادگیری تقویتی (RL) شاخه ای از یادگیری ماشینی است که در زمان های اخیر محبوبیت پیدا کرده است. این به شما امکان می دهد مدل های هوش مصنوعی را آموزش دهید که از اقدامات خود درس می گیرند و رفتار خود را بهینه می کنند. PyTorch همچنین به دلیل کارایی و سهولت استفاده به عنوان ابزار ترجیحی برای آموزش مدل‌های RL ظاهر شده است. با این کتاب، مفاهیم مهم RL و پیاده سازی الگوریتم ها در PyTorch 1.x را بررسی خواهید کرد. دستور العمل های موجود در کتاب، همراه با مثال های دنیای واقعی، به شما کمک می کند تا بر تکنیک های مختلف RL، مانند برنامه نویسی پویا، شبیه سازی مونت کارلو، تفاوت زمانی و یادگیری Q تسلط پیدا کنید. همچنین بینش هایی در مورد کاربردهای خاص صنعت این تکنیک ها به دست خواهید آورد. فصل های بعدی شما را از طریق حل مسائلی مانند مسئله راهزن چند بازویی و مسئله کارتپل با استفاده از الگوریتم راهزن چند بازویی و تقریب تابع راهنمایی می کنند. همچنین یاد خواهید گرفت که چگونه از Deep Q-Networks برای تکمیل بازی‌های Atari و همچنین نحوه اجرای مؤثر شیب‌های خط مشی استفاده کنید. در نهایت، متوجه خواهید شد که چگونه تکنیک‌های RL برای بلک جک، محیط‌های Gridworld، تبلیغات اینترنتی و بازی Flappy Bird اعمال می‌شوند. در پایان این کتاب، مهارت‌های مورد نیاز برای پیاده‌سازی الگوریتم‌های محبوب RL و استفاده از تکنیک‌های RL برای حل مسائل دنیای واقعی را خواهید داشت. آنچه خواهید آموخت • از Q-learning و الگوریتم state-action-reward-state-action (SARSA) برای حل مسائل مختلف Gridworld استفاده کنید. • یک الگوریتم راهزن چند مسلح برای بهینه سازی تبلیغات نمایشی ایجاد کنید • با استفاده از Deep Q-Networks فرآیندهای یادگیری و کنترل را افزایش دهید • فرآیندهای تصمیم گیری مارکوف، محیط های OpenAI Gym و سایر مشکلات رایج کنترل را شبیه سازی کنید • انتخاب و ساخت مدل های RL، ارزیابی عملکرد آنها، و بهینه سازی و استقرار آنها • از روش های گرادیان خط مشی برای حل مسائل RL پیوسته استفاده کنید این کتاب برای چه کسی است مهندسان یادگیری ماشین، دانشمندان داده و محققان هوش مصنوعی که به دنبال راه حل های سریع برای مشکلات مختلف یادگیری تقویتی هستند، این کتاب را مفید خواهند یافت. اگرچه دانش قبلی در مورد مفاهیم یادگیری ماشین مورد نیاز است، تجربه با PyTorch مفید خواهد بود اما ضروری نیست.


توضیحاتی درمورد کتاب به خارجی

Implement reinforcement learning techniques and algorithms with the help of real-world examples and recipes Key Features • Use PyTorch 1.x to design and build self-learning artificial intelligence (AI) models • Implement RL algorithms to solve control and optimization challenges faced by data scientists today • Apply modern RL libraries to simulate a controlled environment for your projects Book Description Reinforcement learning (RL) is a branch of machine learning that has gained popularity in recent times. It allows you to train AI models that learn from their own actions and optimize their behavior. PyTorch has also emerged as the preferred tool for training RL models because of its efficiency and ease of use. With this book, you'll explore the important RL concepts and the implementation of algorithms in PyTorch 1.x. The recipes in the book, along with real-world examples, will help you master various RL techniques, such as dynamic programming, Monte Carlo simulations, temporal difference, and Q-learning. You'll also gain insights into industry-specific applications of these techniques. Later chapters will guide you through solving problems such as the multi-armed bandit problem and the cartpole problem using the multi-armed bandit algorithm and function approximation. You'll also learn how to use Deep Q-Networks to complete Atari games, along with how to effectively implement policy gradients. Finally, you'll discover how RL techniques are applied to Blackjack, Gridworld environments, internet advertising, and the Flappy Bird game. By the end of this book, you'll have developed the skills you need to implement popular RL algorithms and use RL techniques to solve real-world problems. What you will learn • Use Q-learning and the state–action–reward–state–action (SARSA) algorithm to solve various Gridworld problems • Develop a multi-armed bandit algorithm to optimize display advertising • Scale up learning and control processes using Deep Q-Networks • Simulate Markov Decision Processes, OpenAI Gym environments, and other common control problems • Select and build RL models, evaluate their performance, and optimize and deploy them • Use policy gradient methods to solve continuous RL problems Who this book is for Machine learning engineers, data scientists and AI researchers looking for quick solutions to different reinforcement learning problems will find this book useful. Although prior knowledge of machine learning concepts is required, experience with PyTorch will be useful but not necessary.



فهرست مطالب

Cover
Title Page
Copyright and Credits
About Packt
Contributors
Table of Contents
Preface
Chapter 1: Getting Started with Reinforcement Learning and PyTorch
	Setting up the working environment
		How to do it...
		How it works...
		There's more... 
		See also
	Installing OpenAI Gym
		How to do it...
		How it works...
		There's more...
		See also
	Simulating Atari environments
		How to do it...
		How it works...
		There's more...
		See also
	Simulating the CartPole environment
		How to do it...
		How it works...
		There's more...
	Reviewing the fundamentals of PyTorch
		How to do it...
		There's more...
		See also
	Implementing and evaluating a random search policy
		How to do it...
		How it works...
		There's more...
	Developing the hill-climbing algorithm
		How to do it...
		How it works...
		There's more...
		See also
	Developing a policy gradient algorithm
		How to do it...
		How it works...
		There's more...
		See also
Chapter 2: Markov Decision Processes and Dynamic Programming
	Technical requirements
	Creating a Markov chain
		How to do it...
		How it works...
		There's more...
		See also
	Creating an MDP
		How to do it...
		How it works...
		There's more...
		See also
	Performing policy evaluation
		How to do it...
		How it works...
		There's more...
	Simulating the FrozenLake environment
		Getting ready
		How to do it...
		How it works...
		There's more...
	Solving an MDP with a value iteration algorithm
		How to do it...
		How it works...
		There's more...
	Solving an MDP with a policy iteration algorithm
		How to do it...
		How it works...
		There's more...
		See also
	Solving the coin-flipping gamble problem
		How to do it...
		How it works...
		There's more...
Chapter 3: Monte Carlo Methods for Making Numerical Estimations
	Calculating Pi using the Monte Carlo method
		How to do it...
		How it works...
		There's more...
		See also
	Performing Monte Carlo policy evaluation
		How to do it...
		How it works...
		There's more...
	Playing Blackjack with Monte Carlo prediction
		How to do it...
		How it works...
		There's more...
		See also
	Performing on-policy Monte Carlo control
		How to do it...
		How it works...
		There's more...
	Developing MC control with epsilon-greedy policy
		How to do it...
		How it works...
	Performing off-policy Monte Carlo control
		How to do it...
		How it works...
		There's more...
		See also
	Developing MC control with weighted importance sampling
		How to do it...
		How it works...
		There's more...
		See also
Chapter 4: Temporal Difference and Q-Learning
	Setting up the Cliff Walking environment playground
		Getting ready
		How to do it...
		How it works...
	Developing the Q-learning algorithm
		How to do it...
		How it works...
		There's more...
	Setting up the Windy Gridworld environment playground
		How to do it...
		How it works...
	Developing the SARSA algorithm
		How to do it...
		How it works...
		There's more...
	Solving the Taxi problem with Q-learning
		Getting ready
		How to do it...
		How it works...
	Solving the Taxi problem with SARSA
		How to do it...
		How it works...
		There's more...
	Developing the Double Q-learning algorithm
		How to do it...
		How it works...
		See also
Chapter 5: Solving Multi-armed Bandit Problems
	Creating a multi-armed bandit environment
		How to do it...
		How it works...
	Solving multi-armed bandit problems with the epsilon-greedy policy
		How to do it...
		How it works...
		There's more...
	Solving multi-armed bandit problems with the softmax exploration
		How to do it...
		How it works...
	Solving multi-armed bandit problems with the upper confidence bound algorithm
		How to do it...
		How it works...
		There's more...
		See also
	Solving internet advertising problems with a multi-armed bandit
		How to do it...
		How it works...
	Solving multi-armed bandit problems with the Thompson sampling algorithm
		How to do it...
		How it works...
		See also
	Solving internet advertising problems with contextual bandits
		How to do it...
		How it works...
Chapter 6: Scaling Up Learning with Function Approximation
	Setting up the Mountain Car environment playground
		Getting ready
		How to do it...
		How it works...
	Estimating Q-functions with gradient descent approximation
		How to do it...
		How it works...
		See also
	Developing Q-learning with linear function approximation
		How to do it...
		How it works...
	Developing SARSA with linear function approximation
		How to do it...
		How it works...
	Incorporating batching using experience replay
		How to do it...
		How it works...
	Developing Q-learning with neural network function approximation
		How to do it...
		How it works...
		See also
	Solving the CartPole problem with function approximation
		How to do it...
		How it works...
Chapter 7: Deep Q-Networks in Action
	Developing deep Q-networks
		How to do it...
		How it works...
		See also
	Improving DQNs with experience replay
		How to do it...
		How it works...
	Developing double deep Q-Networks
		How to do it...
		How it works...
	Tuning double DQN hyperparameters for CartPole
		How to do it...
		How it works...
	Developing Dueling deep Q-Networks
		How to do it...
		How it works...
	Applying Deep Q-Networks to Atari games
		How to do it...
		How it works...
	Using convolutional neural networks for Atari games
		How to do it...
		How it works...
		See also
Chapter 8: Implementing Policy Gradients and Policy Optimization
	Implementing the REINFORCE algorithm
		How to do it...
		How it works...
		See also
	Developing the REINFORCE algorithm with baseline
		How to do it...
		How it works...
	Implementing the actor-critic algorithm
		How to do it...
		How it works...
	Solving Cliff Walking with the actor-critic algorithm
		How to do it...
		How it works...
	Setting up the continuous Mountain Car environment
		How to do it...
		How it works...
	Solving the continuous Mountain Car environment with the advantage actor-critic network
		How to do it...
		How it works...
		There's more...
		See also
	Playing CartPole through the cross-entropy method
		How to do it...
		How it works...
Chapter 9: Capstone Project – Playing Flappy Bird with DQN
	Setting up the game environment
		Getting ready
		How to do it...
		How it works...
	Building a Deep Q-Network to play Flappy Bird
		How to do it...
		How it works...
	Training and tuning the network
		How to do it...
		How it works...
	Deploying the model and playing the game
		How to do it...
		How it works...
Other Books You May Enjoy
Index




نظرات کاربران