ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play

دانلود کتاب یادگیری عمیق مولد: آموزش ماشین‌ها برای نقاشی، نوشتن، نوشتن و بازی

Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play

مشخصات کتاب

Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play

ویرایش: 1 
نویسندگان:   
سری:  
ISBN (شابک) : 1492041947, 9781492041948 
ناشر: O’Reilly Media 
سال نشر: 2019 
تعداد صفحات: 330 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 8 مگابایت 

قیمت کتاب (تومان) : 32,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 17


در صورت تبدیل فایل کتاب Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری عمیق مولد: آموزش ماشین‌ها برای نقاشی، نوشتن، نوشتن و بازی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری عمیق مولد: آموزش ماشین‌ها برای نقاشی، نوشتن، نوشتن و بازی

مدل سازی مولد یکی از داغ ترین موضوعات در هوش مصنوعی است. اکنون می توان به ماشینی آموزش داد که در تلاش های انسانی مانند نقاشی، نوشتن و آهنگسازی سرآمد باشد. با این کتاب عملی، مهندسان یادگیری ماشین و دانشمندان داده کشف خواهند کرد که چگونه برخی از نمونه‌های چشمگیر از مدل‌های یادگیری عمیق مولد، مانند رمزگذارهای خودکار متغیر، شبکه‌های متخاصم تولیدی (GAN)، مدل‌های رمزگذار-رمزگشا و مدل‌های جهانی را دوباره ایجاد کنند. . نویسنده دیوید فاستر، عملکرد درونی هر تکنیک را نشان می‌دهد، از اصول اولیه یادگیری عمیق قبل از پیشرفت به برخی از پیشرفته‌ترین الگوریتم‌ها در این زمینه. از طریق نکات و ترفندها، متوجه خواهید شد که چگونه مدل های خود را کارآمدتر یاد بگیرند و خلاق تر شوند. • کشف کنید که چگونه رمزگذارهای خودکار متغیر می توانند حالات چهره را در عکس ها تغییر دهند • نمونه های عملی GAN را از ابتدا بسازید، از جمله CycleGAN برای انتقال سبک و MuseGAN برای تولید موسیقی • مدل های تولیدی مکرر را برای تولید متن ایجاد کنید و یاد بگیرید که چگونه با استفاده از توجه، مدل ها را بهبود ببخشید • درک کنید که چگونه مدل های مولد می توانند به عوامل برای انجام وظایف در یک محیط یادگیری تقویتی کمک کنند. • معماری Transformer (BERT، GPT-2) و مدل های تولید تصویر مانند ProGAN و StyleGAN را کاوش کنید.


توضیحاتی درمورد کتاب به خارجی

Generative modeling is one of the hottest topics in AI. It’s now possible to teach a machine to excel at human endeavors such as painting, writing, and composing music. With this practical book, machine-learning engineers and data scientists will discover how to re-create some of the most impressive examples of generative deep learning models, such as variational autoencoders,generative adversarial networks (GANs), encoder-decoder models and world models. Author David Foster demonstrates the inner workings of each technique, starting with the basics of deep learning before advancing to some of the most cutting-edge algorithms in the field. Through tips and tricks, you’ll understand how to make your models learn more efficiently and become more creative. • Discover how variational autoencoders can change facial expressions in photos • Build practical GAN examples from scratch, including CycleGAN for style transfer and MuseGAN for music generation • Create recurrent generative models for text generation and learn how to improve the models using attention • Understand how generative models can help agents to accomplish tasks within a reinforcement learning setting • Explore the architecture of the Transformer (BERT, GPT-2) and image generation models such as ProGAN and StyleGAN



فهرست مطالب

Cover
Copyright
Table of Contents
Preface
	Objective and Approach
	Prerequisites
	Other Resources
	Conventions Used in This Book
	Using Code Examples
	O’Reilly Online Learning
	How to Contact Us
	Acknowledgments
Part I. Introduction to Generative Deep Learning
	Chapter 1. Generative Modeling
		What Is Generative Modeling?
			Generative Versus Discriminative Modeling
			Advances in Machine Learning
			The Rise of Generative Modeling
			The Generative Modeling Framework
		Probabilistic Generative Models
			Hello Wrodl!
			Your First Probabilistic Generative Model
			Naive Bayes
			Hello Wrodl! Continued
		The Challenges of Generative Modeling
			Representation Learning
		Setting Up Your Environment
		Summary
	Chapter 2. Deep Learning
		Structured and Unstructured Data
		Deep Neural Networks
			Keras and TensorFlow
		Your First Deep Neural Network
			Loading the Data
			Building the Model
			Compiling the Model
			Training the Model
			Evaluating the Model
		Improving the Model
			Convolutional Layers
			Batch Normalization
			Dropout Layers
			Putting It All Together
		Summary
	Chapter 3. Variational Autoencoders
		The Art Exhibition
		Autoencoders
			Your First Autoencoder
			The Encoder
			The Decoder
			Joining the Encoder to the Decoder
			Analysis of the Autoencoder
		The Variational Art Exhibition
		Building a Variational Autoencoder
			The Encoder
			The Loss Function
			Analysis of the Variational Autoencoder
		Using VAEs to Generate Faces
			Training the VAE
			Analysis of the VAE
			Generating New Faces
			Latent Space Arithmetic
			Morphing Between Faces
		Summary
	Chapter 4. Generative Adversarial Networks
		Ganimals
		Introduction to GANs
		Your First GAN
			The Discriminator
			The Generator
			Training the GAN
		GAN Challenges
			Oscillating Loss
			Mode Collapse
			Uninformative Loss
			Hyperparameters
			Tackling the GAN Challenges
		Wasserstein GAN
			Wasserstein Loss
			The Lipschitz Constraint
			Weight Clipping
			Training the WGAN
			Analysis of the WGAN
		WGAN-GP
			The Gradient Penalty Loss
			Analysis of WGAN-GP
		Summary
Part II. Teaching Machines to Paint, Write, Compose, and Play
	Chapter 5. Paint
		Apples and Organges
		CycleGAN
		Your First CycleGAN
			Overview
			The Generators (U-Net)
			The Discriminators
			Compiling the CycleGAN
			Training the CycleGAN
			Analysis of the CycleGAN
		Creating a CycleGAN to Paint Like Monet
			The Generators (ResNet)
			Analysis of the CycleGAN
		Neural Style Transfer
			Content Loss
			Style Loss
			Total Variance Loss
			Running the Neural Style Transfer
			Analysis of the Neural Style Transfer Model
		Summary
	Chapter 6. Write
		The Literary Society for Troublesome Miscreants
		Long Short-Term Memory Networks
		Your First LSTM Network
			Tokenization
			Building the Dataset
			The LSTM Architecture
			The Embedding Layer
			The LSTM Layer
			The LSTM Cell
		Generating New Text
		RNN Extensions
			Stacked Recurrent Networks
			Gated Recurrent Units
			Bidirectional Cells
		Encoder–Decoder Models
		A Question and Answer Generator
			A Question-Answer Dataset
			Model Architecture
			Inference
			Model Results
		Summary
	Chapter 7. Compose
		Preliminaries
			Musical Notation
		Your First Music-Generating RNN
			Attention
			Building an Attention Mechanism in Keras
			Analysis of the RNN with Attention
			Attention in Encoder–Decoder Networks
			Generating Polyphonic Music
		The Musical Organ
		Your First MuseGAN
		The MuseGAN Generator
			Chords, Style, Melody, and Groove
			The Bar Generator
			Putting It All Together
		The Critic
		Analysis of the MuseGAN
		Summary
	Chapter 8. Play
		Reinforcement Learning
			OpenAI Gym
		World Model Architecture
			The Variational Autoencoder
			The MDN-RNN
			The Controller
		Setup
		Training Process Overview
		Collecting Random Rollout Data
		Training the VAE
			The VAE Architecture
			Exploring the VAE
		Collecting Data to Train the RNN
		Training the MDN-RNN
			The MDN-RNN Architecture
			Sampling the Next z and Reward from the MDN-RNN
			The MDN-RNN Loss Function
		Training the Controller
			The Controller Architecture
			CMA-ES
			Parallelizing CMA-ES
			Output from the Controller Training
		In-Dream Training
			In-Dream Training the Controller
			Challenges of In-Dream Training
		Summary
	Chapter 9. The Future of Generative Modeling
		Five Years of Progress
		The Transformer
			Positional Encoding
			Multihead Attention
			The Decoder
			Analysis of the Transformer
			BERT
			GPT-2
			MuseNet
		Advances in Image Generation
			ProGAN
			Self-Attention GAN (SAGAN)
			BigGAN
			StyleGAN
		Applications of Generative Modeling
			AI Art
			AI Music
	Chapter 10. Conclusion
Index
About the Author
Colophon




نظرات کاربران