دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: David Foster
سری:
ISBN (شابک) : 1492041947, 9781492041948
ناشر: O’Reilly Media
سال نشر: 2019
تعداد صفحات: 330
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 8 مگابایت
در صورت تبدیل فایل کتاب Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری عمیق مولد: آموزش ماشینها برای نقاشی، نوشتن، نوشتن و بازی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
مدل سازی مولد یکی از داغ ترین موضوعات در هوش مصنوعی است. اکنون می توان به ماشینی آموزش داد که در تلاش های انسانی مانند نقاشی، نوشتن و آهنگسازی سرآمد باشد. با این کتاب عملی، مهندسان یادگیری ماشین و دانشمندان داده کشف خواهند کرد که چگونه برخی از نمونههای چشمگیر از مدلهای یادگیری عمیق مولد، مانند رمزگذارهای خودکار متغیر، شبکههای متخاصم تولیدی (GAN)، مدلهای رمزگذار-رمزگشا و مدلهای جهانی را دوباره ایجاد کنند. . نویسنده دیوید فاستر، عملکرد درونی هر تکنیک را نشان میدهد، از اصول اولیه یادگیری عمیق قبل از پیشرفت به برخی از پیشرفتهترین الگوریتمها در این زمینه. از طریق نکات و ترفندها، متوجه خواهید شد که چگونه مدل های خود را کارآمدتر یاد بگیرند و خلاق تر شوند. • کشف کنید که چگونه رمزگذارهای خودکار متغیر می توانند حالات چهره را در عکس ها تغییر دهند • نمونه های عملی GAN را از ابتدا بسازید، از جمله CycleGAN برای انتقال سبک و MuseGAN برای تولید موسیقی • مدل های تولیدی مکرر را برای تولید متن ایجاد کنید و یاد بگیرید که چگونه با استفاده از توجه، مدل ها را بهبود ببخشید • درک کنید که چگونه مدل های مولد می توانند به عوامل برای انجام وظایف در یک محیط یادگیری تقویتی کمک کنند. • معماری Transformer (BERT، GPT-2) و مدل های تولید تصویر مانند ProGAN و StyleGAN را کاوش کنید.
Generative modeling is one of the hottest topics in AI. It’s now possible to teach a machine to excel at human endeavors such as painting, writing, and composing music. With this practical book, machine-learning engineers and data scientists will discover how to re-create some of the most impressive examples of generative deep learning models, such as variational autoencoders,generative adversarial networks (GANs), encoder-decoder models and world models. Author David Foster demonstrates the inner workings of each technique, starting with the basics of deep learning before advancing to some of the most cutting-edge algorithms in the field. Through tips and tricks, you’ll understand how to make your models learn more efficiently and become more creative. • Discover how variational autoencoders can change facial expressions in photos • Build practical GAN examples from scratch, including CycleGAN for style transfer and MuseGAN for music generation • Create recurrent generative models for text generation and learn how to improve the models using attention • Understand how generative models can help agents to accomplish tasks within a reinforcement learning setting • Explore the architecture of the Transformer (BERT, GPT-2) and image generation models such as ProGAN and StyleGAN
Cover Copyright Table of Contents Preface Objective and Approach Prerequisites Other Resources Conventions Used in This Book Using Code Examples O’Reilly Online Learning How to Contact Us Acknowledgments Part I. Introduction to Generative Deep Learning Chapter 1. Generative Modeling What Is Generative Modeling? Generative Versus Discriminative Modeling Advances in Machine Learning The Rise of Generative Modeling The Generative Modeling Framework Probabilistic Generative Models Hello Wrodl! Your First Probabilistic Generative Model Naive Bayes Hello Wrodl! Continued The Challenges of Generative Modeling Representation Learning Setting Up Your Environment Summary Chapter 2. Deep Learning Structured and Unstructured Data Deep Neural Networks Keras and TensorFlow Your First Deep Neural Network Loading the Data Building the Model Compiling the Model Training the Model Evaluating the Model Improving the Model Convolutional Layers Batch Normalization Dropout Layers Putting It All Together Summary Chapter 3. Variational Autoencoders The Art Exhibition Autoencoders Your First Autoencoder The Encoder The Decoder Joining the Encoder to the Decoder Analysis of the Autoencoder The Variational Art Exhibition Building a Variational Autoencoder The Encoder The Loss Function Analysis of the Variational Autoencoder Using VAEs to Generate Faces Training the VAE Analysis of the VAE Generating New Faces Latent Space Arithmetic Morphing Between Faces Summary Chapter 4. Generative Adversarial Networks Ganimals Introduction to GANs Your First GAN The Discriminator The Generator Training the GAN GAN Challenges Oscillating Loss Mode Collapse Uninformative Loss Hyperparameters Tackling the GAN Challenges Wasserstein GAN Wasserstein Loss The Lipschitz Constraint Weight Clipping Training the WGAN Analysis of the WGAN WGAN-GP The Gradient Penalty Loss Analysis of WGAN-GP Summary Part II. Teaching Machines to Paint, Write, Compose, and Play Chapter 5. Paint Apples and Organges CycleGAN Your First CycleGAN Overview The Generators (U-Net) The Discriminators Compiling the CycleGAN Training the CycleGAN Analysis of the CycleGAN Creating a CycleGAN to Paint Like Monet The Generators (ResNet) Analysis of the CycleGAN Neural Style Transfer Content Loss Style Loss Total Variance Loss Running the Neural Style Transfer Analysis of the Neural Style Transfer Model Summary Chapter 6. Write The Literary Society for Troublesome Miscreants Long Short-Term Memory Networks Your First LSTM Network Tokenization Building the Dataset The LSTM Architecture The Embedding Layer The LSTM Layer The LSTM Cell Generating New Text RNN Extensions Stacked Recurrent Networks Gated Recurrent Units Bidirectional Cells Encoder–Decoder Models A Question and Answer Generator A Question-Answer Dataset Model Architecture Inference Model Results Summary Chapter 7. Compose Preliminaries Musical Notation Your First Music-Generating RNN Attention Building an Attention Mechanism in Keras Analysis of the RNN with Attention Attention in Encoder–Decoder Networks Generating Polyphonic Music The Musical Organ Your First MuseGAN The MuseGAN Generator Chords, Style, Melody, and Groove The Bar Generator Putting It All Together The Critic Analysis of the MuseGAN Summary Chapter 8. Play Reinforcement Learning OpenAI Gym World Model Architecture The Variational Autoencoder The MDN-RNN The Controller Setup Training Process Overview Collecting Random Rollout Data Training the VAE The VAE Architecture Exploring the VAE Collecting Data to Train the RNN Training the MDN-RNN The MDN-RNN Architecture Sampling the Next z and Reward from the MDN-RNN The MDN-RNN Loss Function Training the Controller The Controller Architecture CMA-ES Parallelizing CMA-ES Output from the Controller Training In-Dream Training In-Dream Training the Controller Challenges of In-Dream Training Summary Chapter 9. The Future of Generative Modeling Five Years of Progress The Transformer Positional Encoding Multihead Attention The Decoder Analysis of the Transformer BERT GPT-2 MuseNet Advances in Image Generation ProGAN Self-Attention GAN (SAGAN) BigGAN StyleGAN Applications of Generative Modeling AI Art AI Music Chapter 10. Conclusion Index About the Author Colophon