دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Sandro Skansi (auth.)
سری: Undergraduate Topics in Computer Science
ISBN (شابک) : 9783319730035, 9783319730042
ناشر: Springer International Publishing
سال نشر: 2018
تعداد صفحات: 196
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 4 مگابایت
کلمات کلیدی مربوط به کتاب مقدمه ای بر یادگیری عمیق: از حساب منطقی تا هوش مصنوعی: داده کاوی و کشف دانش
در صورت تبدیل فایل کتاب Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب مقدمه ای بر یادگیری عمیق: از حساب منطقی تا هوش مصنوعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب درسی اولین مقدمه مختصر، در دسترس و جذابی را برای یادگیری عمیق ارائه میکند و طیف گستردهای از مدلهای پیوندگرا را ارائه میکند که نشاندهنده وضعیت فعلی هنر است. این متن محبوب ترین الگوریتم ها و معماری ها را به سبکی ساده و شهودی بررسی می کند و مشتقات ریاضی را به صورت گام به گام توضیح می دهد. پوشش محتوا شامل شبکههای کانولوشن، LSTM، Word2vec، RBM، DBN، ماشینهای تورینگ عصبی، شبکههای حافظه و رمزگذارهای خودکار است. مثالهای متعددی از کد پایتون در سراسر کتاب ارائه شده است، و کد نیز بهطور جداگانه در یک وبسایت همراه ارائه شده است.
موضوعات و ویژگیها: اصول یادگیری ماشینی، و پیش نیازهای ریاضی و محاسباتی برای یادگیری عمیق را معرفی میکند. شبکههای عصبی پیشخور را مورد بحث قرار میدهد و تغییراتی را که میتوان برای هر شبکه عصبی اعمال کرد، بررسی کرد. شبکه های عصبی کانولوشنال و اتصالات مکرر به یک شبکه عصبی پیشخور را بررسی می کند. مفهوم بازنمایی های توزیع شده، مفهوم رمزگذار خودکار، و ایده های پشت پردازش زبان با یادگیری عمیق را توصیف می کند. تاریخچه مختصری از هوش مصنوعی و شبکههای عصبی را ارائه میکند و مشکلات تحقیقات باز جالب در یادگیری عمیق و ارتباطگرایی را مرور میکند.این به وضوح نوشته شده است. و آغازگر پر جنب و جوش در یادگیری عمیق خواندن ضروری برای دانشجویان کارشناسی ارشد و پیشرفته در رشته های علوم کامپیوتر، علوم شناختی و ریاضیات، و همچنین زمینه هایی مانند زبان شناسی، منطق، فلسفه و روانشناسی است.
This textbook presents a concise, accessible and engaging first introduction to deep learning, offering a wide range of connectionist models which represent the current state-of-the-art. The text explores the most popular algorithms and architectures in a simple and intuitive style, explaining the mathematical derivations in a step-by-step manner. The content coverage includes convolutional networks, LSTMs, Word2vec, RBMs, DBNs, neural Turing machines, memory networks and autoencoders. Numerous examples in working Python code are provided throughout the book, and the code is also supplied separately at an accompanying website.
Topics and features: introduces the fundamentals of machine learning, and the mathematical and computational prerequisites for deep learning; discusses feed-forward neural networks, and explores the modifications to these which can be applied to any neural network; examines convolutional neural networks, and the recurrent connections to a feed-forward neural network; describes the notion of distributed representations, the concept of the autoencoder, and the ideas behind language processing with deep learning; presents a brief history of artificial intelligence and neural networks, and reviews interesting open research problems in deep learning and connectionism.This clearly written and lively primer on deep learning is essential reading for graduate and advanced undergraduate students of computer science, cognitive science and mathematics, as well as fields such as linguistics, logic, philosophy, and psychology.
Preface References Contents 1 From Logic to Cognitive Science 1.1 The Beginnings of Artificial Neural Networks 1.2 The XOR Problem 1.3 From Cognitive Science to Deep Learning 1.4 Neural Networks in the General AI Landscape 1.5 Philosophical and Cognitive Aspects 2 Mathematical and Computational Prerequisites 2.1 Derivations and Function Minimization 2.2 Vectors, Matrices and Linear Programming 2.3 Probability Distributions 2.4 Logic and Turing Machines 2.5 Writing Python Code 2.6 A Brief Overview of Python Programming 3 Machine Learning Basics 3.1 Elementary Classification Problem 3.2 Evaluating Classification Results 3.3 A Simple Classifier: Naive Bayes 3.4 A Simple Neural Network: Logistic Regression 3.5 Introducing the MNIST Dataset 3.6 Learning Without Labels: K-Means 3.7 Learning Different Representations: PCA 3.8 Learning Language: The Bag of Words Representation 4 Feedforward Neural Networks 4.1 Basic Concepts and Terminology for Neural Networks 4.2 Representing Network Components with Vectors and Matrices 4.3 The Perceptron Rule 4.4 The Delta Rule 4.5 From the Logistic Neuron to Backpropagation 4.6 Backpropagation 4.7 A Complete Feedforward Neural Network 5 Modifications and Extensions to a Feed-Forward Neural Network 5.1 The Idea of Regularization 5.2 L1 and L2 Regularization 5.3 Learning Rate, Momentum and Dropout 5.4 Stochastic Gradient Descent and Online Learning 5.5 Problems for Multiple Hidden Layers: Vanishing and Exploding Gradients 6 Convolutional Neural Networks 6.1 A Third Visit to Logistic Regression 6.2 Feature Maps and Pooling 6.3 A Complete Convolutional Network 6.4 Using a Convolutional Network to Classify Text 7 Recurrent Neural Networks 7.1 Sequences of Unequal Length 7.2 The Three Settings of Learning with Recurrent Neural Networks 7.3 Adding Feedback Loops and Unfolding a Neural Network 7.4 Elman Networks 7.5 Long Short-Term Memory 7.6 Using a Recurrent Neural Network for Predicting Following Words 8 Autoencoders 8.1 Learning Representations 8.2 Different Autoencoder Architectures 8.3 Stacking Autoencoders 8.4 Recreating the Cat Paper 9 Neural Language Models 9.1 Word Embeddings and Word Analogies 9.2 CBOW and Word2vec 9.3 Word2vec in Code 9.4 Walking Through the Word-Space: An Idea That Has Eluded Symbolic AI 10 An Overview of Different Neural Network Architectures 10.1 Energy-Based Models 10.2 Memory-Based Models 10.3 The Kernel of General Connectionist Intelligence: The bAbI Dataset 11 Conclusion 11.1 An Incomplete Overview of Open Research Questions 11.2 The Spirit of Connectionism and Philosophical Ties Index