ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence

دانلود کتاب مقدمه ای بر یادگیری عمیق: از حساب منطقی تا هوش مصنوعی

 Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence

مشخصات کتاب

Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence

ویرایش: 1 
نویسندگان:   
سری: Undergraduate Topics in Computer Science 
ISBN (شابک) : 9783319730035, 9783319730042 
ناشر: Springer International Publishing 
سال نشر: 2018 
تعداد صفحات: 196 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 مگابایت 

قیمت کتاب (تومان) : 51,000



کلمات کلیدی مربوط به کتاب مقدمه ای بر یادگیری عمیق: از حساب منطقی تا هوش مصنوعی: داده کاوی و کشف دانش



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 17


در صورت تبدیل فایل کتاب Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مقدمه ای بر یادگیری عمیق: از حساب منطقی تا هوش مصنوعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مقدمه ای بر یادگیری عمیق: از حساب منطقی تا هوش مصنوعی



این کتاب درسی اولین مقدمه مختصر، در دسترس و جذابی را برای یادگیری عمیق ارائه می‌کند و طیف گسترده‌ای از مدل‌های پیوندگرا را ارائه می‌کند که نشان‌دهنده وضعیت فعلی هنر است. این متن محبوب ترین الگوریتم ها و معماری ها را به سبکی ساده و شهودی بررسی می کند و مشتقات ریاضی را به صورت گام به گام توضیح می دهد. پوشش محتوا شامل شبکه‌های کانولوشن، LSTM، Word2vec، RBM، DBN، ماشین‌های تورینگ عصبی، شبکه‌های حافظه و رمزگذارهای خودکار است. مثال‌های متعددی از کد پایتون در سراسر کتاب ارائه شده است، و کد نیز به‌طور جداگانه در یک وب‌سایت همراه ارائه شده است.

موضوعات و ویژگی‌ها: اصول یادگیری ماشینی، و پیش نیازهای ریاضی و محاسباتی برای یادگیری عمیق را معرفی می‌کند. شبکه‌های عصبی پیش‌خور را مورد بحث قرار می‌دهد و تغییراتی را که می‌توان برای هر شبکه عصبی اعمال کرد، بررسی کرد. شبکه های عصبی کانولوشنال و اتصالات مکرر به یک شبکه عصبی پیشخور را بررسی می کند. مفهوم بازنمایی های توزیع شده، مفهوم رمزگذار خودکار، و ایده های پشت پردازش زبان با یادگیری عمیق را توصیف می کند. تاریخچه مختصری از هوش مصنوعی و شبکه‌های عصبی را ارائه می‌کند و مشکلات تحقیقات باز جالب در یادگیری عمیق و ارتباط‌گرایی را مرور می‌کند.

این به وضوح نوشته شده است. و آغازگر پر جنب و جوش در یادگیری عمیق خواندن ضروری برای دانشجویان کارشناسی ارشد و پیشرفته در رشته های علوم کامپیوتر، علوم شناختی و ریاضیات، و همچنین زمینه هایی مانند زبان شناسی، منطق، فلسفه و روانشناسی است.


توضیحاتی درمورد کتاب به خارجی

This textbook presents a concise, accessible and engaging first introduction to deep learning, offering a wide range of connectionist models which represent the current state-of-the-art. The text explores the most popular algorithms and architectures in a simple and intuitive style, explaining the mathematical derivations in a step-by-step manner. The content coverage includes convolutional networks, LSTMs, Word2vec, RBMs, DBNs, neural Turing machines, memory networks and autoencoders. Numerous examples in working Python code are provided throughout the book, and the code is also supplied separately at an accompanying website.

Topics and features: introduces the fundamentals of machine learning, and the mathematical and computational prerequisites for deep learning; discusses feed-forward neural networks, and explores the modifications to these which can be applied to any neural network; examines convolutional neural networks, and the recurrent connections to a feed-forward neural network; describes the notion of distributed representations, the concept of the autoencoder, and the ideas behind language processing with deep learning; presents a brief history of artificial intelligence and neural networks, and reviews interesting open research problems in deep learning and connectionism.

This clearly written and lively primer on deep learning is essential reading for graduate and advanced undergraduate students of computer science, cognitive science and mathematics, as well as fields such as linguistics, logic, philosophy, and psychology.



فهرست مطالب

Preface
	References
Contents
1 From Logic to Cognitive Science
	1.1 The Beginnings of Artificial Neural Networks
	1.2 The XOR Problem
	1.3 From Cognitive Science to Deep Learning
	1.4 Neural Networks in the General AI Landscape
	1.5 Philosophical and Cognitive Aspects
2 Mathematical and Computational Prerequisites
	2.1 Derivations and Function Minimization
	2.2 Vectors, Matrices and Linear Programming
	2.3 Probability Distributions
	2.4 Logic and Turing Machines
	2.5 Writing Python Code
	2.6 A Brief Overview of Python Programming
3 Machine Learning Basics
	3.1 Elementary Classification Problem
	3.2 Evaluating Classification Results
	3.3 A Simple Classifier: Naive Bayes
	3.4 A Simple Neural Network: Logistic Regression
	3.5 Introducing the MNIST Dataset
	3.6 Learning Without Labels: K-Means
	3.7 Learning Different Representations: PCA
	3.8 Learning Language: The Bag of Words Representation
4 Feedforward Neural Networks
	4.1 Basic Concepts and Terminology for Neural Networks
	4.2 Representing Network Components with Vectors  and Matrices
	4.3 The Perceptron Rule
	4.4 The Delta Rule
	4.5 From the Logistic Neuron to Backpropagation
	4.6 Backpropagation
	4.7 A Complete Feedforward Neural Network
5 Modifications and Extensions  to a Feed-Forward Neural Network
	5.1 The Idea of Regularization
	5.2 L1 and L2 Regularization
	5.3 Learning Rate, Momentum and Dropout
	5.4 Stochastic Gradient Descent and Online Learning
	5.5 Problems for Multiple Hidden Layers: Vanishing  and Exploding Gradients
6 Convolutional Neural Networks
	6.1 A Third Visit to Logistic Regression
	6.2 Feature Maps and Pooling
	6.3 A Complete Convolutional Network
	6.4 Using a Convolutional Network to Classify Text
7 Recurrent Neural Networks
	7.1 Sequences of Unequal Length
	7.2 The Three Settings of Learning with Recurrent Neural Networks
	7.3 Adding Feedback Loops and Unfolding a Neural Network
	7.4 Elman Networks
	7.5 Long Short-Term Memory
	7.6 Using a Recurrent Neural Network for Predicting Following Words
8 Autoencoders
	8.1 Learning Representations
	8.2 Different Autoencoder Architectures
	8.3 Stacking Autoencoders
	8.4 Recreating the Cat Paper
9 Neural Language Models
	9.1 Word Embeddings and Word Analogies
	9.2 CBOW and Word2vec
	9.3 Word2vec in Code
	9.4 Walking Through the Word-Space: An Idea That Has Eluded Symbolic AI
10 An Overview of Different Neural Network Architectures
	10.1 Energy-Based Models
	10.2 Memory-Based Models
	10.3 The Kernel of General Connectionist Intelligence: The bAbI Dataset
11 Conclusion
	11.1 An Incomplete Overview of Open Research Questions
	11.2 The Spirit of Connectionism and Philosophical Ties
Index




نظرات کاربران