ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Fundamentals of Deep Learning

دانلود کتاب مبانی یادگیری عمیق

Fundamentals of Deep Learning

مشخصات کتاب

Fundamentals of Deep Learning

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9781491925614 
ناشر: O’Reilly 
سال نشر: 2017 
تعداد صفحات: 288 
زبان: english 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 13 مگابایت 

قیمت کتاب (تومان) : 28,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب Fundamentals of Deep Learning به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مبانی یادگیری عمیق نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مبانی یادگیری عمیق

با تقویت مجدد شبکه های عصبی در دهه 2000، یادگیری عمیق به یک حوزه تحقیقاتی بسیار فعال تبدیل شده است، حوزه ای که راه را برای یادگیری ماشینی مدرن هموار می کند. در این کتاب کاربردی، نویسنده نیکیل بودوما مثال‌ها و توضیحات روشنی را ارائه می‌کند تا شما را در مفاهیم اصلی این حوزه پیچیده راهنمایی کند. شرکت هایی مانند گوگل، مایکروسافت و فیس بوک به طور فعال در حال رشد تیم های یادگیری عمیق داخلی هستند. با این حال، برای بقیه ما، یادگیری عمیق هنوز یک موضوع بسیار پیچیده و دشوار است. اگر با پایتون آشنایی دارید و پیشینه ای در حساب دیفرانسیل و انتگرال، همراه با درک اولیه از یادگیری ماشینی دارید، این کتاب شما را شروع می کند. مبانی یادگیری ماشین و شبکه‌های عصبی را بررسی کنید نحوه آموزش شبکه‌های عصبی پیش‌خور را بیاموزید از TensorFlow برای پیاده‌سازی اولین شبکه عصبی خود استفاده کنید مشکلاتی را که با شروع عمیق‌تر کردن شبکه‌ها به وجود می‌آیند را مدیریت کنید شبکه‌های عصبی بسازید که تصاویر پیچیده را تجزیه و تحلیل کنند. کاهش ابعاد موثر با استفاده از رمزگذارهای خودکار برای بررسی زبان به تجزیه و تحلیل توالی عمیق بروید. اصول یادگیری تقویتی را درک کنید


توضیحاتی درمورد کتاب به خارجی

With the reinvigoration of neural networks in the 2000s, deep learning has become an extremely active area of research, one that's paving the way for modern machine learning. In this practical book, author Nikhil Buduma provides examples and clear explanations to guide you through major concepts of this complicated field. Companies such as Google, Microsoft, and Facebook are actively growing in-house deep-learning teams. For the rest of us, however, deep learning is still a pretty complex and difficult subject to grasp. If you're familiar with Python, and have a background in calculus, along with a basic understanding of machine learning, this book will get you started. Examine the foundations of machine learning and neural networks Learn how to train feed-forward neural networks Use TensorFlow to implement your first neural network Manage problems that arise as you begin to make networks deeper Build neural networks that analyze complex images Perform effective dimensionality reduction using autoencoders Dive deep into sequence analysis to examine language Understand the fundamentals of reinforcement learning



فهرست مطالب

Предисловие
	Требования и цели
		УСЛОВНЫЕ ОБОЗНАЧЕНИЯ
		ОБРАЗЦЫ КОДА
ГЛАВА 1. Нейросеть
	Создание умных машин
	Ограничения традиционных компьютерных программ
	Механика машинного обучения
	Нейрон
	Выражение линейных персептронов в виде нейронов
	Нейросети с прямым распространением сигнала
	Линейные нейроны и их ограничения
	Нейроны с сигмоидой, гиперболическим тангенсом и усеченные линейные
	Выходные слои с функцией мягкого максимума
	Резюме
ГЛАВА 2. Обучение нейросетей с прямым распространением сигнала
	Проблема фастфуда
	Градиентный спуск
	Дельта-правило и темп обучения
	Градиентный спуск с сигмоидными нейронами
	Алгоритм обратного распространения ошибок
	Стохастический и мини-пакетный градиентный спуск
	Переобучение и наборы данных для тестирования и проверки
	Борьба с переобучением в глубоких нейросетях
	Резюме
ГЛАВА 3. Нейросети в TensorFlow
	Что такое TensorFlow?
	Сравнение TensorFlow с альтернативами
	Установка TensorFlow
	Создание переменных TensorFlow и работа с ними
	Операции в TensorFlow
	Тензоры-заполнители
	Сессии в TensorFlow
	Области видимости переменной и совместное использование переменных
	Управление моделями на CPU и GPU
	Создание модели логистической регрессии в TensorFlow
	Журналирование и обучение модели логистической регрессии
	Применение TensorBoard для визуализации вычислительного графа и обучения
	Создание многослойной модели для MNIST в TensorFlow
	Резюме
ГЛАВА 4. Не только градиентный спуск
	Проблемы с градиентным спуском
	Локальные минимумы на поверхности ошибок глубоких сетей
	Определимость модели
	Насколько неприятны сомнительные локальные минимумы в нейросетях?
	Плоские области на поверхности ошибок
	Когда градиент указывает в неверном направлении
	Импульсная оптимизация
	Краткий обзор методов второго порядка
	Адаптация темпа обучения
		ADAGRAD — СУММИРОВАНИЕ ИСТОРИЧЕСКИХ ГРАДИЕНТОВ
		RMSPROP — ЭКСПОНЕНЦИАЛЬНО ВЗВЕШЕННОЕ СКОЛЬЗЯЩЕЕ СРЕДНЕЕ ГРАДИЕНТОВ
		ADAM — СОЧЕТАНИЕ ИМПУЛЬСНОГО МЕТОДА С RMSPROP
	Философия при выборе метода оптимизации
	Резюме
ГЛАВА 5. Сверточные нейросети
	Нейроны и зрение человека
	Недостатки выбора признаков
	Обычные глубокие нейросети не масштабируются
	Фильтры и карты признаков
	Полное описание сверточного слоя
	Max Pooling (операция подвыборки)
	Полное архитектурное описание сверточных нейросетей
	Работа с MNIST с помощью сверточных сетей
	Предварительная обработка изображений улучшает работу моделей
	Ускорение обучения с помощью пакетной нормализации
	Создание сверточной сети для CIFAR-10
	Визуализация обучения в сверточных сетях
	Применение сверточных фильтров для воссоздания художественных стилей
	Обучаем сверточные фильтры в других областях
	Резюме
ГЛАВА 6. Плотные векторные представления и обучение представлений
	Обучение представлений в пространстве низкой размерности
	Метод главных компонент
	Мотивация для архитектуры автокодера
	Реализация автокодера в TensorFlow
	Шумопонижение для повышения эффективности плотных векторных представлений
	Разреженность в автокодерах
	Когда контекст информативнее, чем входной вектор данных
	Технология Word2Vec
	Реализация архитектуры Skip-Gram
	Резюме
ГЛАВА 7. Модели анализа последовательностей
	Анализ данных переменной длины
	seq2seq и нейронные N-граммные модели
	Реализация разметки частей речи
	Определение зависимостей и SyntaxNet
	Лучевой поиск и глобальная нормализация
	Когда нужна модель глубокого обучения с сохранением состояния
	Рекуррентные нейронные сети
	Проблема исчезающего градиента
	Нейроны долгой краткосрочной памяти (long short-term memory, LSTM)
	Примитивы TensorFlow для моделей РНС
	Реализация модели анализа эмоциональной окраски
	Решение задач класса seq2seq при помощи рекуррентных нейронных сетей
	Дополнение рекуррентных сетей вниманием
	Разбор нейронной сети для перевода
	Резюме
ГЛАВА 8. Нейронные сети с дополнительной памятью
	Нейронные машины Тьюринга
	Доступ к памяти на основе внимания
	Механизмы адресации памяти в NTM
	Дифференцируемый нейронный компьютер
	Запись без помех в DNC
	Повторное использование памяти в DNC
	Временное связывание записей DNC
	Понимание головки чтения DNC
	Сеть контроллера DNC
	Визуализация работы DNC
	Реализация DNC в TensorFlow
	Обучение DNC чтению и пониманию
	Резюме
ГЛАВА 9. Глубокое обучение с подкреплением
	Глубокое обучение с подкреплением и игры Atari
	Что такое обучение с подкреплением?
	Марковские процессы принятия решений (MDP)
		СТРАТЕГИЯ
		БУДУЩАЯ ВЫГОДА
		ДИСКОНТИРОВАНИЕ БУДУЩИХ ВЫГОД
	Исследование и использование
		ϵ-ЖАДНОСТЬ
		НОРМАЛИЗОВАННЫЙ АЛГОРИТМ ϵ-ЖАДНОСТИ
	Изучение стратегии и ценности
		ИЗУЧЕНИЕ СТРАТЕГИИ ПРИ ПОМОЩИ ГРАДИЕНТА ПО СТРАТЕГИЯМ
	Тележка с шестом и градиенты по стратегиям
		OPENAI GYM
		СОЗДАНИЕ АГЕНТА
		СОЗДАНИЕ МОДЕЛИ И ОПТИМИЗАТОРА
		СЕМПЛИРОВАНИЕ ДЕЙСТВИЙ
		ФИКСАЦИЯ ИСТОРИИ
		ОСНОВНАЯ ФУНКЦИЯ ГРАДИЕНТА ПО СТРАТЕГИЯМ
		РАБОТА PGAGENT В ПРИМЕРЕ С ТЕЛЕЖКОЙ С ШЕСТОМ
	Q-обучение и глубокие Q-сети
		УРАВНЕНИЕ БЕЛЛМАНА
		ПРОБЛЕМЫ ИТЕРАЦИИ ПО ЦЕННОСТЯМ
		АППРОКСИМАЦИЯ Q-ФУНКЦИИ
		ГЛУБОКАЯ Q-СЕТЬ (DQN)
		ОБУЧЕНИЕ DQN
		СТАБИЛЬНОСТЬ ОБУЧЕНИЯ
		ЦЕЛЕВАЯ Q-СЕТЬ
		ПОВТОРЕНИЕ ОПЫТА
		ОТ Q-ФУНКЦИИ К СТРАТЕГИИ
		DQN И МАРКОВСКОЕ ПРЕДПОЛОЖЕНИЕ
		РЕШЕНИЕ ПРОБЛЕМЫ МАРКОВСКОГО ПРЕДПОЛОЖЕНИЯ В DQN
		ИГРА В BREAKOUT ПРИ ПОМОЩИ DQN
		СОЗДАНИЕ АРХИТЕКТУРЫ
		ЗАНЕСЕНИЕ КАДРОВ В СТЕК
		ЗАДАНИЕ ОБУЧАЮЩИХ ОПЕРАЦИЙ
		ОБНОВЛЕНИЕ ЦЕЛЕВОЙ Q-СЕТИ
		РЕАЛИЗАЦИЯ ПОВТОРЕНИЯ ОПЫТА
		ОСНОВНОЙ ЦИКЛ DQN
		РЕЗУЛЬТАТЫ DQNAGENT В BREAKOUT
	Улучшение и выход за пределы DQN
		ГЛУБОКИЕ РЕКУРРЕНТНЫЕ Q-СЕТИ (DRQN)
		ПРОДВИНУТЫЙ АСИНХРОННЫЙ АГЕНТ-КРИТИК (A3C)
		ПОДКРЕПЛЕНИЕ БЕЗ УЧИТЕЛЯ И ВСПОМОГАТЕЛЬНОЕ ОБУЧЕНИЕ (UNSUPERVISED REINFORCEMENT AND AUXILIARY LEARNING, UNREAL)
	Резюме
Примечания
Благодарности
Несколько слов об обложке
Об авторе




نظرات کاربران