Глубокое обучение без математики. Основы

This document was uploaded by one of our users. The uploader already confirmed that they had the permission to publish it. If you are author/publisher or own the copyright of this documents, please report to us by using this DMCA report form.

Simply click on the Download Book button.

Yes, Book downloads on Ebookily are 100% Free.

Sometimes the book is free on Amazon As well, so go ahead and hit "Search on Amazon"

Эта книга не похожа на большинство других учебников и руководств по глубокому обучению – в ней нет ни детального алгоритмического анализа, сопровождаемого обширной математикой, ни развернутых листингов программного кода. Автор выбрал золотую середину — благодаря дружелюбному подходу, сопровождаемому огромным количеством цветных иллюстраций, а также детальному и скрупулезному описанию он глубоко освещает основополагающие идеи и фундаментальные основы глубокого обучения и нейронных сетей. Издание предназначено для всех читателей, кто хочет использовать глубокое обучение и нейронные сети в своей работе. Продолжение книги будет посвящено практическому воплощению алгоритмов глубокого обучения и выйдет в издательстве «ДМК Пресс» летом 2019 года.

Author(s): Эндрю Гласснер
Edition: 1
Publisher: ДМК Пресс
Year: 2019

Language: Russian
Commentary: True PDF
Pages: 578
City: М.
Tags: Neural Networks; Deep Learning; Unsupervised Learning; Reinforcement Learning; Regression; Supervised Learning; Python; Generative Adversarial Networks; Bayesian Inference; Classification; Clustering; Naive Bayes; Statistics; Gradient Descent; Regularization; scikit-learn; Ensemble Learning; Probability Theory; Overfitting; Underfitting; Random Forest; Dimensionality Reduction; Activation Functions; Bagging; Back-propagation; Feed-forward Neural Networks; Information Theory; Learning Rate

Глубокое обучение без математики Основы_переплет
Глубокое обучение без математики_Основы.pdf
Добро пожаловать!
Введение в машинное обучение и глубокое обучение
1.1. Зачем здесь эта глава
1.1.1. Извлечение значащей информации из данных
1.1.2. Экспертные системы
1.2. Изучение маркированных данных
1.2.1. Стратегия обучения
1.2.2. Стратегия компьютерного обучения
1.2.3. Обобщение
1.2.4. Более внимательный взгляд на обучение
1.3. Наблюдаемое обучение
1.3.1. Классификация
1.3.2. Регрессия
1.4. Ненаблюдаемое обучение
1.4.1. Кластеризация
1.4.2. Подавление шума
1.4.3. Уменьшение размерности
1.5. Генераторы
1.6. Усиленное обучение
1.7. Глубокое обучение
1.8. Что последует дальше
Справочные материалы
Заимствованные рисунки
Хаотичность и базовая статистика
2.1. Зачем здесь эта глава
2.2. Случайные переменные
2.2.1. Случайные числа на практике
2.3. Некоторые общеупотребительные распределения
2.3.1. Равномерное распределение
2.3.2. Нормальное распределение
2.3.3. Распределение Бернулли
2.3.4. Мультиномиальное распределение
2.3.5. Ожидаемые величины
2.4. Зависимость
2.4.1. Независимые, одинаково распределенные переменные
2.5. Выбор и возврат
2.5.1. Выбор с возвращением
2.5.2. Выбор без возвращения
2.5.3. Осуществление выбора
2.6. Оценка ошибки обобщения
2.7. Многомерные пространства
2.8. Ковариация и корреляция
2.8.1. Ковариация
2.8.2. Корреляция
2.9. Квартет Энскомба
Справочные материалы
Вероятность
3.1. Почему здесь эта глава
3.2. Броски дротика
3.3. Простая вероятность
3.4. Условная вероятность
3.5. Совместные распределения
3.6. Маргинальная вероятность
3.7. Корректность измерений
3.7.1. Классификация выборок
3.7.2. Матрица ошибок
3.7.3. Интерпретация матрицы ошибок
3.7.4. Когда неправильная классификация хороша
3.7.5. Точность
3.7.6. Достоверность
3.7.7. Чувствительность
3.7.8. О достоверности и чувствительности
3.7.9. Другие критерии
3.7.10. Совместное использование достоверности и чувствительности
3.7.11. f1 счет
3.8. Применение матрицы ошибок
Справочные материалы
Правило Байеса
4.1. Почему здесь эта глава
4.2. Частотная и байесовская вероятности
4.2.1. Частотный подход
4.2.2. Байесовский подход
4.2.3. Обсуждение
4.3. Подбрасывание монеты
4.4. Это несмещенная монета?
4.4.1. Правило Байеса
4.4.2. Замечания по поводу правила Байеса
4.5. Поиски жизни
4.6. Повторные применения правила Байеса
4.6.1. Цикл постериор–приор
4.6.2. Пример: какую монету мы имеем?
4.7. Множественные гипотезы
Справочные материалы
Кривые и поверхности
5.1. Почему здесь эта глава
5.2. Введение
5.3. Производная
5.4. Градиент
Справочные материалы
Теория информации
6.1. Почему эта глава здесь
6.1.1. Информация: одно слово, два значения
6.2. Удивление и контекст
6.2.1. Удивление
6.2.2. Контекст
6.3. Бит как единица информации
6.4. Измерение информации
6.5. Размер события
6.6. Адаптивные коды
6.7. Энтропия
6.8. Кросс-энтропия
6.8.1. Два адаптивных кода
6.8.2. Смешение кодов
6.9. Расходимость
Справочные материалы
Классификация
7.1. Почему здесь эта глава
7.2. Двумерная классификация
7.2.1. 2D-бинарная классификация
7.3. 2D-классификация со многими классами
7.4. Бинарная категоризация со многими классами
7.4.1. Один против остальных
7.4.2. Один против одного
7.5. Кластеризация
7.6. Проклятие размерности
7.6.1. Особенности большой размерности
Справочные материалы
Обучение и тестирование
8.1. Почему здесь эта глава
8.2. Обучение
8.2.1. Тестирование характеристик
8.3. Тестовые данные
8.4. Поверочные данные
8.5. Кросс-валидация
8.5.1. k-кратная валидация
8.6. Использование результатов тестирования
Справочные материалы
Заимствованные изображения
Избыточное обучение и недостаточное обучение
9.1. Почему здесь эта глава
9.2. Избыточность и недостаточность
9.2.1. Избыточность
9.2.2. Недостаточность
9.3. Избыточные данные
9.4. Преждевременная остановка
9.5. Регуляризация
9.6. Смещение и дисперсия
9.6.1. Аппроксимация базовых данных
9.6.2. Большое смещение, маленькая дисперсия
9.6.3. Маленькое смещение, большая дисперсия
9.6.4. Сравнение кривых
9.7. Аппроксимация по правилу Байеса
Справочные материалы
Нейроны
10.1. Почему здесь эта глава
10.2. Реальные нейроны
10.3. Искусственные нейроны
10.3.1. Персептрон
10.3.2. История персептрона
10.3.3. Современные искусственные нейроны
10.4. Заключение
Справочные материалы
Обучение и мышление
11.1. Почему здесь эта глава
11.2. Ступени обучения
11.2.1. Представление
11.2.2. Оценка
11.2.3. Оптимизация
11.3. Дедукция и индукция
11.4. Дедукция
11.4.1. Ошибки категориальных силлогизмов
11.5. Индукция
11.5.1. Термины индукции в машинном обучении
11.5.2. Ошибки индукции
11.6. Объединенные умозаключения
11.6.1. Шерлок Холмс, «мастер дедукции»
11.7. Стимуляция адаптивного поведения
Справочные материалы
Подготовка данных
12.1. Почему здесь эта глава
12.2. Преобразование данных
12.3. Типы данных
12.3.1. Кодирование с использованием индивидуальных переменных
12.4. Базовая очистка данных
12.4.1. Очистка данных
12.4.2. Очистка данных на практике
12.5. Нормализация и стандартизация
12.5.1. Нормализация
12.5.2. Стандартизация
12.5.3. Запоминание преобразований
12.5.4. Типы преобразований
12.6. Выбор характеристик
12.7. Уменьшение размерности
12.7.1. Анализ главных компонентов (PCA)
12.7.2. Стандартизация и PCA для изображений
12.8. Преобразования
12.9. Фрагментарная обработка
12.9.1. Обработка по выборкам
12.9.2. Обработка по характеристикам
12.9.3. Обработка по элементам
12.10. Преобразование с кросс-валидацией
Справочные материалы
Заимствованные изображения
Классификаторы
13.1. Почему здесь эта глава
13.2. Типы классификаторов
13.3. Алгоритм k-ближайших соседей (KNN)
13.4. Метод опорных векторов (SVM)
13.5. Деревья решений
13.5.1. Построение деревьев
13.5.2. Разделение узлов
13.5.3. Контроль избыточного обучения
13.6. Наивный Байес
13.7. Обсуждение
Справочные материалы
Ансамбли
14.1. Почему здесь эта глава
14.2. Ансамбли
14.3. Голосование
14.4. Бутстрап-агрегация
14.5. Случайные леса
14.6. Экстра-деревья
14.7. Бустинг
Справочные материалы
Библиотека Scikit-learn
15.1. Почему здесь эта глава
15.2. Введение
15.3. Конвенции Питона
15.4. Оценщик
15.4.1. Создание объекта
15.4.2. Обучение с fit()
15.4.3. Предсказание с predict()
15.4.4. Функции decision_function(), predict_proba()
15.5. Кластеризация
15.6. Преобразования
15.6.1. Инверсные преобразования
15.7. Очистка данных
15.8. Ансамбли
15.9. Автоматизация
15.9.1. Кросс-валидация
15.9.2. Поиск гиперпараметров
15.9.3. Исчерпывающая решетка поиска
15.9.4. Случайная поисковая решетка
15.9.5. Конвейер
15.9.6. Граница решения
15.9.7. Конвейерные преобразования
15.10. Множества данных
15.11. Утилиты
15.12. Завершение
Справочные материалы
Нейронные сети прямого распространения
16.1. Почему здесь эта глава
16.2. Графики нейронных сетей
16.3. Синхронные и асинхронные потоки
16.3.1. Графы в практике
16.4. Инициализация весов
16.4.1. Инициализация
Справочные материалы
Функции активации
17.1. Почему здесь эта глава
17.2. Что делает функция активации
17.2.1. Формы функций активации
17.3. Основные функции активации
17.3.1. Линейные функции
17.3.2. Лестничная функция
17.4. Ступенчатые функции
17.5. Кусочно-линейные функции
17.6. Гладкие функции
17.7. Галерея функций активации
17.8. Софтмакс
Справочные материалы
Обратное распространение
18.1. Почему здесь эта глава
18.1.1. О тонкости настройки
18.2. Очень медленный способ обучения
18.2.1. Медленный способ обучения
18.2.2. Более быстрый способ обучения
18.3. Без функций активации
18.4. Выходы нейронов и ошибка сети
18.4.1. Пропорциональность изменения ошибок
18.5. Маленькая нейронная сеть
18.6. Шаг 1: дельты для выходных нейронов
18.7. Шаг 2: использование дельт для изменения весов
18.8. Шаг 3: дельты других нейронов
18.9. Обратное распространение в действии
18.10. Использование функций активации
18.11. Скорость обучения
18.11.1. Исследование скорости обучения
18.12. Обсуждение
18.12.1. Обратное распространение одной диаграммой
18.12.2. Что обратное распространение не делает
18.12.3. Что обратное распространение делает
18.12.4. Поддержка нейрона
18.12.5. Мини-пакеты
18.12.6. Параллельное обновление
18.12.7. Чем привлекательно обратное распространение
18.12.8. Обратное распространение не гарантировано
18.12.9. Немного истории
18.12.10. Погружение в математику
Справочные материалы
Оптимизаторы
19.1. Почему здесь эта глава
19.2. Геометрия ошибки
19.2.1. Минимумы, максимумы, плато и седла
19.2.2. Двумерная кривая ошибки
19.3. Настройка скорости обучения
19.3.1. Обновления постоянного размера
19.3.2. Изменение скорости обучения в процессе обучения
19.3.3. Расписание затуханий
19.4. Стратегии обновления
19.4.1. Пакетный градиентный спуск
19.4.2. Стохастический градиентный спуск
19.4.3. Мини-пакетный градиентный спуск
19.5. Варианты градиентного спуска
19.5.1. Метод импульса
19.5.2. Импульс Нестерова
19.5.3. Adagrad (Адаптивное градиентное обучение, Адаград)
19.5.4. Ададельта и Среднеквадратичное распространение (RMSprop)
19.5.5. Адам
19.6. Выбор оптимизатора
Справочные материалы