Генеративное глубокое обучение. Как не мы рисуем картины, пишем романы и музыку

This document was uploaded by one of our users. The uploader already confirmed that they had the permission to publish it. If you are author/publisher or own the copyright of this documents, please report to us by using this DMCA report form.

Simply click on the Download Book button.

Yes, Book downloads on Ebookily are 100% Free.

Sometimes the book is free on Amazon As well, so go ahead and hit "Search on Amazon"

Генеративное моделирование — одна из самых обсуждаемых тем в области искусственного интеллекта. Машины можно научить рисовать, писать и сочинять музыку. Вы сами можете посадить искусственный интеллект за парту или мольберт, для этого достаточно познакомиться с самыми актуальными примерами генеративных моделей глубокого обучения: вариационными автокодировщиками, генеративно-состязательными сетями, моделями типа кодер-декодер и многим другим. Дэвид Фостер делает понятными и доступными архитектуру и методы генеративного моделирования, его советы и подсказки сделают ваши модели более творческими и эффективными в обучении. Вы начнете с основ глубокого обучения на базе Keras, а затем перейдете к самым передовым алгоритмам.

Author(s): Дэвид Фостер
Edition: 2
Publisher: Спринт Бук
Year: 2024

Language: Russian
Commentary: Publisher's PDF
Pages: 448
City: Астана
Tags: Machine Learning; Deep Learning; Reinforcement Learning; Python; Convolutional Neural Networks; Generative Adversarial Networks; Autoregression; Long Short-Term Memory; Variational Autoencoders; Transformers; Generative Art; GPT; GPT-3; Stable Diffusion; ChatGPT; GPT-4; Generative AI; Normalizing Flow Models; Energy-Based Models; Diffusion Models; Music Generation; DALL.E 2

Предисловие
Вступление
Цели и подходы
Предварительные условия
Структура издания
Изменения во втором издании
Прочие ресурсы
Условные обозначения
Примеры кода
Использование программного кода примеров
Благодарности
От издательства
ЧАСТЬ I. ВВЕДЕНИЕ В ГЕНЕРАТИВНОЕ ГЛУБОКОЕ ОБУЧЕНИЕ
Глава 1. Генеративное моделирование
Что такое генеративное моделирование
Генеративное и дискриминативное моделирование
Появление генеративного моделирования
Генеративное моделирование и ИИ
Наша первая генеративная модель
Привет мир!
Базовые принципы генеративного моделирования
Обучение представлению
Основы теории вероятностей
Классификация генеративных моделей
Код примеров генеративного глубокого обучения
Клонирование репозитория
Использование Docker
Применение графического процессора
Резюме
Глава 2. Глубокое обучение
Данные для глубокого обучения
Глубокие нейронные сети
Что такое нейронная сеть
Выявление высокоуровневых признаков
TensorFlow и Keras
Многослойный перцептрон
Подготовка данных
Конструирование модели
Компиляция модели
Обучение модели
Оценка модели
Сверточные нейронные сети (CNN)
Сверточные слои
Пакетная нормализация
Слои прореживания
Построение CNN
Обучение и оценка CNN
Резюме
ЧАСТЬ II. МЕТОДЫ
Глава 3. Вариационные автокодировщики
Введение
Автокодировщики
Набор данных Fashion-MNIST
Архитектура автокодировщика
Автокодировщик
Декодировщик
Объединение кодировщика и декодировщика
Реконструкция изображений
Визуализация скрытого пространства
Генерирование новых изображений
Вариационный автокодировщик
Кодировщик
Функция потерь
Обучение вариационного автокодировщика
Анализ вариационного автокодировщика
Исследование скрытого пространства
Набор данных CelebA
Обучение вариационного автокодировщика
Анализ вариационного автокодировщика
Генерирование новых лиц
Арифметика скрытого пространства
Преобразование одного лица в другое
Резюме
Глава 4. Генеративно-состязательные сети
Введение
Глубокая сверточная GAN
Набор данных Bricks
Дискриминатор
Генератор
Обучение DCGAN
Анализ DCGAN
Обучение GAN: советы и рекомендации
Дискриминатор получает подавляющее преимущество перед генератором
Генератор получает подавляющее преимущество перед дискриминатором
Неинформативные потери
Гиперпараметры
Решение проблем генеративно-состязательных сетей
Генеративно-состязательные сети Вассерштейна со штрафом за градиент
Функция потерь Вассерштейна
Ограничение Липшица
Реализация ограничения Липшица
Функция потерь со штрафом за градиент
Обучение WGAN-GP
Анализ WGAN-GP
Условные генеративно-состязательные сети
Архитектура CGAN
Обучение CGAN
Анализ CGAN
Резюме
Глава 5. Модели авторегрессии
Введение
Сети с долгой краткосрочной памятью
Набор данных Recipes
Работа с текстовыми данными
Лексемизация
Создание набора обучающих данных
Архитектура модели LSTM
Слой Embedding
Слой LSTM
Ячейка LSTM
Обучение LSTM
Анализ LSTM
Расширения RNN
Многослойные рекуррентные сети
Управляемые рекуррентные блоки
Двунаправленные ячейки
PixelCNN
Маскированные сверточные слои
Остаточные блоки
Обучение PixelCNN
Анализ PixelCNN
Смесь распределений
Резюме
Глава 6. Модели нормализующих потоков
Введение
Нормализующие потоки
Замена переменных
Определитель якобиана
Уравнение замены переменных
RealNVP
Набор данных Two Moons
Слои связи
Обучение модели RealNVP
Анализ модели RealNVP
Другие модели нормализующего потока
GLOW
FFJORD
Резюме
Глава 7. Модели на основе энергии
Введение
Модели на основе энергии
Набор данных MNIST
Функция энергии
Выборка с использованием динамики Ланжевена
Обучение с контрастивной дивергенцией
Анализ модели на основе энергии
Другие модели на основе энергии
Резюме
Глава 8. Модели диффузии
Введение
Модели удаления шума
Набор данных Flowers
Процесс прямой диффузии
Трюк с перепараметризацией
Режимы диффузии
Процесс обратной диффузии
Модель удаления шума U-Net
Обучение диффузионной модели
Выборка из диффузионной модели удаления шума
Анализ модели
Резюме
ЧАСТЬ III. ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ
Глава 9. Трансформеры
Введение
GPT
Набор данных Wine Reviews
Внимание
Запросы ключи и значения
Многоголовое внимание
Причинно-следственная маскировка
Блок трансформера
Позиционное представление
Обучение GPT
Анализ GPT
Другие трансформеры
T5
GPT-3 и GPT-4
ChatGPT
Резюме
Глава 10. Продвинутые GAN
Введение
ProGAN
Прогрессивное обучение
Выходы
StyleGAN
Сеть отображения
Синтезирующая сеть
Вывод сети StyleGAN
StyleGAN2
Модуляция и демодуляция весов
Регуляризация длины пути
Вывод сети StyleGAN2
Другие важные генеративно-состязательные сети
Self-Attention GAN
BigGAN
VQ-GAN
ViT VQ-GAN
Резюме
Глава 11. Генерирование музыки
Введение
Генерирование музыки с помощью модели трансформера
Набор данных JS Bach Cello Suite
Парсинг MIDI-файлов
Кодирование
Создание обучающего набора
Синусоидальное позиционное кодирование
Несколько входов и выходов
Анализ трансформера генерирования музыки
Генерирование полифонической музыки
MuseGAN
Набор данных Bach Chorale
Генератор MuseGAN
Критик MuseGAN
Анализ сети MuseGAN
Резюме
Глава 12. Модели мира
Введение
Обучение с подкреплением
CarRacing
Обзор модели мира
Архитектура
Обучение
Сбор данных в ходе случайных прогонов
Обучение VAE
Архитектура VAE
Анализ VAE
Сбор данных для обучения RNN
Обучение сети MDN-RNN
Архитектура сети MDN-RNN
Выборка следующего состояния и вознаграждения из MDN-RNN
Обучение контроллера
Архитектура контроллера
CMA-ES
Параллельное выполнение алгоритма CMA-ES
Обучение в мнимом окружении
Резюме
Глава 13. Мультимодальные модели
Введение
DALL.E 2
Архитектура
Кодировщик
CLIP
Модель выборки
Декодировщик
Примеры изображений сгенерированных моделью DALL.E 2
Imagen
Архитектура
DrawBench
Примеры изображений созданных Imagen
Stable Diffusion
Архитектура
Примеры изображений созданных Stable Diffusion
Flamingo
Архитектура
Vision Encoder
Perceiver Resampler
Языковая модель
Примеры использования Flamingo
Резюме
Глава 14. Заключение
Хронология генеративного ИИ
2014–2017 годы — эпоха VAE и GAN
2018–2019 годы — эпоха трансформеров
2020–2022 годы — эпоха больших моделей
Текущее состояние генеративного ИИ
Большие языковые модели
Модели преобразования текста в программный код
Модели преобразования текста в изображение
Другие приложения
Будущее генеративного ИИ
Генеративный ИИ в повседневной жизни
Генеративный ИИ на рабочем месте
Генеративный ИИ в образовании
Практические и этические проблемы генеративного ИИ
Заключительные комментарии
Ссылки
Об авторе
Иллюстрация на обложке