Глубокие нейронные сети (DNN) становятся неотъемлемой частью IT-продуктов, провоцируя появление нового направления кибератак. Хакеры пытаются обмануть нейросети с помощью данных, которые не смогли бы обмануть человека.
Кэти Уорр рассматривает мотивацию подобных атак, риски, которые влечет вредоносный ввод, а также методы повышения устойчивости ИИ к таким взломам. Если вы специалист по data science, архитектор системы безопасности и стремитесь повысить устойчивость систем с ИИ или вас просто интересует различие между искусственным и биологическим восприятием, то эта книга для вас.
Author(s): Кэти Уорр
Series: Бестселлеры O’Reilly
Edition: 1
Publisher: Питер
Year: 2021
Language: Russian
Commentary: Vector PDF
Pages: 272
City: СПб.
Tags: Machine Learning; Deep Learning; Video; Image Processing; Security; Adversarial Machine Learning; Python; TensorFlow; NumPy; matplotlib; Audio; Threat Models; Adversarial Input
Предисловие
Для кого предназначена книга
Структура издания
Условные обозначения
Использование примеров программного кода
Математические обозначения
Благодарности
От издательства
Часть I. Общие сведения
об обмане искусственного интеллекта
Глава 1. Введение
Неглубокий обзор глубокого обучения
Очень краткая история глубокого обучения
Неожиданное открытие: «оптические иллюзии» искусственного интеллекта
Что такое вредоносные входные данные
Вредоносное искажение
Неестественные вредоносные входные данные
Вредоносная заплатка
Вредоносные образы в физическом мире
Вредоносное машинное обучение в более широком смысле
Последствия воздействия вредоносных входных данных
Глава 2. Мотивация к атакам
Обход веб-фильтров
Репутация в Интернете и управление брендом
Камуфляж против видеонаблюдения
Личная конфиденциальность в Интернете
Дезориентация автономных транспортных средств
Устройства с голосовым управлением
Глава 3. Основные понятия ГНС
Машинное обучение
Концептуальные основы глубокого обучения
Модели ГНС как математические функции
Входные и выходные данные ГНС
Внутреннее содержимое ГНС и обработка с прямым распространением
Как обучается ГНС
Создание простого классификатора изображений
Глава 4. ГНС-обработка изображений, аудио- и видеоданных
Изображения
Цифровое представление изображений
ГНС для обработки изображений
Общие сведения о сверточных нейронных сетях
Аудиоданные
Цифровое представление аудиоданных
ГНС для обработки аудиоданных
Общие сведения о рекуррентных нейронных сетях
Обработка речи
Видеоданные
Цифровое представление видеоданных
ГНС для обработки видеоданных
Соображения о вредоносности
Классификация изображений с помощью сети ResNet50
Часть II. Генерация вредоносных входных данных
Глава 5. Базовые принципы вредоносных входных данных
Входное пространство
Обобщение обучающих данных
Эксперименты с данными вне распределения
Что «думают» ГНС
Искажающая атака: максимальный эффект при минимальном изменении
Вредоносная заплатка: максимальное отвлечение внимания
Оценка выявляемости атак
Математические методы оценки искажения
Особенности человеческого восприятия
Резюме
Глава 6. Методы генерации вредоносных искажений
Методы белого ящика
Поиск во входном пространстве
Использование линейности модели
Вредоносная значимость
Повышение надежности вредоносного искажения
Разновидности методов белого ящика
Методы ограниченного черного ящика
Методы черного ящика с оценкой
Резюме
Часть III. Понимание реальных угроз
Глава 7. Схемы атак против реальных систем
Схемы атак
Прямая атака
Атака с копированием
Атака с переносом
Универсальная атака с переносом
Многократно используемые заплатки и искажения
Сводим все вместе: комбинированные методы и компромиссы
Глава 8. Атаки в физическом мире
Вредоносные объекты
Изготовление объекта и возможности камеры
Углы обзора и окружение
Вредоносный звук
Возможности микрофона и системы воспроизведения
Положение аудиосигнала и окружение
Осуществимость атак с использованием физических вредоносных образов
Часть IV. Защита
Глава 9. Оценка устойчивости модели к вредоносным входным данным
Цели, возможности, ограничения и знания злоумышленника
Цели
Возможности, осведомленность и доступ
Оценка модели
Эмпирические метрики устойчивости
Теоретические метрики устойчивости
Резюме
Глава 10. Защита от вредоносных входных данных
Улучшение модели
Маскирование градиентов
Вредоносное обучение
OoD-обучение
Оценка неопределенности случайного отсева
Предварительная обработка данных
Предварительная обработка в общей последовательности обработки
Интеллектуальное удаление вредоносного контента
Сокрытие информации о целевой системе
Создание эффективных механизмов защиты от вредоносных входных данных
Открытые проекты
Получение общей картины
Глава 11. Дальнейшие перспективы: повышение надежности ИИ
Повышение устойчивости за счет распознавания контуров
Мультисенсорные входные данные
Вложенность и иерархия объектов
В заключение
Приложение. Справочник математических обозначений
Об авторе
Об обложке