Многие формы восприятия и действий можно математически смоделировать с помощью вероятностного (байесовского) вывода – метода, используемого для получения выводов на основе неопределенных данных. Согласно этим моделям, сталкиваясь с зашумленными и неоднозначными данными, человеческий мозг ведет себя как талантливый специалист по обработке данных или следователь на месте преступления. Данная богатая примерами и иллюстрациями книга представляет собой введение в методологию построения и использования вероятностных моделей перцептивного принятия решений и действий.
Издание адресовано широкому кругу читателей, интересующихся нейробиологией, когнитивными науками, машинным обучением, психологией, лингвистикой и математикой.
Author(s): Вэй Цзи Ма, Конрад Кёрдинг, Дэниел Голдрайх
Publisher: ДМК Пресс
Year: 2024
Language: Russian
Pages: 458
City: М.
Содержание
От издательства
Благодарности
Четыре этапа байесовского моделирования
Сокращения
Введение
Восприятие как умозаключение
Классификация байесовских моделей
О чем эта книга не рассказывает
Заявление об ограниченном цитировании
В заключение
Глава 1. Неопределенность и вывод
Краткое содержание главы
1.1. Цель восприятия
1.2. Гипотезы и их вероятности
Это мой друг?
1.3. Сенсорный шум и неоднозначность восприятия
1.4. Байесовский вывод в зрительном восприятии
Восприятие влажности
Маскировка
1.5. Байесовский вывод в слуховом восприятии
Птицы на проводе
Мондегрин
1.6. Исторический обзор: восприятие как бессознательное умозаключение
1.7. Заключение
1.8. Рекомендуемая литература
1.9. Задачи
Глава 2. Применение правила Байеса
Краткое содержание главы
2.1. Этапы байесовского моделирования
Этап 1: порождающая модель
Этап 2а: вывод с использованием правила Байеса
2.2. Альтернативная форма правила Байеса
2.3. Площадное представление
Этап 2b: применение апостериорного распределения
2.4. Ошибка прокурора
2.5. Смена априорного убеждения: пример багажной карусели
2.6. Плоское априорное распределение: пример гештальт-восприятия
2.7. Оптимальность, эволюция и мотивы байесовского моделирования
2.8. Заключение
2.9. Рекомендуемая литература
2.10. Задачи
Глава 3. Байесовский вывод в условиях зашумленных измерений
Краткое содержание главы
3.1. Этапы байесовского моделирования
3.2. Этап 1: порождающая модель
3.2.1. Измерение: абстрактное сенсорное представление
3.2.2. Графовая модель
3.2.3. Распределение стимулов
3.2.4. Распределение измерений
3.2.5. Совместное распределение
3.3. Этап 2: вывод
3.3.1. Априорное распределение
3.3.2. Функция правдоподобия
3.3.3. Апостериорное распределение
3.3.4. Апостериорное среднее
3.3.5. Ширина апостериорного распределения
3.3.6. Оценка апостериорного среднего
3.3.7. Оценка MAP
3.4. Неопределенность и уверенность
3.4.1. Неопределенность
3.4.2. Байесовская уверенность
3.5. Несоответствие модели в выводе
3.5.1. Априорное несоответствие
3.5.2. Неудовлетворительные априорные распределения
3.6. Гетероскедастичность
3.7. Амплитудные переменные
3.8. Применение байесовских моделей
3.9. Восприятие
3.10. Заключение
3.11. Рекомендуемая литература
3.12. Задачи
Глава 4. Распределение отклика
Краткое содержание главы
4.1. Унаследованная изменчивость
4.2. Распределение отклика
4.3. Распределение убеждений или распределение отклика?
4.4. Оценка максимального правдоподобия
4.5. Смещение и среднеквадратичная ошибка
4.5.1. Перспектива «обратного смещения»
4.5.2. Все расходы оплачены
4.6. Другие оценки
4.7. Шум принятия решения и шум отклика
4.8. Заблуждения
4.9. Размышления о байесовских моделях
4.10. Заключение
4.11. Рекомендуемая литература
4.12. Задачи
Глава 5. Комбинация признаков и накопление свидетельств
Краткое содержание главы
5.1. Что такое объединение сигналов?
5.2. Формулировка байесовской модели
5.2.1. Этап 1: порождающая модель
5.2.2. Этап 2: вывод
5.2.3. Этап 3: оценка распределения
5.3. Искусственный конфликт сигналов
5.3.1. Различение распределений
5.4. Обобщения: априорные распределения, множественные сигналы
5.5. Накопление свидетельств
5.6. Объединение сигналов при неоднозначности
5.7. Применение объединения сигналов
5.8. Заключение
5.9. Рекомендуемая литература
5.10. Задачи
Глава 6. Обучение как вывод
Краткое содержание главы
6.1. Множество форм обучения
6.2. Изучение вероятности бинарного события
6.2.1. Прогноз
6.2.2. Уравнения обновления
6.2.3. Неопределенность
6.2.4. Биномиальное распределение
6.2.5. Неравномерное априорное распределение
6.3. Связь между байесовским обучением и обучением с подкреплением
6.4. Изучение точности нормального распределения
6.4.1. Почему бы не вывести дисперсию?
6.4.2. Прогноз
6.5. Изучение наклона линейной зависимости
6.6. Изучение структуры причинно-следственной модели
6.7. Другие формы обучения
6.8. Заключение
6.9. Рекомендуемая литература
6.10. Задача
Глава 7. Различение и обнаружение
Краткое содержание главы
7.1. Примеры задач
7.2. Различение
7.2.1. Этап 1: порождающая модель
7.2.2. Этап 2: вывод
7.2.3. Гауссова модель
7.2.4. Решающее правило с точки зрения измерения
7.2.5. Несколько задач могут иметь одно и то же байесовское решающее правило
7.2.6. Этап 3: распределение отклика
7.3. Обнаружение
7.4. Уверенность в решении
7.5. Дополнительные характеристики распределения откликов
7.5.1. Рабочая характеристика приемника
7.5.2. Различимость
7.6. Связь между байесовским выводом и теорией обнаружения сигналов
7.7. Промежуточные варианты
7.8. Заключение
7.9. Рекомендуемая литература
7.10. Задачи
Глава 8. Бинарная классификация
Краткое содержание главы
8.1. Примеры задач бинарной классификации
8.2. Порождающая модель
8.2.1. Зеркально симметричные распределения стимулов, обусловленные классами
8.3. Маргинализация
8.3.1. Сумма двух бросков кубика
8.3.2. Непрерывные переменные
8.3.3. Условная маргинализация
8.3.4. Использование порождающей модели
8.4. Вывод
8.5. Распределение отклика
8.6. Другие распределения стимулов, обусловленных классами
8.7. «Следуйте по стрелкам»
8.8. Заключение
8.9. Рекомендуемая литература
8.10. Задачи
Глава 9. Мешающие переменные верхнего уровня и неоднозначность
Краткое содержание главы
9.1. Примеры задач
9.2. Размер как мешающая переменная верхнего уровня в восприятии глубины сцены
9.3. Маргинализация
9.4. Цветовое зрение
9.5. Распознавание объектов
9.6. Заключение
9.7. Рекомендуемая литература
9.8. Задачи
Глава 10. Одинаковый или разный?
Краткое содержание главы
10.1. Примеры задач
10.2. Бинарные стимулы
10.2.1. Этап 1: порождающая модель
10.2.2. Этап 2: вывод
10.2.3. Этап 3: оценка распределения
10.3. Непрерывные стимулы
10.3.1. Этап 1: порождающая модель
10.3.2. Этап 2: вывод
10.3.3. Этап 3: вероятность отклика
10.3.4. Пересмотр этапа 2: вывод стимулов
10.4. Оценка сходства нескольких элементов
10.5. Организация восприятия
10.5.1. Формирование контура
10.5.2. Пересекающиеся линии
10.6. Заключение
10.7. Рекомендуемая литература
10.8. Задачи
Глава 11. Поиск
Краткое содержание главы
11.1. Разнообразие форм зрительного поиска
11.2. Локализация цели при маскировке
11.3. Локализация цели с помощью зашумленных измерений
Особый случай: одно целевое значение, одно отвлекающее значение
11.4. Обнаружение цели при маскировке
11.5. Обнаружение цели с помощью зашумленных измерений
11.6. Применение
11.7. Заключение
11.8. Рекомендуемая литература
11.9. Задачи
Глава 12. Вывод в меняющемся мире
Краткое содержание главы
12.1. Отслеживание непрерывно меняющегося состояния мира
12.1.1. Этап 1: порождающая модель
12.1.2. Этап 2: вывод
12.2. Обнаружение точки изменения
12.2.1. Единственная точка изменения
12.2.2. Случайные точки изменения
12.2.3. Более реалистичное обнаружение точки изменения
12.3. Заключение
12.4. Рекомендуемая литература
12.5. Задачи
Глава 13. Сочетание вывода с полезностью
Краткое содержание главы
13.1. Примеры задач
13.2. Выбор между двумя действиями
13.3. Выбор между несколькими действиями
13.4. Математическое определение ожидаемой полезности
13.4.1. Бинарная классификация
13.4.2. Непрерывная оценка
13.5. Функции затрат «чистого восприятия»
13.5.1. Дискретные задачи
13.5.2. Непрерывная оценка
13.5.3. Восприятие и действие
13.6. Что значит принятие оптимального решения
13.7. Усложненные ситуации
13.7.1. Функции стоимости для неопределенных результатов
13.7.2. Нелинейная зависимость между вознаграждением и полезностью
13.7.3. Искажения вероятности
13.7.4. Шум принятия решения
13.8. Применение
13.8.1. Зрительное различение
13.8.2. Целенаправленные движения
13.8.3. Поощряемые доверительные интервалы
13.8.4. Вывод функций полезности
13.9. Заключение
13.10. Рекомендуемая литература
13.11. Задачи
Глава 14. Нейронная функция правдоподобия
Краткое содержание главы
14.1. Порождающая модель активности одиночного нейрона
14.2. Нейронная функция правдоподобия для одного нейрона
14.2.1 Случай 1: колоколообразная настроечная кривая
14.2.2. Случай 2: монотонная настроечная кривая
14.3. Нейронная функция правдоподобия, основанная на популяции нейронов
14.4. Упрощенная модель
14.5. Связь между концепциями абстрактной и нейронной моделей
14.6. Использование нейронной функции правдоподобия для вычислений
14.7. Нейронная реализация байесовских вычислений
14.8. Применение байесовских вычислений
14.9. Заключение
14.10. Рекомендуемая литература
14.11. Задачи
Глава 15. Байесовские модели в контексте
Краткое содержание главы
15.1. Байесовское и оптимальное поведение
15.2. Чрезмерно сильные заявления об оптимальности
15.3. Почему одни модели поведения оптимальны, а другие нет
15.4. Байесовские модели не являются механистическими
15.5. Байесовский перенос
15.6. Вероятностные вычисления и гибридные модели
15.7. Сложность реального мира
15.8. Как стать настоящим байесовцем
15.9. Рекомендуемая литература
Приложение А. Обозначения
Распределения вероятностей
Математическое ожидание
Гауссово распределение
Приложение В. Основы теории вероятностей
B.1. Объективная и субъективная вероятности
B.2. Смысловое толкование вероятности
B.3. Дополняющее событие
B.4. Представление в виде диаграммы Венна
B.5. Случайные величины и их распределения
B.5.1. Сравнение дискретных и непрерывных случайных величин
B.5.2. Суммарная вероятность всегда равна 1
B.5.3. Дискретные распределения вероятности
B.5.4. Непрерывные распределения вероятности
B.5.5. Формальное определение функции плотности вероятности
B.5.6. Нормирование
B.6. Среднее значение, дисперсия и математическое ожидание
B.7. Нормальное распределение
B.7.1. Определение
B.7.2. Центральная предельная теорема
B.7.3. Произведение двух нормальных распределений
B.7.4. Произведение нескольких нормальных распределений
B.7.5. Интегральное нормальное распределение
B.7.6. Распределение фон Мизеса
B.8. Дельта-функция
B.9. Распределение Пуассона
B.10. Выборка из распределения вероятностей
B.11. Распределения, включающие несколько переменных
B.11.1. Совместная вероятность
B.11.2. Маргинализация
B.11.3. Условная вероятность
B.11.4. Независимость
B.11.5. Правило Байеса
B.12. Функции случайных величин
B.12.1. Функции одной переменной: изменение переменных
B.12.2. Пример с яблоками
B.12.3. Обязательство неведения
B.12.4. Математическое представление маргинализации
B.12.5. Функции нескольких переменных
B.13. Задачи
Приложение С. Подбор параметров и сравнение моделей
C.1. Что такое модель?
C.2. Свободные параметры
C.3. Вероятность параметра
C.4. Оценка максимального правдоподобия
C.5. Подбор параметров по данным из задачи оценки
C.5.1. Простая модель
Метод 1: аналитический расчет
Метод 2: поиск по сетке
Метод 3: алгоритм численной оптимизации
Проверка модели
C.5.2. Более удачная модель
C.5.3. Сравнение моделей
C.5.4. Тест отношения правдоподобия
C.5.5. Перекрестная проверка
C.5.6. Сопоставление методов сравнения моделей
C.5.7. Восстановление параметров и восстановление модели
C.5.8. Ограничения сравнения моделей
C.6. Абсолютное качество подгонки
C.7. Подбор параметров модели по данным в задаче различения
C.7.1. Простая модель
C.7.2. Более удачная модель?
C.8. Подбор параметров модели по данным в задаче классификации
C.9. Правильный план эксперимента для байесовского моделирования
C.10. Рекомендуемая литература
C.11. Задачи
Библиография
Предметный указатель