Вероятностное программирование на Python: байесовский вывод и алгоритмы

This document was uploaded by one of our users. The uploader already confirmed that they had the permission to publish it. If you are author/publisher or own the copyright of this documents, please report to us by using this DMCA report form.

Simply click on the Download Book button.

Yes, Book downloads on Ebookily are 100% Free.

Sometimes the book is free on Amazon As well, so go ahead and hit "Search on Amazon"

Байесовские методы пугают формулами многих «айтишников», но без анализа статистики и вероятностей сейчас не обойтись. Кэмерон Дэвидсон-Пайлон рассказывает о байесовском методе с точки зрения программиста-практика, работающего с многофункциональным языком PyMC и библиотеками NumPy, SciPy и Matplotlib. Раскрывая роль байесовских выводов при А/В-тестировании, выявлении мошенничества и в других насущных задачах, вы не только легко разберетесь в этой нетривиальной теме, но и начнете применять полученные знания для достижения своих целей. https://github.com/CamDavidsonPilon/Probabilistic-Programming-and-Bayesian-Methods-for-Hackers

Author(s): Кэмерон Дэвидсон-Пайлон
Series: Библиотека программиста
Publisher: Питер
Year: 2019

Language: Russian
Pages: 256
City: СПб.
Tags: python

Краткое содержание
Оглавление
Предисловие
Введение
Об авторе
Благодарности
От издательства
Глава 1. Философия байесовского вывода
1.1. Введение
1.1.1. Байесовское мышление
1.1.2. Байесовский вывод на практике
1.1.3. Корректны ли фреквентистские методы?
1.1.4. О проблеме больших данных
1.2. Понятийный аппарат байесовского подхода
1.2.1. Пример: подбрасывание монетки (куда же без него)
1.2.2. Пример: библиотекарь или фермер?
1.3. Распределения вероятностей
1.3.1. Дискретный случай
1.3.2. Непрерывный случай
1.3.3. Но что такое λ?
1.4. Использование компьютеров для автоматического байесовского вывода
1.4.1. Пример: вывод поведения на основе данных по обмену текстовыми сообщениями
1.4.2. Наш первый инструмент: PyMC
1.4.3. Толкование результатов
1.4.4. Какую пользу могут принести выборки из апостериорного распределения?
1.5. Выводы
1.6. Приложение
1.6.1. Статистическое определение фактического различия двух параметров λ
1.6.2. Обобщаем на случай двух точек ветвления
1.7. Упражнения
1.7.1. Ответы
1.8. Библиография
Глава 2. Еще немного о PyMC
2.1. Введение
2.1.1. Связи «предок — потомок»
2.1.2. Переменные PyMC
Инициализация стохастических переменных
Вызов метода random()
Детерминистические переменные
2.1.3. Учет наблюдений в модели
2.1.4. И наконец...
2.2. Подходы к моделированию
2.2.1. Та же история, но с другой концовкой
2.2.2. Пример: байесовское A/B-тестирование
2.2.3. Простой случай
2.2.4. A и B вместе
2.2.5. Пример: алгоритм обнаружения мошенничества
2.2.6. Биномиальное распределение
2.2.7. Пример: мошенничество среди студентов
2.2.8. Альтернативная модель PyMC
2.2.9. Еще несколько хитростей PyMC
Совет от профи: упрощение создания детерминистических переменных с помощью класса Lambda
Совет от профи: массивы переменных PyMC
2.2.10. Пример: катастрофа космического челнока «Челленджер»
2.2.11. Нормальное распределение
2.2.12. Что произошло в день катастрофы «Челленджера»
2.3. Адекватна ли наша модель?
2.3.1. Разделительные графики
2.4. Заключение
2.5. Приложение
2.6. Упражнения
2.6.1. Ответы
2.7. Библиография
Глава 3. Открываем «черный ящик» MCMC
3.1. Байесовский ландшафт
3.1.1. Изучаем ландшафт с помощью MCMC
3.1.2. Алгоритмы для MCMC
3.1.3. Другие приближенные методы поиска апостериорных распределений
3.1.4. Пример: кластеризация без учителя с использованием смеси распределений
3.1.5. Не смешивайте апостериорные выборки
3.1.6. Использование MAP для улучшения сходимости
3.2. Диагностика проблем со сходимостью
3.2.1. Автокорреляция
3.2.2. Прореживание
3.2.3. Функция pymc.Matplot.plot()
3.3. Полезные советы по поводу MCMC
3.3.1. Интеллектуальный выбор начальных значений
3.3.2. Априорные распределения
3.3.3. Народная теорема статистических расчетов
3.4. Выводы
3.5. Библиография
Глава 4. Величайшая из несформулированных теорем
4.1. Введение
4.2. Закон больших чисел
4.2.1. Интуиция
4.2.2. Пример: сходимость пуассоновских случайных переменных
4.2.3. Как вычислить Var(Z)
4.2.4. Математические ожидания и вероятности
4.2.5. Какое отношение все это имеет к байесовской статистике
4.3. Некорректная работа при малых числах
4.3.1. Пример: агрегированные географические данные
4.3.2. Пример: конкурс Kaggle (перепись населения США)
4.3.3. Пример: сортировка комментариев на Reddit
4.3.4. Сортировка
4.3.5. Но для режима реального времени это слишком медленно!
4.3.6. Расширение на системы оценки с присвоением звезд
4.4. Выводы
4.5. Приложение
4.5.1. Дифференцирование формулы сортировки комментариев
4.6. Упражнения
4.6.1. Ответы
4.7. Библиография
Глава 5. Что лучше: потерять руку или ногу?
5.1. Введение
5.2. Функции потерь
5.2.1. Функции потерь на практике
5.2.2. Пример: оптимизация для раунда «Витрина» в викторине «Справедливая цена»
5.3. Машинное обучение с помощью байесовских методов
5.3.1. Пример: предсказание финансовых показателей
5.3.2. Пример: конкурс Kaggle по поиску темной материи
5.3.3. Данные
5.3.4. Априорные распределения
5.3.5. Обучение и PyMC-реализация
5.4. Выводы
5.5. Библиография
Глава 6. Расставляем приоритеты
6.1. Введение
6.2. Субъективные и объективные априорные распределения
6.2.1. Объективные априорные распределения
6.2.2. Субъективные априорные распределения
6.2.3. Выбираем, выбираем...
6.2.4. Эмпирическая байесовская оценка
6.3. Некоторые полезные априорные распределения
6.3.1. Гамма-распределение
6.3.2. Распределение Уишарта
6.3.3. Бета-распределение
6.4. Пример: байесовские многорукие бандиты
6.4.1. Приложения
6.4.2. Предлагаемое решение
6.4.3. Мера качества
6.4.4. Обобщения алгоритма
6.5. Сбор информации для априорных распределений у специалистов по предметной области
6.5.1. Метод рулетки испытаний
6.5.2. Пример: биржевая прибыль
6.5.3. Советы от профи по поводу распределения Уишарта
6.6. Сопряженные априорные распределения
6.7. Априорное распределение Джеффриса
6.8. Влияние априорных распределений при изменении N
6.9. Выводы
6.10. Приложение
6.10.1. Байесовская точка зрения на линейную регрессию со штрафом
6.10.2. Выбор вырожденного априорного распределения
6.11. Библиография
Глава 7. A/B-тестирование
7.1. Введение
7.2. Краткое резюме вышеприведенного A/B-тестирования конверсий
7.3. Добавляем линейную функцию потерь
7.3.1. Анализ ожидаемой выручки
7.3.2. Обобщение на случай A/B-эксперимента
7.4. Выходим за рамки конверсий: тест Стьюдента
7.4.1. Схема теста Стьюдента
7.5. Оценка показателя роста
7.5.1. Создание точечных оценок
7.6. Выводы
7.7. Библиография
Глоссарий