Pratique du calcul bayésien (Statistique et probabilités appliquées)

This document was uploaded by one of our users. The uploader already confirmed that they had the permission to publish it. If you are author/publisher or own the copyright of this documents, please report to us by using this DMCA report form.

Simply click on the Download Book button.

Yes, Book downloads on Ebookily are 100% Free.

Sometimes the book is free on Amazon As well, so go ahead and hit "Search on Amazon"

La première partie de cet ouvrage privilégie les modèles statistiques paramétriques calculables «à la main». Dès le premier chapitre, la représentation du modèle par un graphe acyclique orienté permet de distinguer clairement la phase où la créativité du chercheur s’exprime de celle où il calcule. À cette fin, le logiciel libre WinBUGS sera très utile à l’apprenti modélisateur. La seconde partie présente des applications réelles qui nécessitent d’introduire une couche de variables latentes entre les observables et les paramètres. Conduire une inférence bayésienne sur ces modèles hiérarchiques implique un recours intensif aux méthodes modernes de calcul et mobilise donc « la souris » de l’ordinateur. Les étudiants et chercheurs désireux de s’initier au calcul bayésien avec des visées opérationnelles trouveront de nombreux exemples illustrant les raisonnements sous-jacents. Le lecteur qui souhaiterait approfondir ses connaissances trouvera deux ouvrages de référence publiés dans la même collection.

Author(s): Jean-Jacques Boreux, Eric Parent, Jacques Bernier
Edition: 1st Edition.
Publisher: Springer Verlag France
Year: 2009

Language: French
Pages: 336

Title Page......Page 4
Copyright Page......Page 5
Préface......Page 8
Avant-propos......Page 10
Table of Contents......Page 13
Table des illustrations......Page 19
Liste des tableaux......Page 22
Premiere partie.
De la plume.........Page 24
1.1 Le travail du statisticien......Page 25
1.2 Deux écoles pour l'inférence statistique......Page 27
1.2.1 L'école classique......Page 29
1.2.2 L'école bayésienne......Page 31
1.3 L'analyse statistique bayésienne......Page 33
1.3.2 La distribution prédictive a posteriori......Page 34
1.3.3 Application numérique......Page 37
1.4 Le choix bayésian......Page 38
1.4.1 Un procédé contestable?......Page 39
1.4.2 Avantages......Page 40
Epilogue......Page 41
2.1.1 Les faits......Page 43
2.1.3 Un problème de décision......Page 44
2.1.4 Quel(s) modèle(s) d'échantillonnage?......Page 45
2.2.1 Le processus de Bernoulli......Page 46
2.2.2 Le processus ponctuel de Poisson......Page 47
Choix du prior et application de la règie de Bayes......Page 49
Comment déterminer les hyperpararnetres d 'un prior bêta?......Page 50
La distribution prédictive a posteriori......Page 51
La distribution a posteriori......Page 52
La distribution prédictive a posteriori......Page 53
Épilogue......Page 54
3.1 Introduction......Page 55
3.1.1 Une courte digression......Page 56
3.2.1 L'indépendance conditionnelle......Page 58
3.2.2 Du réseau bayésien à la loi conjointe......Page 60
Deux propriétés markoviennes......Page 61
3.2.3 DAG et variables latentes......Page 62
3.3.2 La modélisation......Page 63
Un premier modèle d'échantdllonnage mime la collecte des données......Page 64
Capture et recapture par un échantillonnage multinomial......Page 66
Estimation de l'incidence de la tuberculose pédiatr'ique en Basse-Normandie......Page 67
Évaluation de l'incidence du paludisme dans les armées françaises en 1994......Page 68
Épilogue......Page 69
4.1 Introduction......Page 71
4.2 Quand Ia vraisemblance fait Ie posterior......Page 74
Le paramètre du modèle d'échantillonnage est unidimensionnel......Page 75
Le paramètre du modèle d'échantillonnage est multidimensionnel......Page 78
4.2.2 Fondements de ces approximations......Page 79
4.2.3 Estimation asymptotique des paramètres d'une population gamma......Page 81
4.2.4 Estimation asymptotique des paramètres d'une regression linéaire......Page 83
4.2.5 On retiendra......Page 87
4.3.2 Algorithme (général) de Metropolis-Hastings (MH)......Page 88
Recommandations pour la programmation d'un algorithme MH......Page 90
4.3.3 Échantillonnage de Gibbs......Page 91
Principe de I'échantdllonnagc de Gibbs......Page 92
Utilisation d'une grille......Page 93
4.4 Méthodes de Monte-Carlo......Page 94
4.4.1 Simulation par la méthode d'acceptation-rejet......Page 95
Principe de I'échantillonnage pondéré......Page 98
Recommandation pour I'Implémentation......Page 101
4.4.3 Vers les méthodes particulaires......Page 103
Épilogue......Page 106
5.1 Introduction......Page 107
5.2.1 Le problèma du tramway......Page 109
Le modèle......Page 110
Développernents théoriques......Page 112
Inférence bayésienne sous WinBUGS......Page 113
Application du zero trick au problème des rangs de naissance......Page 114
Épilogue......Page 116
Prologue......Page 118
6.1 Introduction......Page 119
6.2 Le modèle GEV......Page 121
6.2.1 La valeur de projet......Page 124
6.2.2 Sensibilité du modèle GEV aux hypothèses......Page 125
6.3 Le modèle POT......Page 126
6.3.1 La distribution de Pareto généralisée......Page 127
Le choix du seuil est capital......Page 128
6.4 Du modèle POT au modèle GEV......Page 129
6.5.1 La distribution conjointe a posteriori......Page 131
6.5.2 Algorithme MH séquentiel appliqué au modèle GEV......Page 132
6.6 Inférence bayésienne sur les paramètres d'un modele POT......Page 133
6.6.1 Distribution conjointe a posteriori et inference......Page 134
6.7 Trois applications numériques réelles......Page 136
6.7.1 Le niveau de la mer à Port Pirie (Australie)......Page 137
6.7.2 La vitesse du vent à Tunis (Tunisie)......Page 139
6.7.3 La lame d'eau à Uccle (Belgique)......Page 142
Épilogue......Page 146
7.1 Introduction......Page 148
7.1.1 Prior non informatif......Page 149
Complément sur les distributions a priori non informatives......Page 150
7.1.2 La conjugaison......Page 151
7.1.4 La méthode par introspections successives......Page 152
7.2 Définition constructive d'une probabilité subjective......Page 153
7.3.1 L'expert donne la valeur moyenne de Pi et une incertitude sur celle-ci......Page 155
7.3.2 L'expert donne deux quantiles de Pi......Page 156
7.4.2 Le paramètre à éliciter est unidimensionnel......Page 157
Calage d'un prior normal......Page 158
Calage d'un prior gamma......Page 159
7.4.3 Le paramètre à éliciter est bidimensionnel......Page 160
Cas oft les deux parametres sont independants......Page 161
Cas ou les deux parametres sont dependants......Page 162
Épilogue......Page 163
Deuxieme partie
... a la souris......Page 165
8.1 Introduction......Page 166
8.2.1 Les trois dernières étapes du cycle de vie du saumon : remonter la rivière, échapper aux pêcheurs à la ligne et survivre jusqu'à la saison du frai......Page 167
Des paramètres techniques, inconnus, mais supposés stationnaires......Page 169
Encoder l'expertise a priori......Page 170
Construction des lois a priori à dire d'expert......Page 171
8.2.4 Les variables latentes décrivent le phénomène biologique......Page 172
Le modèle statistique sous la forme d'un graphe acyclique orienté......Page 173
8.3 Inférence bayésienne......Page 174
8.3.1 L'échantillonnage de Gibbs divise le problème en plusieurs sous-problèmes simples......Page 175
8.3.3 Actualisation bayésienne des éléments d'un DAG par I'échantillonnage de Gibbs......Page 176
Les propriétés conjuguées des lois binomiales et bêta rendent les mises à jour bayésiennes plus faciles......Page 177
Conditionnelles complètes non explicites......Page 179
L'Inférence bayésienne......Page 180
8.4.2 Cinq années de données......Page 182
8.5.1 Le rôle du prior......Page 183
8.5.3 Confusion des effets et importance du prior......Page 184
Épilogue......Page 185
9.1 Introduction......Page 187
9.2 Retour sur Ie modèle linéaire classique......Page 188
9.3 Le modèle linéaire généralisé......Page 190
9.3.1 Le modèle linéaire généralisé (GLM) répond à ces limitations......Page 191
9.3.2 D'un point de vue pratique......Page 193
9.4.1 La transformation logit......Page 194
9.4.2 La régression logistique......Page 195
Contraintes et sélection des variables......Page 196
Le modèle......Page 197
9.4.4 Évaluation de l'action conjointe de deux produits......Page 199
9.4.5 Régression logistique avec Ie modèle de Finney (1971)......Page 200
Épilogue......Page 201
Prologue......Page 203
10.1 Introduction......Page 204
10.2 Construire un modèle comme on joue au Lego......Page 206
10.2.2 Les modèles, leur définition, leurs liens......Page 207
10.3 Régression Iinéaire avec priors indépendants partiellement conjugués (M1)......Page 209
10.3.2 Les conditionnelles complètes......Page 210
10.4 Représentor la dépendance temporelle par un processus AR1 (M2)......Page 211
10.4.2 Les conditionnelles complètes......Page 212
10.5.1 Formulation du modèle M3......Page 213
10.5.3 Conditionnelles complètes des paramètres du modèle linéaire à résidus autorégressifs......Page 214
10.5.4 Spécification des priors du modèle linéaire à résidus autorégressifs......Page 215
10.5.5 Applications......Page 216
10.6.1 Formulation du modèle M4......Page 218
10.7 Une brique de LEGO supplémentaire d'expression multinomiale......Page 220
10.7.1 Formulation du modèle M5......Page 221
10.7.2 Conditionnelles complètes du modèle catégoriel probit (M5)......Page 224
10.7.3 Application du modèle multinomial probit (M5)......Page 225
Épilogue......Page 226
Prologue......Page 228
11.2 Expérimentation et approche classique......Page 229
11.2.2 Modélisation du changement de masse du polluant......Page 230
11.2.3 Brève étude critique du travail publié......Page 231
11.2.4 Discussion......Page 232
11.3.1 Une stratégic de modélisation des incertitudes......Page 233
11.3.2 Application de la règie de Bayes......Page 234
11.3.3 Résultats......Page 235
Commentaire......Page 236
Épilogue......Page 237
Prologue......Page 238
12.2 Modèle de capture-rnarquage-recapture......Page 239
12.2.1 Modèle Bernoulli d'aléa pour la première phase......Page 240
12.2.2 Modèle Bernoulli d'aléa pour la seconde phase......Page 241
12.3 Modèle bayésian hiérarchique échangeable......Page 242
12.4 Modèle bayésien annuel......Page 245
Efficacités bêta de la capture et de la recapture......Page 246
Efficacités de pêche et de recapture de type bêta......Page 247
12.6 Résultats......Page 248
Épilogue......Page 252
Prologue......Page 311
13.1 Introduction......Page 312
13.1.1 Trois exemples hydrornétéorologiques......Page 313
13.2.1 Modèle M1 : 1 seule rupture......Page 314
Discussion......Page 315
13.3 Représentation des distributions a priori......Page 317
On postule un seul changement......Page 318
On postule k changements......Page 319
13.3.2 Prior pour les autres paramètres......Page 320
13.4 Étude du modèle Mk......Page 321
Lois a posteriori pour Ie cas normal......Page 322
13.5 Méthode d'inférence......Page 323
13.6.2 Facteur de Bayes et rapport de vraisemblance......Page 324
13.6.4 Note sur le choix de modèle......Page 325
13.6.5 Avantages et inconvénients des facteurs de Bayes......Page 326
13.7.1 Application aux modules annuels du Sénégal......Page 327
Comparons maintenant M1 à M2......Page 328
13.7.3 Application du modèle Ma au Saint-Laurent......Page 330
13.7.4 Débit s maximaux annuels de la Dordogne à Cenac......Page 332
13.8 Discussion......Page 334
Épilogue......Page 335
Bibliographie......Page 337
Index......Page 343