Théorie de l'estimation ponctuelle paramétrique

This document was uploaded by one of our users. The uploader already confirmed that they had the permission to publish it. If you are author/publisher or own the copyright of this documents, please report to us by using this DMCA report form.

Simply click on the Download Book button.

Yes, Book downloads on Ebookily are 100% Free.

Sometimes the book is free on Amazon As well, so go ahead and hit "Search on Amazon"

Author(s): Roudoif Iasnogorodsk,i Hugo Lhéritier
Publisher: EDP
Year: 2003

Language: French

Couverture
Page de titre
Introduction
Notations
I Théorie exacte
1 Modèles statistiques et estimateurs
1.1 Modèles statistiques
1.1.1 Définitions
1.1.2 Information de Küllback
1.1.3 Mesure dominante privilégiée
1.1.4 Modèle image
1.2 Estimateurs
1.3 Risque
1.3.1 Fonction de perte
1.3.2 Fonction de risque
1.4 Hiérarchisation des estimateurs
1.4.1 Admissibilité et inadmissibilité
1.4.2 Biais d'un estimateur
1.4.3 Estimateurs randomisés
1.4.4 Sur la nécessité de restreindre la classe des fonctions de perte
1.5 Modèles exponentiels
1.5.1 Définitions
1.5.2 Statistique naturelle - Rang d'un modèle
1.5.3 Conséquences
2 Concepts de base de la théorie de l'estimation
2.1 Exhaustivité
2.1.1 Introduction
2.1.2 Critère fondamental d'exhaustivité
2.1.3 Exhaustivité et modèles exponentiels
2 2 Minimalité
2.2.1 Introduction
2.2.2 Construction de statistiques minimales
2.2.3 Minimalité et modèles exponentiels
2.3 Complétude
2.3.1 Statistiques libres et complètes
2.3.2 Statistique linéairement complète
2.3.3 Complétude et modèles exponentiels
2.3.4 Applications de la complétude
3 Recherche d'estimateurs de risque minimal
3.1 Estimateurs sans biais
3.1.1 Premier critère de sélection d'estimateurs admissibles
3.1.2 Modèles complets
3.1.3 Cas particulier des modèles exponentiels
3.1.4 Application aux modèles linéaires
3.1.5 Modèles non complets
3.1.6 Estimateur de James et Stein
3.1.7 Exercices
3.2 Estimateurs équivariants
3.2.1 Modèles à paramètre de localisation
3.2.2 Généralisation
3.3 Estimateurs bayésiens
3.3.1 Définition
3.3.2 Construction d'estimateurs bayésiens
3.4 Estimateurs minimax
3.4.1 Définition
3.4.2 Liens entre estimateur bayésien et estimateur mlnlmax
4 Modèles différentiables en moyenne quadratique-inégalité de Rao-Cramér
4.1 Modèles DMQ
4.1.1 Définition et théorème fondamental
4.1.2 Inégalité de Rao-Cramér
4.1.3 Information de Fisher
4.1.4 Borne de Rao-Cramér et efficacité
4.1.5 Changement de paramétrage
4.2 Propriétés des modèles DMQ et conséquences sur l'information de Fisher
4.2.1 Produit tensoriel de modèles
4.2.2 Modèles images
4.3 Modèles réguliers
4.3.1 Cas unidimensionnel
4.3.2 Cas multidimensionnel
4.4 Cas particulier des modèles exponentiels
4.4.1 Résultats généraux
4.4.2 Modèles pour lesquels il existe un estimateur efficace
4.5 Distance d 'Hellinger
4.5.1 Introduction
4.5.2 Liens avec l'information de Fisher
4.5.3 Propriétés générales
5 Méthodes classiques d'estimation
5.1 Estimateur par maximum de vraisemblance
5.1.1 Généralités
5.1.2 Liens avec les modèles exponentiels
5.2 Méthode des moments
5.2.1 Méthode classique
5.2.2 Généralisation
5.3 Estimateur des quantiles
5.4 Estimateur de minimum de contraste
5.5 Limites de la théorie exacte
II Théorie asymptotique
6 Bases de la théorie asymptotique
6.1 Estimateurs consistants et √n-consistants
6.1.1 Consistance
6.1.2 √n-consistance
6.2 Estimateurs asymptotiquement gaussiens
6.2.1 Méthode des moments
6.2.2 Estimateur du p-quantile
6.2.3 Estimateur de contraste minimum
6.3 Estimateurs asymptotiquement efficaces
6.3.1 Estimateur de Hodges
6.3.2 Super-efficacité
6.3.3 Efficacité asymptotique
6.4 Estimateurs réguliers
6.5 Estimateurs asymptotiquement de risque minimal
7 Modèles localement asymptotiquement normaux
7.1 Introduction
7.2 Classe des modèles DMQ
7.3 Exhaustivité asymptotique
7.3.1 Définition
7.3.2 Théorème de Hâjek
7.3.3 Caractérisation des estimateurs asymptotiquement efficaces et réguliers
7.3.4 Caractérisation des estimateurs asymptotiquement de risque minimal
7.4 Généralisation du théorème de Hâjek
8 Recherche d'estimateurs asymptotiquement optimaux
8.1 Condition fondamentale imposée à la fonction de score
8.2 Estimateurs asymptotiquement efficaces et réguliers
8.2.1 Solution(s) de l'équation de vraisemblance
8.2.2 Estimateur par maximum de vraisemblance
8.2.3 Estimateur de Le Cam
8.3 Estimateurs asymptotiquement de risque minimal
8.3.1 Solution(s) de l'équation de vraisemblance
8.3.2 Estimateur par maximum de vraisemblance
8.4 Application: Modèles à paramètre de localisation
8.5 Application: Modèles à paramètre d'échelle
8.6 Démarches alternatives
8.6.1 Estimateur bayésien
8.6.2 Une introduction à la démarche du bootstrap
Appendices
A Résultats d'algèbre linéaire
B Absolue continuité
C Résultats de la théorie de la mesure
D Résultats de continuité, mesurabilité, convergences simple et uniforme
E Différentielle au sens de Fréchet et de Gâteaux
F Résultats de convergence
G Équivalence asymptotique
H Résultats de majoration
H.1 Inégalités de martingales
H.2 Prolongement d'une fonction lipschitzienne sur R^r
I Lemme d'Anderson et conséquences
J Résultats et démonstrations techniques
J.1 Démonstration du théorème 7.5
J.2 Démonstration du théorème 8.2
J.3 Lemmes techniques
K Différentes lois utilisées
K.1 Lois discrètes
K.2 Lois continues
Bibliographie
Index