Chap 7 - Partie 1
Chap 7 - Partie 1
Chap 7 - Partie 1
1
Introduction
1 Introduction
Estimateur statistique
2 Construction d'estimateurs
3 Estimation ponctuelle
Estimation d'une espérance
Estimation d'une variance
Estimation ponctuelle d'un pourcentage
2
Introduction
3
Introduction
5
Introduction
Pour résoudre les problèmes d'estimation de paramètres inconnus, il faut d'abord étudier
les distributions d'échantillonnage, c'est à dire la loi de probabilité suivie par
l'estimateur.
En théorie de l'estimation, il s'agit de distinguer soigneusement trois concepts diérents:
les paramètres de la population comme la moyenne µ dont la valeur est certaine
mais inconnue.
les résultats de l'échantillonnage comme la moyenne x̄ dont la valeur est certaine
mais connue.
les variables aléatoires des paramètres, comme la moyenne aléatoire X̄ dont la
valeur est incertaine puisque aléatoire mais dont la loi de probabilité est souvent
connue.
6
Introduction
X ∼ L(θ), θ inconnu
Exemple:
soit X la taille des habitants de Marrakech. On suppose que X suit une loi normale, de
moyenne inconnue µ et de variance connue. On va donc chercher à estimer µ à partir
d'un échantillon de données.
7
Introduction
8
Introduction
Dénition
Un échantillon aléatoire est un échantillon dont les individus sont tirés au hasard parmi
la population.
Dénition
Un n-échantillon aléatoire est une collection (ou une suite) de variables aléatoires, noté :
(X1 , . . . , Xn )
9
Introduction
10
Introduction
Hypothèses eectuées
Ou de façon équivalente comme une réalisation d'une variable Xi de même loi que
X . De plus, les Xi sont supposées indépendantes :
Xi ∼ L(θ)
11
Introduction
Exemple:
On suppose que la durée de vie d'un équipement, notée X , peut être représentée par
une variable aléatoire positive, admettant une distribution exponentielle de paramètre
λ.Ce paramètre est inconnu. An de l'estimer, on dispose de six relevés pour lesquels on
a pu observer la durée écoulée (exprimée en heures) avant la rupture de l'équipement :
(100, 102, 95, 78, 135, 98). Ces six valeurs correspondent à la réalisation d'un échantillon
aléatoire de taille n = 6, noté (X1 , X2 , X3 , X4 , X5 , X6 ), où les variables Xi pour
i = 1, . . . , 6 sont i.i.d. de même loi que X (loi exponentielle).
12
Introduction Estimateur statistique
Exemple:
Soit un échantillon (X1 , X2 ) de variables i.i.d. telles que Xi ∼ N (µ, σ 2 ) pour i = 1, 2.
On admet que µ̂ = X1 +X 2
2 est un estimateur du paramètre µ. La loi exacte de
14
Introduction Estimateur statistique
Exemple
1 On observe un phénomène de production de pièces manufacturées. Chaque pièce
est associée à une mesure (un indicateur de qualité par exemple). Comme on ne
peut pas vérier chaque mesure, on procède à un échantillonnage qui nous fournit
donc un échantillon.
2 Supposons que la connaissance de la nature de cet indicateur nous permet de faire
l'hypothèse qu'il obéit à une loi de probabilité normale.
3 Le problème est maintenant, au vue de l'échantillon {xi }, de proposer une valeur
pour la moyenne de cette loi normale. Il faut procéder à une estimation du
paramètre vrai θ qui se traduit par la valeur θ̂. Il y a une innité de manière
possible parmi lesquelles :
θ̂ = la moyenne
θ̂ = la médiane
θ̂ =le mode
...
⇒ Quel est le meilleur estimateur de la moyenne ? Existe-t-il ? Qu'est ce que cela veut
dire meilleur ?
15
Introduction Estimateur statistique
17
Introduction Estimateur statistique
Illustration
18
Introduction Estimateur statistique
Exemple:
Soit (Y1 , . . . , Yn ) un n-échantillon de variables aléatoires discrètes i.i.d. telles que Yi
admette une distribution de Bernoulli avec une probabilité de succès p ∈ [0, 1]. La
moyenne empirique est un estimateur sans biais de p :
Y1 + · · · + Yn
p̂ =
n
En eet, les Yi sont i.i.d, E (Yi ) = p
E (p̂) = n1 E (Y1 + · · · + Yn ) = 1
n
(E (Y1 ) + · · · + E (Yn )) = n×p
n
=p
19
Introduction Estimateur statistique
Exemple:
Soit (X1 , . . . , Xn ) un n-échantillon de variables aléatoires i.i.d. telles que E (Xi ) = µ et
V (Xi ) = σ 2 . Considérons les deux estimateurs sans biais de la moyenne µ :
X1 + X2 + · · · Xn
µ̂1 = et µ̂2 = X1 . Comment choisir entre ces deux estimateurs non
n
biaisés. Comparons l'erreur quadratique moyenne des deux estimateurs
1 X 2 σ2
n
EQM(µ̂1 ) = E (µ̂1 − µ)2 = V (µ̂1 ) = 2
σ =
n i=1 n
20