Cours5 PDF
Cours5 PDF
Cours5 PDF
A- Généralités
B- Précision d’un estimateur
C- Exhaustivité
D- information
E-estimateur sans biais de variance minimale, estimateur efficace
F- Quelques méthode s d’estimation
A- ESTIMATION PONCTUELLE:
GÉNÉRALITÉS
A- 1 Définition
Ex : P
( x1 ,..., xn )
X,
θ=E(X)?
1 n
x = ∑ xi
n i =1
X,
θ=E(X)?
1 n 1 n
x = ∑ xi ( x1 ,..., xn ) ( x '1 ,..., x 'n ) x ' = ∑ x 'i
n i =1 n i =1
•
( x1 ,..., xn ) ( x '1 ,..., x 'n ) sont deux réalisations de l’échantillon aléatoire ( X ,..., X )
1 n
Formalisation :
Θ n = h( X 1 ,..., X n ), h : R n → R p , p ≥ 1
1 n
Xn = ∑ Xi
n i =1
Propriét és : E( X n ) = E( X )
V (X )
V (Xn ) =
n
A-2 Exemple d’estimateurs
Estimateurs de la variance σ² et de l’écart-type σ de X
n i =1
2 µ 4 −σ 4
V (Tn ) =
n
A-2 Exemple d’estimateurs
Cas général
σ² et σˆ
2
sn = sn sont les estimations associées (on les note encore
2 n −1
E(S ) =
n
σ²
n
Propriétés:
n −1
V ( S n2 ) =
n 3 ( ( n − 1) µ 4
− ( n − 3)σ 4
)
A-2 Exemple d’estimateurs
1 n
S =
*2
n ∑
n − 1 i =1
( X i − X n )² est un estimateur de σ²
Propriétés :
E ( S n2* ) = σ ²
1 (n − 3) 4
V ( S n2* ) = µ 4 − σ
n (n − 1)
A-2 Exemple d’estimateurs
1 n
Fn ( x) = ∑1X i < x est un estimateur de F(x) en tout point x.
n i =1
1 n
Fn ( x) = ∑1xi < x est l’estimation de F(x) associée à ce jeu de données.
n i =1
E ( Fn ( x)) = F ( x )
Propri étés :
F ( x )(1 − F ( x ))
V ( Fn ( x)) =
n
A-2 Exemple d’estimateurs
1 n
Tn ( X , Y ) = ∑ ( X i − m1 ) Yi − m2
n i =1
( ) est un estimateur de cov(X,Y).
tn ( x, y ) =
1 n
(
∑ xi − m1
n i =1
) ( yi − m2 ) est l’estimation associée
A-2 Exemple d’estimateurs
Cas général
La covariance empirique :
1 n
Sn ( X , Y ) = ∑ ( X i − X ) Yi − Y
n i =1
( ) est un estimateur de cov(X,Y).
( )( ) c
1 n (encore notée ov ( X ,Y ) )
sn ( X , Y ) = ∑ xi − x y −y
n i =1 i
S ( X ,Y ) =
*
n
1 n
∑
n − 1 i =1
( X i − X ) Yi − Y( ) est un estimateur de cov(X,Y).
Propriétés :
E (Tn2 ( X , Y )) = E ( S n2* ( X , Y )) = Cov ( X , Y )
n −1
E ( S n2 ( X , Y )) = cov( X , Y )
n
A-2 Exemple d’estimateurs
Soit Θ n ⊂ R p un estimateur de θ.
Pour deux estimateurs sans biais, le plus précis est celui qui a la plus petite variance.
Ex : lorsque E(X) =m est connue,
*2 est moins précis que 2
Sn Tn
B-4 Convergence
Θ n
P
n→∞
→θ
L'absence de biais facilite grandement l'étude des propriétés d'un estimateur car
le biais d'un estimateur peut dépendre de façon complexe de la valeur du
paramètre.
n
Lθ ( x1 ,..., xn ) = ∏ fθ ( xi ), ∀( x1 ,..., xn ) ∈ R n
i =1
Remarque s :
NB : C’est une variable aléatoire. Sa réalisation sur le jeu de données (x1, x2, ..., xn) ,
est la valeur de la densité de l’échantillon aléatoire au point (x1, x2, ..., xn) .
NB:
• Pour des résolutions mathématiques, il est plus commode d’étudier la log
vraisemblance que la vraisemblance.
• L et l , considérées comme des fonctions de θ, ont le même sens de
variation.
C-3 Information de Fisher d’un
échantillon (θ réel)
Score de l’échantillon : Si f(x, θ) est différentiable en θ, l est une
fonction dérivable de θ, et le score est sa dérivée :
∂ 1 ∂
Sn (θ ) = l ( X 1 ,...., X n ,θ ) = L( X 1 ,...., X n ,θ )
∂θ L( X 1 ,...., X n ,θ ) ∂θ
I n (θ ) = E ( ( Sn (θ ))² )
∂ ²l ( X 1 ,..., X n ,θ ) ∂S n (θ )
I n (θ ) = − E = − E ∂θ
∂ θ ²
I n (θ ) = nI1 (θ )
C-3 Information de Fisher d’un
échantillon (cas multidimentionnel)
Extension au cas multidimensionnel :
∂ ∂
Sn (θ ) = l ( X 1 ,...., X n ,θ ),..., l ( X 1 ,...., X n ,θ )
∂θ ∂θ p
1
Il est caractérisé par son vecteur espérance (=0) et sa matrice de variance
covariance appelée matrice d’information de Fisher, I n (θ ) = ( I in, j )1≤i , j ≤ p
définie positive de terme général
∂l ( X 1 ,..., X n ,θ ) ∂l ( X 1 ,..., X n ,θ )
I n
= Cov ,
i, j ∂ θ ∂ θ
i j
C-4 Statistique exhaustive
I n (θ ) ≥ IT (θ )
avec égalité si la statistique est exhaustive.
Dém :
La vraisemblance de T est g(T,θ)
l’information de Fisher IT(θ) apportée par T sur θ est (sous de bonnes
conditions) :
∂ ² ln g (T ,θ )
IT (θ ) = − E
∂θ ²
∂ ² ln k
I n (θ ) = IT (θ ) − E
L( X 1 ,...., X n ,θ ) = g (t ,θ )k ( X 1 ,...., X n ,θ / T = t ) donc ∂θ ²
Θ*n < Θ n
Θn
( X 1 ,..., X n )
C-4 Statistique exhaustive
Construction de T?
C-4 Statistique exhaustive
Idées de construction :
Lθ ( x1 ,...xn ) = kθ ( x1 ,...xn / T = t ) gθ (t )
C-4 Statistique exhaustive
Statisticien S1 : Statisticien S2 :
dispose d’un jeu de données ne dispose pas du jeu de données
obtenu par sondage. s’est fait donner t par S1
Peut construire la valeur de t à Connait gθ
partir de ce jeu de données
Peut construire une estimation de
θ à partir de ce jeu de données.
Pour disposer d’autant d’information que S1, S2 doit être capable de tirer une
réalisation de l’échantillon aléatoire. Comme il dispose de t, il faut qu’il puisse
tirer dans la loi conditionnelle de cet échantillon sachant t, mais celle-ci
dépend généralement de θ.
Une statistique T ne peut nous renseigner sur la valeur d’un paramètre que
si sa loi dépend de ce paramètre. Puisque
Lθ ( x1 ,...xn ) = kθ ( x1 ,...xn / T = t ) gθ (t )
Formalisation
Exemple
C-4 Statistique exhaustive
une CNS pour que l’échantillon aléatoire admette une statistique exhaustive
pour θ est que
fθ ( x) = exp [ a ( x)α (θ ) + b( x) + β (θ ) ]
(famille exponentielle)
n
x1 → ∑ a ( xi )
Dans ce cas, si l’application i =1
est bijective et
n
Un estimateur de θ devrait être d’autant plus précis qu’il capture, pour sa construction, une
part importante de l’info sur θ contenue dans l’échantillon. Dans la meilleure des
situation, On devrait pouvoir retrouver toute l’info de l’échantillon à partir de l’estimateur
⇒ les estimateurs les plus précis de θ (en particulier les estimateurs sans biais de
variance minimale) sont des statistiques exhaustives ou des fonctions de celles-ci., si tant
est qu’une statistique exhaustive de θ existe.
Ce qui précède n’est pas suffisant pour avoir un estimateur précis : un estimateur ne
pourra être bon que si l’échantillon lui-même sur lequel il est construit véhicule
(contienne) suffisamment d’info sur le paramètre
De tous les estimateurs sans biais de θ, le meilleur (au sens de EQM) est
celui qui a la plus faible variance. On l'appelle "Estimateur sans biais de
Variance Minimale" de θ.
Théorème de Rao-Blackwell
Si un estimateur sans biais de θ n'est pas de variance minimale, il est
possible de l'améliorer si l'on dispose d'une statistique exhaustive pour θ.
Inégalité de Cramér-Rao
Permet d’établir, sous condition de régularité, une borne inférieure de la
variance d'un estimateur sans biais.
∀Y , Z v.a.
E ( E (Y | Z )) = E (Y )
Théorème de la variance totale :
V (Y ) = V ( E (Y | Z )) + E (V (Y | Z )
.
D-3 Inégalité de FDCR
V (∆ n )≥
( k '(θ ) ) ²
I n (θ )
D-4 Estimateur efficace
Estimateur efficace
V (Θ n ) =
1
( resp. V ( ∆ n ) =
( k '(θ ) ) ² )
Propriétés : I n (θ ) I n (θ )
n
ln ( X 1 ,..., X n ,θ ) = − nθ + nX ln θ − ln ∏ X i !
i =1
nX
Sn (θ ) = − n +
θ
∂ nE ( X ) n
I n (θ ) = − E S n (θ ) = =
∂θ θ² θ
fθ ( x) = exp [ a ( x)α (θ ) + b( x) + β (θ ) ]
L'inégalité de Cramér-Rao produit une borne inférieure de la variance d'un estimateur sans
biais. Un estimateur sans biais de variance minimale aura donc une variance supérieure ou
égale à la borne inférieure de l’inégalité de FDCR.
Cette borne n’est pas forcément atteinte dans le cas général : On peut par exemple exhiber
des cas où cette borne est égale à 0, et donc évidemment inaccessible.
Lorsqu’elle l’est, On appelle estimateur efficace un estimateur sans biais dont la variance
est égale à la borne inférieure de l’inégalité de FDCR. Dans ce cas, c’est l’estimateur de
variance minimale. Il n’existe que si X admet une loi dans la famille exponentielle et que k
est la fonction indentité, et l’estimateur est dans ce cas unique et exhaustif.
La notion d’estimateur efficace n’a alors pas de sens, ni la borne de Cramer-Rao. Il peut
alors même exister des estimateurs sans biais dont les variances sont inférieures à la borne
(sans signification) de Cramér-Rao.
E- Quelques méthodes d’estimation
E-1 Estimation par la méthode du
maximum de vraisemblance
Retenir, de ces différents maxima, celui qui présente la plus grande valeur
de la vraisemblance.
E-1 Estimation par la méthode du
maximum de vraisemblance
Exemple : EMV de l’espérance d’une loi exponentielle de
paramètre θ
n
Ln ( X 1 ,..., X n ,θ ) = ∏θ e −θ X i = θ n e −θ nX
i =1
ln ( X 1 ,..., X n ,θ ) = n ln θ − θ nX
n 1
Sn (θ ) = − nX ⇒ Θ n =
θ X
∂ n
Sn (θ ) = − < 0
∂θ θ²
E-1 Estimation par la méthode du
maximum de vraisemblance
Propriétés de l’estimateur du Maximum de Vraisemblance
(EMV) (à titre indicatif)
θˆn
P
→θ
Soient
1 n r
X = ∑ X i et mr (θ ) = Eθ ( X r )
r
n i =1
.
E-2 Estimation par la méthode des
moments
Estimateur des moments de θ :
L’estimateur des moments de θ est le vecteur Θn qui vérifie le système
d’équations en θ:
X r = mr (θ ), r = 1,... p
(
Θ n = k X 1 ,...., X p )
est l’estimateur des moments de θ.
Θ n solution de :
1 1
Eθ ( X ) = X ⇔ = X ⇒ Θn =
θ X
E-2 Estimation par la méthode des
moments
Propriétés (à titre indicatif)
La méthode des moments fournit des estimateurs peu précis lorsque n est
modéré
les estimateurs ainsi produits n'ont pas les bonnes propriétés
asymptotiques des estimateurs du Maximum de Vraisemblance. En
particulier on n’a pas en général la loi limite de l’estimateur