Chap Stat 4
Chap Stat 4
Chap Stat 4
Skander HACHICHA
skander.hachicha@ipeit.rnu.tn
Estimation paramètrique II 1 / 42
Skander HACHICHA 1 / 42
Information de Fisher
Borne de Rao-Cramer
Soit le modèle statistique (X , A, Pθ : θ ∈ Θ).
On suppose les hypothèses H1 − H4 sont vérifiées et de plus on
suppose
H5 Pour tout θ ∈ Θ la matrice d × d d’information de Fisher I(θ)
existe et elle est symétrique et définie positive.
Estimation paramètrique II 2 / 42
Skander HACHICHA 2 / 42
Information de Fisher
Borne de Rao-Cramer
Définition
Un estimateur T (X1 , · · · , Xn ) de g(θ) est dit régulier dans un
modèle régulier si Vθ (T (X)) < +∞ et
R
X n T (x)f (x, θ)dx est dérivable par rapport à θ sous le symbole
d’intégration :
Estimation paramètrique II 3 / 42
Skander HACHICHA 3 / 42
Information de Fisher
Borne de Rao-Cramer
On suppose que Θ ⊂ R. Soit g : Θ −→ R une application de classe
C 1.
Théorème
On suppose que les hypothèses H1 − H5 sont vérifiés. Si
Tn (X1 , · · · , Xn ) est un estimateurs sans biais de g(θ), alors
1
dg(θ)
= cov(Tn (X1 , · · · , Xn ), S(X1 , · · · , Xn , θ)
dθ
2 La variance de l’estimateur Tn (X1 , · · · , Xn ) est telle que :
V(Tn (X1 , · · · , Xn )) ≥
dg(θ) 2
2
(cov(Tn (X1 , · · · , Xn )), S(X1 , · · · , Xn , θ)) dθ
=
In (θ) In (θ)
Estimation paramètrique II 4 / 42
Skander HACHICHA 4 / 42
Information de Fisher
Borne de Rao-Cramer
Par définition, l’information de fisher est le nombre réel défini par
2 !
d log f (X, θ)
I(θ) = Eθ
dθ
Estimation paramètrique II 5 / 42
Skander HACHICHA 5 / 42
Information de Fisher
Borne de Rao-Cramer
En dérivant par rapport à θ, on a :
dg(θ) d
Z
= T (x)f (x, θ)dx
dθ dθ Xn
df (x, θ)
Z
= T (x) dx
Xn dθ
d log f (x, θ)
Z
= T (x) f (x, θ)dx
ZX
n dθ
= T (x)S(x, θ)f (x, θ)dx
Xn
= E(T (X)S(X, θ))
Estimation paramètrique II 6 / 42
Skander HACHICHA 6 / 42
Information de Fisher
Borne de Rao-Cramer
Comme E(S(X, θ)) = 0, alors dg(θ)
dθ = cov(T (X), S(X, θ)) Par suite
d’après l’inégalité de Cauchy-Schwarz, on a
2
dg(θ)
= (cov(T (X), S(X, θ)))2 ≤ V(T (X))V(S(X, θ))
dθ
= V(T (X))In (θ)
et donc 2
dg(θ) 1
V(T (X)) ≥
dθ In (θ)
Remarque
Dans le cas où g est l’identité, on a
1
Eθ (T (X1 , · · · Xn ) − θ)2 ≥
In (θ)
Estimation paramètrique II 7 / 42
Skander HACHICHA 7 / 42
Méthode de substition
Estimation paramètrique II 8 / 42
Skander HACHICHA 8 / 42
Méthode des moments
Définition
Soit (X1 , · · · , Xn ) un n−échantillon de loi Pθ admettant des
moments jusqu’à l’ordre r. On note mi = Eθ (X1i ), Pour tout
i ∈ {1, · · · r}. on appelle moment empirique d’ordre i, la variable
aléatoire
n
1X
i
Xn= Xi
n k=1 k
Remarque
De même g(X 1 n , · · · , X r n ) un estimateur de g(m1 (θ), · · · , mr (θ))
sera obtenu par. Ainsi
1 La moyenne empirique
n
1X
Xn = Xk
n k=1
Remarque
Comme X1 , · · · , Xn sont indépendantes et de même loi donc
Eθ (X12 )
n(n − 1)
E (X n ) 2
= + 2
(Eθ (X1 ))2
n n
et par suite
Eθ (X12 )
n−1
E Sn02 = Eθ (X12 ) − − (Eθ (X1 ))2
n n
n−1
= Eθ (X12 ) − (Eθ (X1 ))2
n
n−1
= V(X1 )
n
Estimation paramètrique II 12 / 42
Skander HACHICHA 12 / 42
Méthode des moments
Remarque
Soient (X1 , · · · , Xn ) un n−échantillon de loi Pθ et ϕ une fonction
continue de R dans R telle que ϕ(Xi ) admet un moment d’ordre 1.
Alors E(ϕ(Xi )) peut être estimeé par la moyenne empirique de
l’échantillon (ϕ(X1 ), · · · , ϕ(Xn )) :
n
1X
ϕ(X)n = ϕ(Xi ).
n i=1
Estimation paramètrique II 13 / 42
Skander HACHICHA 13 / 42
Méthode des moments
Exemple
Soit (X1 , · · · , Xn ) un n−échantillon de loi uniforme sur {1, · · · , θ}
telle que pour tout x ∈ {1, · · · , θ}, P(Xi = x) = 1θ . Ainsi, on a
θ
X i θ(θ + 1) θ+1
E(Xi ) = = = .
i=1
θ 2θ 2
Estimation paramètrique II 14 / 42
Skander HACHICHA 14 / 42
Méthode des moments
Proposition
Soit (X1 , · · · , Xn ) un n−échantillon de loi Pθ d’espérance m et de
variance σ 2 .
La moyenne empirique X n = n1 nk=1 Xk
P
1
1 n
La variance empirique Sn2 = n−1 k=1 (Xk − X n )
2
P
2
Estimation paramètrique II 15 / 42
Skander HACHICHA 15 / 42
Méthode des moments
Proposition
1 La moyenne et la variance empiriques sont des estimateurs
consistants de m et σ 2 respectivement : pour tout θ ∈ Θ, on a
P P
θ
X n −→ m et Sn2 −→
θ
σ2.
2 La variable aléatoire
!
Xn − m √ Xn − m
= n
√σ σ
n
Pn
2a 1
Estimation paramètrique II 17 / 42
d’où a2 − k
+
Skander HACHICHA≥ 0 ou17encore
/ 42
Méthode des moments
Démonstration
Pn 2ak 1 Pn 2 1
d’où k=1 a2k − n + n2
≥ 0 ou encore 2
k=1 ak − n + n ≥ 0,
ainsi nk=1 a2k ≥ 1
P
n et
de plus il y a égalité si et seulement si
ak − n1 = 0 pour tout k ∈ {1, · · · n}.
Un calcul simple montre que
n
X
(n − 1)Sn2 = (Xk − m)2 − n(X n − m)2 .
k=1
Pn 2
Or Eθ k=1 (Xk − m) = nVθ (X1 ) et
1
Eθ n(X n − m)2 = nV(X n ) = n nVθ (X1 )
n2
et donc Eθ (Sn2 ) = Vθ (X1 ) = σ 2 .
Estimation paramètrique II 18 / 42
Skander HACHICHA 18 / 42
Méthode des moments
Démonstration
La loi forte des grands nombres s’applique : pour tout θ ∈ Θ
P −p.s
(X n − m)2 −→
θ
n−→+∞ 0
θ P −p.s
puisque X n − m −→ n−→+∞ 0 et
n
1X Pθ −p.s
(Xk − m)2 −→ 2
n−→+∞ σ .
n k=1
Estimation paramètrique II 19 / 42
Skander HACHICHA 19 / 42
Méthode des moments
Remarque
Soit (X1 , · · · , Xn ) un n−échantillon de loi Pθ d’espérance m et de
variance σ 2 . Si m est connue alors
n
1X
Sn02 = (Xk − m)2
n k=1
est un estimateur sans biais de σ 2 . Dans ce cas Sn02 est meilleur que
Sn2 . On a
n−1
cov(X n , Sn02 ) = E((X − E(X))3 )
n
Remarque
p
On peut estimer l’ecart-type
p σppar l’estimateur Sn2 mais il n’est pas
2 E(Sn2 ) (on n’a pas de résultat
sans biais puisque E( Sp n ) 6=
général sur la qualité de Sn2 ) .
Estimation paramètrique II 20 / 42
Skander HACHICHA 20 / 42
Maximum de vraisemblance
0, 1, 1, 0, 1, 1, 1, 0, 0, 1.
Estimation paramètrique II 21 / 42
Skander HACHICHA 21 / 42
Maximum de vraisemblance
p 0,7 0, 8
p6 (1 − p)4 9, 5.10−4 4, 2.10−4
Estimation paramètrique II 22 / 42
Skander HACHICHA 22 / 42
Maximum de vraisemblance
Estimateurs du maximum de vraisemblance
Définition
Soit (X , A, Pθ : θ ∈ Θ) un modèle statstique où Θ est un ouvert non
vide de R. Soit X une v.a de loi Pθ et de densité f (x, θ). Pour tout
x ∈ X (réalisation de X) on appelle vraisemblance associé à x
l’application
L(x, .) : Θ −→ R∗+
θ −→ L(x, θ) = f (x, θ)
Conséquence
1 Si X est discrète. Pour tout x ∈ X ,
L(x, θ) = f (x, θ) = Pθ (X = x)
2 Si X est v.a de densité fθ . Pour tout x ∈ X ,
L(x, θ) = f (x, θ) = fθ (x)
Estimation paramètrique II 23 / 42
Skander HACHICHA 23 / 42
Maximum de vraisemblance
L(x1 , · · · , xn , .) : Θ −→ R+
n
Y
θ −→ L(x1 , · · · , xn , θ) = f (xi , θ)
i=1
Estimation paramètrique II 24 / 42
Skander HACHICHA 24 / 42
Maximum de vraisemblance
Estimation paramètrique II 25 / 42
Skander HACHICHA 25 / 42
Maximum de vraisemblance
Estimation paramètrique II 26 / 42
Skander HACHICHA 26 / 42
Maximum de vraisemblance
Estimateurs du maximum de vraisemblance
Exemple
Soit (X1 , · · · , Xn ) un n−échantillon de loi uniforme sur l’intervalle
[0, θ] de densité fθ (x) = 1θ I[0,θ] (x)
La vraisemblance est alors définie par
n n
Y 1 Y
L(x1 , · · · , xn , θ) = fθ (xi ) = I (xi )
i=1
θn i=1 [0,θ]
1
= I n (x1 , · · · , xn )
θn [0,θ]
1
= I (x)
θn [0≤Inf (xi )≤max(xi )≤θ]
1
= I (x)I[max(xi )≤θ] (x)
θn [0≤Inf (xi )]
1
= I (θ)
θn [max(xi ),+∞[
Estimation paramètrique II 27 / 42
Skander HACHICHA 27 / 42
Maximum de vraisemblance
Estimateurs du maximum de vraisemblance
Exemple
Vue comme fonction de θ, la vraisemblance est nulle si θ est inférieur
à la plus grande des valeurs observées, elle vaut θ1n sinon. Elle est
donc maximale pour
θbn = max(x1 , · · · , xn )
Estimation paramètrique II 29 / 42
Skander HACHICHA 29 / 42
Maximum de vraisemblance
2
= = = = −
∂θ ∂θ ∂θ L2 L2 L2
!
∂2L
∂ 2 log L
∂θ 2
et donc ∂θ2
= L et par suite
θ=θbn
θ=θbn
! !
∂2L ∂ 2 log L
< 0 si et seulement si < 0.
∂θ2 θ=θbn
∂θ2 θ=θbn
Estimation paramètrique II 31 / 42
Skander HACHICHA 31 / 42
Maximum de vraisemblance
Estimation paramètrique II 32 / 42
Skander HACHICHA 32 / 42
Maximum de vraisemblance
θx
P(X = x) = e−θ .
x!
On se propose d’estimer le paramètre inconnu θ. L’ensemble des
observations possibles est Nn et le paramètre inconnu est θ ∈]0, +∞[.
Ainsi si (x1 , · · · , xn ) ∈ Nn est l’échantillon observé, alors
Pn
θ k=1 xk
L(x1 , · · · , xn , θ) = e−nθ Qn
k=1 xk !
Pn
Alors log L(x1 , · · · , xn , θ) = −nθ + ( k=1 xk ) log(θ) − constante
Estimation paramètrique II 33 / 42
Skander HACHICHA 33 / 42
Maximum de vraisemblance
Calcul des estimateurs de maximum de vraisemblance
Exemple
( estimation du paramètre d’une loi de Poisson)
d’où Pn
∂ log L xk
= −n + k=1 =0
∂θ θ
d’où elle s’annule pour θbn = xn . La dérivée seconde est
Pn
∂ 2 log L k=1 xk θbn
=− = −n
∂θ2 θ2 θ2
!
∂ 2 log L n
= − Pn <0
∂θ2 θ=θbn k=1 xk
∂ 2 log L n
2
=− 2
∂m σ
Estimation paramètrique II 36 / 42
Skander HACHICHA 36 / 42
Maximum de vraisemblance
Estimation paramètrique II 37 / 42
Skander HACHICHA 37 / 42
Propriétés des estimateurs du MV
Proposition
Soit θbn l’EMV de θ. Si Tn est un estimateur exhaustive de θ, alors θbn
est fonction de T .
et donc
max Ln (θ) = max h(T (x1 , · · · , xn ), θ)
θ∈Θ θ∈Θ
Remarque
L’EMV lui même n’est pas forcément exhaustive. En effet, soit X une
v.a de loi U[θ, 2θ] de densité
1
f (x, θ) = 1[θ,2θ] (x)
θ
La vraisemblance d’un n−échnatillon (X1 , · · · , Xn ) de même loi que
X est donc
1
Ln (θ) = 1θ≤inf 1≤i≤n Xi ≤sup1≤i≤n Xi ≤2θ
θn
La statistique (inf 1≤i≤n Xi , sup1≤i≤n Xi ) est exhaustive minimale
pour θ.
Estimation paramètrique II 39 / 42
Skander HACHICHA 39 / 42
Propriétés des estimateurs du MV
Remarque
D’autre part, l’EMV θbn est donnée par définition par la valeur
sup1≤i≤n Xi
θ∈ , inf Xi
2 1≤i≤n
Estimation paramètrique II 40 / 42
Skander HACHICHA 40 / 42
Propriétés des estimateurs du MV
Proposition
Sous les hypothèse H0 − H4 , si θ0 est la vraie valeur du paramètre θ,
alors il existe une suite θbn des solutions de l’equation de
vraisemblance qui converge p.s vers θ0 :
p.s
θbn −→ θ0
Proposition
Sous les hypothèse H0 − H6 , on a pour toute solution θbn de
p.s
l’equation de vraisemblance telle que θbn −→ θ0 où θ0 est la vraie
valeur du paramètre θ, alors
√ loi
n(θbn − θ0 ) −→ N (O, I −1 )
On dit que l’EMV est aymptotiquement efficace.
Estimation paramètrique II 41 / 42
Skander HACHICHA 41 / 42
Merci
Estimation paramètrique II 42 / 42
Skander HACHICHA 42 / 42