Cours Statistiques Inf
Cours Statistiques Inf
Cours Statistiques Inf
inf
statistique:
Le mot statistique désigne à la fois un ensemble de données et l’activité
qui consiste à les recueillir, les traiter et les interpréter.
Statistique descriptive:
Son but est de synthétiser, résumer l’information contenue dans les
données. Elle utilise les tableaux statistiques et les représentations
graphiques.
Statistique inférentielle:
Son but est d’effectuer des estimations et des prévisions à partir d’un
sous-ensemble de la population. C’est dans ce cadre que rentrent
par exemple les sondages d’opinion, ou alors l’étude statistique de
l’efficacité d’un médicament. Le calcul des probabilités joue un rôle
important
Population:
ensemble d’objets ou d’individus ayant des caractéristiques qui leurs
sont propres
1
Chapter 1
Échantillonnage
La loi de X sera appelée loi mère. Une réalisation de l’échantillon (X1 ; ...; Xn )
est un n-uplet de réels (x1 , ..., xn ). Cette réalisation est appelée ensemble des
valeurs observées
2
Sa réalisation est x̄ = n1 ni=1 xi (qui est la moyenne de l’échantillon) aussi
P
appelée moyenne observée.
σ2
E(X̄) = µ, V (X̄) =
n
X̄−→µ. (Loi forte des grands nombres).
Preuve 1.0.5
n
! n n
1X 1X 1X
E Xi = E (Xi ) = µ=µ
n i=1 n i=1 n i=1
2. S 2 −→p.s σ 2
3
n−1
3. Var (S 2 ) = n3
[(n − 1)µ4 − (n − 3)σ 4 ] ,.
Preuve 1.0.9
n n
1X 2 1 X 2
Xi − X̄ = (Xi − µ) − (X̄ − µ)
n i=1 n i=1
n n
1X 2 X
= (Xi − µ)2 − (X̄ − µ) (Xi − µ) + (X̄ − µ)2
n i=1 n i=1
n
1X
= (Xi − µ)2 − 2(X̄ − µ)2 + (X̄ − µ)2
n i=1
n
1X
= (Xi − µ)2 − (X̄ − µ)2
n i=1
D’où n
2 1X σ2 n−1 2
V (Xi ) − V (X̄) = σ 2 −
E S = = σ
n i=1 n n
Cette propriété montre que E (S 2 ) 6= σ 2 . On dit que S 2 est une statistique
biaisée pour σ 2 . Le biais vaut σ 2 /n et tend donc vers 0 .
L σ X̄ − µ L
X̄ −→ N µ, i.e −→ N (0, 1)
n √σ
n
Exercice 1.0.11 Soit un lot de 500 chocolats. Le poids d’un chocolat est
une v.a. telle que µ = 5g et σ = 0.5g. Quelle est la probabilité qu’une boite
de 50 chocolats issus de ce lot ait un poids total supérieur à 260g ?
4
Cas d’échantillon gaussien
Il correspond le cas de petits échantillons qui suivent des lois normales.
Théorème 1.0.12 Toute somme de variables aléatoires normales indépendantes
normale. Ainsi, si X ∼ N (µ, σ) alors pour toute
est une variable aléatoire √
valeur de n, X̄ ∼ N (µ, σ/ n), ou
X̄ − µ
√ ∼ N (0, 1)
σ/ n
nS 2
Théorème 1.0.13 La variable aléatoire 2 suit approximativement la loi
σ
du Khi deux à (n − 1) de degrés de liberté, c’est à dire
nS 2
2
∼ χ2 (n − 1)
σ
Autrement dit
σ2 2
S2 ∼ χ (n − 1)
n
Preuve 1.0.14 D’après la décomposition de S 2 :
n n
X 2
X 2
(Xi − µ) = Xi − X̄ + n(X̄ − µ)2
i=1 i=1
En divisant par σ 2 :
n 2 X n 2
X Xi − µ Xi − X̄ n
= + 2 (X̄ − µ)2
i=1
σ i=1
σ σ
!2
nS 2 X̄ − µ
= 2 +
σ √σ
n
2 2
On a : Xiσ−µ ∼ N (0, 1) ⇒ Xiσ−µ ∼ χ21 D’où : ni=1 Xiσ−µ χ2n , (Comme
P
somme de n carrés de variables aléatoires indépendantes normales centrées
réduites).
!2
X̄ − µ X̄ − µ
σ ∼ N (0, 1) ⇒ σ ∼ χ21
√ √
n n
D’où, on en déduit:
nS 2
∼ χ2n−1
σ2
2 σ2 2
i.e S ∼ χn−1
n
5
On a aussi
X̄ − µ
√ √ ∼ tn−1
S 2/ n − 1
Fréquence empirique:
Soit une population comportant deux modalité A et B. Soit p la proportion
d’individus possédant la modalité A.1−p est donc la proportion des individus
possédant la modalité B
On extrait de la population un échantillon de taille n. Soit la variable
aléatoire Kn : nombre d’individus dans l’échantillon ayant la modalité A.
Propriété:
Kn ∼ B(n, p), E (Kn ) = np, Var (Kn ) = npq
p(1 − p)
E(F ) = p et Var(F ) =
n
Loi de probabilité pour F :
Pour n > 30, np ≥ 5 et n(1 − p) ≥ 5 approximativement on a
r
p(1 − p)
F ∼ N (p, )
n
ou
F −p
r ∼ N (0, 1)
p(1 − p)
n
6
Chapter 2
Distributions d’échantillonnage
Échantillonnage non-exhaustif:
Considérons l’ensemble de tous les échantillonnages possibles de taille n pou-
vant être prélevés dans la population-mère, d’une manière non-exhaustive,
et soit k le nombre de ces échantillons.
{µ1 , µ2 , µ3 , . . . µi , . . . µk }
7
On introduit ainsi un nouveau caractère µ qui associe la valeur µi à l’échantillon
i. La distribution de µ est caractérisée par les paramètres le nombre d’échantillons
k, la moyenne E(µ) et variance σ(µ).
Proposition 2.0.2
E(µ) = E(X) = M
V (µ) = V (X)
n
σ(µ) = σ(X)
√
n
= √σn
Échantillonnage exhaustif
Dans ce cas les échantillonnages possibles de taille n pouvant être prélevés
dans la population-mère, d’une manière exhaustive (tirage sans remise).
Proposition 2.0.3 On a
E(µ) = M
V (µ) = V (X) N−n
nq N−1
σ(µ) = √σ N−n
n N−1
On voit que lorsque N est très grand comparé à n, la variance est équivalente
à celle du cas non-exhaustif.
E(X) = p
p
σ(X) = p(1 − p)
8
Définition 2.0.4 On appelle distribution d ’échantillonnage des fréquences
l’ensemble des fréquences fi des différents échantillons
{f1 , f2 , f3 · · · fi · · · fk }
E(f) = p
p
σ(f) = pqn
Échantillonnage exhaustif
E(f ) = p q
σ(f ) = pq N −n
p
n N −1
9
Chapter 3
Estimation
10
Définition 3.1.2 Soit Tn un estimateur de θ.
Soient Tn et Tn0 deux estimateurs sans biais de θ.Tn est dit plus efficace
que Tn0 si
V (Tn ) ≤ V (Tn0 )
Exemples d’estimateurs
Considérons soit X1 , X2 , . . . , Xn un n-échantillon aléatoire simple.
n−1 2
E(S 2 ) = σ
n
2 2σ2
alors, E(S ) − σ = − = 6 0
n
11
Proposition 3.1.5 La variance empirique X̄ est un estimateur biaisé
σ2
de θ = σ 2 de biais − .
n
2
Proposition 3.1.6 On a E(Sm ) = σ 2 , alors Sm
2
est estimateur sans
biais de θ = σ 2 car E(Sm
2
) − σ 2 = 0.
Fréquence empirique :
Soit une population ayant des individus possédant une certaine car-
actéristique A. On veut estimer à partir d’un échantillon de taille n la
proportion p d’individus possédant cette caractéristique A. Soit K la
v.a qui représente le nombre d’individus dans l’échantillon possédant
la caractéristique A. On sait que la moyenne de la fréquence empirique
K
F = est E(F ) = p et V (F ) = p(1−p)
n
n
t1 < θ < t2
plutôt que d’écrire sèchement θ = t, car on sait que la valeur estimée t diffère
toujours de la valeur exacte du paramètre recherché, θ. Il est donc souhaitable
de donner la précision de l’estimation en acceptant de faire une erreur α sur
celle-ci.
12
Définition 3.1.8 Soit X une v.a. dont la loi dépend d’un paramètre inconnu
θ.
On appelle intervalle de confiance pour θ de niveau 1−α (ou de risque
ou seuil α ), un intervalle qui dépend de X1 , . . . , Xn , contenant la valeur θ
avec probabilité ≥ 1 − α.
Autrement dit, [t1 , t2 ] est un intervalle de confiance de niveau 1 − α pour
θ signifie
P (t1 < θ < t2 ) = 1 − α
Les niveaux de confiance les plus fréquemment utilisés sont 90%, 95%, 99%
13
3.1.3 Intervalle de confiance de la moyenne
a. La variance σ 2 connue:
On sait alors qu’un bon estimateur ponctuel de µ est X̄ (estimateur sans
biais, convergent et efficace) et que (vrai aussi pour n > 30 )
X1 + X2 + . . . + Xn σ X̄ − µ
X̄ = ∼ N µ, √ et Z = ∼ N (0, 1)
n n √σ
n
P (|Z| ≤ uα ) = 1 − α ⇔ P (Z ≤ uα ) = 1 − α/2
14
Exemple 3.1.10 Exemple 3.3 .4 Une machine M fabrique des engrenages
en grande série. Des études antérieures permettent de dire que les mesures
des diamètres forment une population normale d’écart-type σ = 0, 042 cm.
On extrait un échantillon non exhaustif de la fabrication journalière de taille
n = 200 engrenages. La moyenne des diamètres sur cet échantillon est x̄ =
0, 824 cm. Donner au niveau de confiance 95% un intervalle de confiance de
la moyenne m des diamètres des engrenages.
Solution:
b. La variance σ 2 inconnue:
Dans cette situation l’expression précédente de l’intervalle de confiance ne
peut être calculée car σ 2 n’est plus connu. On peut remplacer σ 2 par son
estimateur représenté par la variance empirique modifiée
n
2 1 X 2
Sm = Xi − X̄
n − 1 i=1
et faire comme avant sauf qu’il faut remplacer la loi normale N (0, 1) par la
loi de Student T (n − 1). On sait que
X̄ − µ
r ∼ T (n − 1)
2
Sm
n
15
1
Pn 2
On peut considérer la variance empirique S 2 = n i=1 Xi − X̄ on aura
a
X̄ − µ
r ∼ T (n − 1)
S2
n−1
S2 S2
car = m.
n−1 n
P (−tα < T < tα ) = 1 − α.
On reprend le calcul précédent l’intervalle de confiance pour µ
Sm Sm
X̄ − tα √ , X̄ + tα √
n n
ou bien
S S
X̄ − tα √ , X̄ + tα √
n−1 n−1
où tα est donné par
P (|T | ≤ tα ) = 1 − α ⇔ P (T ≤ tα ) = 1 − α/2
P (−tn−1,α ≤ T ≤ tn−1,α ) = 1 − α
16
3.1.4 Intervalle de confiance de la variance
La moyenne µ connue
L’intervalle de confiance de la variance σ 2 se calcule à partir de l’échantillon
de taille n par
"P #
n 2 Pn 2
i=1 (X i (ω) − µ) (X i (ω) − µ)
Iσ2 = , i=1
b a
La moyenne µ inconnue
À nouveau, comme µ est inconnue, l’idée est de la remplacer par son estima-
tion X̄, alors, l’intervalle de confiance de la variance σ 2 est donné par
2
nS nS 2
Iσ2 = ,
b a
1 Pn 2
où S 2 = i=1 Xi − X̄ les réels a et b sont à déterminer dans la table de
2
la loi χ2 (n − 1) de la v.a. U par
P (U ≤ a) = α/2 et P (U ≤ b) = 1 − α/2
Si s2 une réalisation de la variance empirique S 2 , alors
2
ns ns2
Iσ2 = ,
b a
17
On se fixe le risque α puis on cherche dans la table de la loi normale la
valeur zα , telle que
P (−zα < Z < zα ) = 1 − α,
ceci est équivalent à
r r !
p(1 − p) p(1 − p)
P F − zα < p < F + zα = 1 − α.
n n
On obtient un intervalle de confiance de p au niveau de confiance 1 − α
r r
pq pq
Ip = F − zα ; F + zα
n n
Proposition 3.1.12 Soit f une réalisation de la fréquence empirique F .
Alors l’intervalle de confiance de p de risque α est
" r r #
p(1 − p) p(1 − p)
Ip = f − zα ; f + zα
n n
18