Unisat L 2 Proba Stat
Unisat L 2 Proba Stat
Unisat L 2 Proba Stat
UNISAT, Licence 2
I EUE 1 : Probabiités 5
1 Analyse combinatoire 6
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Arrangements sans répétitions . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Arrangements avec répétitions . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Combinaisons sans répétitions . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Combinaisons avec répétitions . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Espace probabilisé 9
2.1 Univers des possibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Evénements, Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Conditionnement et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2
TABLE DES MATIÈRES 3
3.9.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.9.2 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.9.3 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Vecteurs aléatoires 22
4.1 Couple de variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Couple de variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . 23
4.3 Caractéristique d’un couple de variables aléatoires . . . . . . . . . . . . . . . . . 23
4.3.1 Covariance, coefficient de correlation . . . . . . . . . . . . . . . . . . . . 23
4.3.2 Moments d’un couple de variables aléatoires . . . . . . . . . . . . . . . . 24
4.3.3 Matrice de variance-covariance . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
7 Exercices corrigés 29
8 Modélisation statistique 36
8.1 Echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.2 Modèles statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9 Estimateurs 39
9.1 Principe général de l’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
9.1.1 Propriétés à distance finie . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
9.1.1.1 Echantillon gaussien . . . . . . . . . . . . . . . . . . . . . . . . . 39
9.1.1.2 Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 40
9.1.2 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
9.1.2.1 Convergence ou consistance . . . . . . . . . . . . . . . . . . . . 41
9.1.2.2 Normalité asymptotique . . . . . . . . . . . . . . . . . . . . . . 41
9.2 Methode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . 42
9.3 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
EUE 1 : Probabiités
5
Chapitre
1 Analyse combinatoire
1.1 Introduction
L’analyse combinatoire est un important outil dans de nombreuses branches des mathé-
matiques, notamment dans la théorie des probabilités et en statistique. Soient deux éléments
a et b. On distingue deux types de dispositions ou groupes :
— disposition ordonnée : (a, b) 6= (b, a)
— disposition non ordonée : (a, b) = (b, a)
1.2 Principes
Il existe deux principes fondamentaux en analyse combinatoire :
— Principe additif : Si une tâche peut être accomplie de m manières, et si une autre
tâche peut être accomplie de n manières. Et si les deux tâches ne peuvent pas être
réalisées simultanément, alors la réalisation d’une ou de l’autre des deux tâches peut
être accomplie de m + n manières.
— Principe multiplicatif : Si une procédure peut être découpée en deux étapes, et
qu’il y a m facons possibles de réaliser la première étape, et qu’il y a n facons possibles
de réaliser la seconde étape, alors la procédure peut être accomplie de nm facons.
1.3 Arrangements
Définition 1.3.1. Un arrangement de p éléments choisis parmi n éléments est une dispo-
sition ordonnée de p de ces n éléments.
On distingue les arrangements avec répétitions et les arrangements sans répétitions.
6
1.4. COMBINAISONS 7
où n! = n × (n − 1) × . . . × 2 × 1.
Exemple 1.3.1. Le nombre d’arrangements sans répétitions que l’on peut faire avec deux
éléments choisis parmi trois éléments a, b, c est A 23 = 6. Ces 6 arrangements sont : (a,b),
(b,a), (a,c), (c,a), (b,c), et (c,b).
Remarque 1.3.1. Un arrangement sans répétitions est une permutation si p = n. Le
nombre de permutations de n éléments est :
A nn = n!
Exemple 1.3.2. Le nombre de permutations de 3 éléments a, b, c est P3 = 3! = 6. Ces 6
permutations sont : (a,b,c), (a,c,b), (b,a,c), (b,c,a), (c,a,b), et (c,b,a).
Exemple 1.3.3. Tirage sans remise : Une urne U contient n boules numérotés de 1 à n. On
tire successivement p boules de U sans les remettre dans l’urne. Il y a A np tirages différents
possibles.
1.4 Combinaisons
Définition 1.4.1. Une combinaison de p éléments choisis parmi n éléments est une dispo-
sition non ordonnée de p de ces n éléments.
On distingue les combinaisons avec répétitions et les combinaisons sans répétitions.
Exemple 1.4.3. Le nombre de combinaisons avec répétitions que l’on peut faire avec deux
éléments choisis parmi trois éléments a, b, c est K 32 = C42 = 6. Ces 6 combinaisons sont :
(a, a), (a, b), (a, c), ( b, b), ( b, c) et ( c, c)
Exemple 1.4.4. Soit E = {R, V , B}. Alors (B, B, R, V , V ) est une combinaison avec répétition
de 5 éléments de E.
Exemple 1.4.5. On souhaite répartir p chiffons dans n tiroirs. On note les tiroirs t1 , . . . , t n .
A une répartition, on associe le mot t1 , . . . , t1 , t2 , . . . , t2 , . . . , t n , . . . , t n , où chaque t i est répété
autant de fois que le nombre de chiffons rangés dans le tiroir. On obtient une combinaison
avec répétitions.
Chapitre
2 Espace probabilisé
L’objet des probabilités est de modéliser des phénomènes aléatoires et de prédire avec
certitude leur évolution ou les conséquences qu’ils peuvent engendrer.
Définition 2.1.2. L’univers des possibles (ou univers), noté Ω est défini par l’ensemble de
tous les résultats possibles qui peuvent être obtenus au cours d’une expérience aléatoire.
Exemple 2.1.1. Voici quelques expériences aléatoires et les univers des possibles corres-
pondants :
1. On lance une pièce. On a Ω = {pile, face}.
2. On jette un dé. On a Ω = {1, 2, 3, 4, 5, 6}.
3. On jette deux dés. On a
4. Un bus est censé passer toutes les 30 minutes à l’école de police pour se rendre à Faya.
Un passager arrive à l’arrêt de bus. On cherche à modéliser son temps d’attente. A
priori, on peut supposer que ce temps d’attente est dans l’intervalle Ω = [0, 30].
9
10 CHAPITRE 2. ESPACE PROBABILISÉ
Définition 2.2.2. Un événement constitué d’un seul élément est un événement élémentaire
(ou singleton).
Exemple 2.2.1. On considère une expérience aléatoire correspondant au lancer d’un dé à 6
faces. L’univers est alors Ω = {1, 2, 3, 4, 5, 6}. L’événement ” nombre pair ”, noté A, correspond
au sous-ensemble de l’ univers Ω défini par A = {2, 4, 6}.
Définition 2.2.7. Deux événements A et B sont disjoints s’ils n’ont pas d’élément en com-
mun, c’est à dire, A ∩ B = ; . Ces deux événements sont donc incompatibles : la réalisation
simultanée de ces événements est impossible.
Définition 2.2.10. Soit Ω un ensemble et A ⊂ P (Ω). On dit que A est une tribu sur Ω si
les trois conditions suivantes sont vérifiées :
• Ω∈A
• si A ∈ A alors Ā ∈ A (stabilité par passage au complémentaire)
• si ( A i ) i∈ I est une famille dénombrable d’éléments de A alors A i ∈ A . (stabilité par
[
i∈ I
réunion dénombrable)
Remarque 2.2.1. La tribu A sur Ω représente l’ensemble de tous les évènements sucep-
tibles de se produire au cours de l’expérience aléatoire E . Lorsque l’ensemble Ω est fini ou
infini dénombrable, on choisira pour A l’ensemble de toutes les parties de Ω, c’est-à-dire,
A = P (Ω).
Le couple (Ω, A ) est appelé espace probabilisable. Pour compléter la description d’un
phénomène aléatoire, il nous reste à introduire la notion de mesure de probabilité.
2.3. PROBABILITÉ 11
2.3 Probabilité
Pour une expérience aléatoire donnée, une fois déterminé le couple (Ω, A ) qui représente
l’univers Ω associé à cette expérience et la tribu des évènements A , on définit une application
de A à valeurs dans [0, 1] qui à chaque évènement associe sa probabilité, c’est à dire la chance
de réalisation de cet évènement.
Définition 2.3.1. On appelle probabilité sur (Ω, A ) une application P : A → [0, 1] telle
que :
(i) P(Ω) = 1
(ii) si ( A i ) i∈ I est une famille dénombrable d’éléments de A deux à deux disjoints ou
incompatibles (i.e. ∀ i 6= j, A i ∩ A j = ;) alors
à !
P P( A i ).
[ X
Ai =
i∈ I i∈ I
n
P( A i ) = P( A 0 ) × P( A 1 / A 0 ) × P( A 2 / A 0 ∩ A 1 ) × . . . × P( A n / A 0 ∩ A 1 ∩ . . . ∩ A n−1 ).
\
i =0
P( A 0 ∩ A 1 ) = P( A 0 ) × P( A 1 / A 0 ).
Pour n = 2, on a
P( A 0 ∩ A 1 ∩ A 2 ) = P( A 0 ) × P( A 1 / A 0 ) × P( A 2 / A 0 ∩ A 1 ).
Définition 2.4.2. Une famille finie d’évènements ( A i )1≤ i≤n deux à deux incompatibles tels
que ∪ni=1 A i = Ω est appelée système complet d’évènements.
Exemple 2.4.2. Une urne contient des boules blanches et noires, marquées ou non. On
suppose que parmi les boules marquées, il y a 30% de boules blanches et parmi les non mar-
quées 60%. Par ailleurs, on sait que 80% des boules sont marquées. Quelle est la probabilité
de tirer une boule blanche ?
Solution. On note
B =”la boule est blanche”
M =”la boule est marquée”
On a
B = (B ∩ M ) ∪ (B ∩ M c )
P(B) = P(B ∩ M ) + P(B ∩ M c )
= P( M ) × P(B/ M ) + P( M c ) × P(B/ M c )
80 30 20 60 36
= × + × = .
100 100 100 100 100
Exemple 2.4.3. Le quart d’une population est vacciné contre le choléra. Au cours d’une
épidémie, on constate qu’il y a parmi les malades un vacciné pour 4 nonvaccinés, et qu’il
y a un malade sur 12 parmi les vaccinés. Quelle est la probabilité qu’un non-vacciné tombe
malade ?
2.4. CONDITIONNEMENT ET INDÉPENDANCE 13
2.4.2 Indépendance
Définition 2.4.3. Soient A et B deux évènements. On dit que A et B sont indépendants si
P( A ∩ B) = P( A )P(B).
3.1 Généralités
Soit (Ω, A , P) un espace probabilisé. La variable aléatoire X traduit une situation liée à
l’expérience aléatoire modélisée par l’espace probabilisé (Ω, A , P).
Définition 3.1.1. Une variable aléatoire X réelle est une application définie sur Ω à valeurs
dans R telle que pour tout x ∈ R,
n o
{ X ≤ x} = ω ∈ Ω : X (ω) ≤ x ∈ A .
Étant donnés un espace probabilisé (Ω, A , P) et une variable aléatoire réelle X , on peut
construire de façon naturelle une probabilité sur X (Ω), l’ensemble des valeurs prises par la
fonction X . Cette probabilité est appelée loi de la variable aléatoire X et est notée P X .
La loi de probabilité d’une variable aléatoire réelle discrète X est déterminée par :
1. X (Ω)
2. f ( x) = P X ({ x}) = P( X = x), pour tout x ∈ X (Ω).
La fonction f est appelée fonction de masse. La probabilité d’un évènement A est donnée
par
P X ( A ) = P( X ∈ A ) = P( X = x ) .
X
x∈ A
Nous avons
X
f ( x ) = 1.
x ∈ X (Ω )
14
3.3. VARIABLES ALÉATOIRES CONTINUES 15
Définition 3.3.2. On dit qu’une variable aléatoire réelle continue admet une densité f si
pour tout intervalle [a, b] ⊂ X (Ω) :
Z b
P( X ∈ [a, b]) = f ( x) dx
a
Z +∞
où f est une fonction positive telle que f ( x) dx = 1.
−∞
La fonction f est appelée densité de probabilité de X .
Il suffit donc de connaı̂tre la densité de probabilité f pour connaı̂tre la loi de X .
F ( x ) = P( X ≤ x ) .
Proposition 3.4.1. On a :
1. F est croissante ;
2. F est continue à droite ;
3. lim F ( x) = 1 et lim F ( x) = 0;
x→+∞ x→−∞
4. Pour tous réels a et b avec a < b,
P( X = x ) = F ( x + ) − F ( x − ) = F ( x ) − F ( x − )
où
F ( x+ ) = lim F ( t).
t→ x,t> x
−
F ( x ) = lim F ( t).
t→ x,t< x
P( X = t ) ∀ x ∈ R..
X
F ( x) =
t≤ x
Exemple 3.4.1. On lance deux dés non pipés. L’univers associé à cette expérience est
Ω = {( i, j ) : 1 ≤ i, j ≤ 6}.
x 2 3 4 5 6 7 8 9 10 11 12
px 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
E( g( X )) = g( x)P( X = x)
X
x ∈ X (Ω )
Proposition 3.5.3. Soient X et Y deux variables aléatoires réelles telles que X ≤ Y , alors
E[ X ] ≤ E[Y ].
L’espérance de X est la moyenne pondérée des valeurs que X peut prendre, les poids
étant les probabilités que ces valeurs soient prises. C’est un indicateur de localisation. Néan-
moins, la connaissance de l’espérance seule donne peu de renseignements sur X . Ainsi, elle
s’accompagne de la variance qui caractérise la dispersion de X autour de sa moyenne E( X ).
Définition 3.6.2. Soit X une variable aléatoire continue de densité f X . On appelle moment
d’ordre k ≥ 1, la quantité Z +∞
E[ X k ] = x k f X ( x) dx.
−∞
Définition 3.6.3. Soit X une variable aléatoire qui admet des moments d’ordre deux i.e.
E[ X 2 ] < +∞. On appelle variance de X la quantité
(
X (Ω) = {1, . . . , N }
X ,→ U N ⇐⇒ 1
P ( X = k) = N, ∀ k ∈ X (Ω)
N +1
E( X ) =
2
et
N2 − 1
var ( X ) = .
12
Exemple 3.8.1. Soit X le résultat d’un lancer de dé non truqué : alors ∀ i ∈ X (Ω) =
{1, 2, 3, 4, 5, 6}, P ( X = i ) = 16 ; X suit la loi uniforme U 6 .
(
X (Ω) = {0, 1}
X ,→ B (1, p) ⇐⇒
P ( X = 1) = p, P ( X = 0) = 1 − p
E( X ) = p
Cette variable modélise l’issue d’une expérience où l’on ne s’intéresse qu’au ”succès” ou à
l’”echec” de l’expérience.
Exemple 3.8.2. Lancer d’une pièce de monnaie (pile ou face), qualité d’un produit (bon
ou defectueux), sondage elctoral (pour ou contre).
E ( X ) = np
Cette loi modélise une succession de ”succès” et d’”échecs”, p étant la probabilité du succès.
20 CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLE
3.8.4 Loi hypergéométrique
Soit une population de N individus parmi lesquels une proportion p (donc N p individus)
possède un caractère. Il s’agit par exemple de la proportion des individus qui souffrent d’une
maladie, ou de la proportion des pièces défectueuses dans un grand lot de fabrication. On
prélève un échantillon de n individus parmi cette population (le tirage pouvant s’effectuer
d’un seul coup ou au fur et à mesure mais sans remise). On note X la variable aléatoire
égale au nombre d’individus de l’échantillon possédant le caractère envisagé. La loi de X est
appelée loi hypergéométrique de paramètre N , n, p et notée H ( N, n, p) :
X (Ω) = { max(0, n − (1 − p) N ), min( N p, n)}
X ,→ H ( N, n, p) ⇐⇒ k C n− k
CN .
P ( X = k) = p (1− p) N
n
CN
, ∀ k ∈ X (Ω)
E ( X ) = np.
1
E( X ) =
p
1− p
var ( X ) = .
p2
Exemple 3.8.3. On effectue des lancers indépendants d’une pièce, dont la probabilité d’ob-
tenir face est p, jusqu’à l’obtention d’un ”face”. On note X la v.a.r égale au nombre de
lancers nécessaires. On dit également que X est le temps d’attente du premier ”face”.
E ( X ) = var ( X ) = λ.
3.9. LOIS CONTINUES 21
f ( x) = ρ e−ρ x 1R+ ( x)
Cette loi de probabilité est fortement utilisée pour décrire les durées de vie (par exemple
la durée de vie des transistors electroniques).
Chapitre
4 Vecteurs aléatoires
Par simplicité, nous ne considérons que des vecteurs aléatoires où les variables sont de
même nature, discrètes ou continues, et exclurons les cas mixtes.
22
4.2. COUPLE DE VARIABLES ALÉATOIRES À DENSITÉ 23
On a Cov( X , Y ) = Cov(Y , X ).
Si Cov( X , Y ) = 0, on dit que X et Y sont non corrélées.
Définition 4.3.2. On appelle coefficient de corrélation linéaire de X et de Y , le nombre
Cov( X , Y )
ρ( X , Y ) =
σ X σY
où σ X est l’écart-type de X , σY celui de Y .
Proposition 4.3.1. On a −1 ≤ ρ ( X , Y ) ≤ 1.
Remarque 4.3.1. • Si ρ ( X , Y ) > 0 alors X et Y évoluent dans le même sens.
• Si ρ ( X , Y ) < 0 alors X et Y évoluent en sens contraire.
24 CHAPITRE 4. VECTEURS ALÉATOIRES
4.3.2 Moments d’un couple de variables aléatoires
Soit X = ( X 1 , X 2 ) un couple de variables aléatoires.
Définition 4.3.3. L’espérance de X est E( X ) = (E( X 1 ), E( X 2 )) .
Dans ce chapitre, toutes les variables aléatoires sont réelles et sont définies sur le même
espace probabilisé (Ω, A , P). Les résultats peuvent s’applique aux vecteurs aléatoires.
lim F X n ( x) = F X ( x)
n→+∞
L
en tout point x où F X est continue. On note X n −→ X .
Proposition 5.1.1. Si X n et X sont des variables aléatoires discrètes pour tout n,
L
X n −→ X ⇔ P( X n = x) → P( X = x).
P
On note X n −→ X
Remarque 5.1.1. La convergence en probabilité implique la convergence en loi. La réci-
proque est fausse en général et vraie dans le cas où X = c, c est une constante.
Proposition 5.1.2. Convergence vers une constante
P L
∀c ∈ R X n −→ c ⇔ X n −→ X
25
26 CHAPITRE 5. CONVERGENCES ET THÉORÈMES LIMITES
Proposition 5.1.3. Condition suffisante de convergence en probabilité On suppose
P
que a est une constante réelle. Si E( X n ) → a et var( X n ) → 0 alors X n −→ a.
Définition 5.1.3. Deux variables aléatoires sont égales presque sûrement si
³ ´
P {ω ∈ Ω : X (ω) = Y (ω)} .
p.s
On note X n −→ X
Remarque 5.1.2. La convergence presque sûre implique la convergence en probabilité.
Théorème 5.1.2. Soit g est une fonction continue. Alors
L L
- X n −→ X =⇒ g( X n ) −→ g( X ).
P P
- X n −→ X =⇒ g( X n ) −→ g( X ).
ps ps
- X n −→ X =⇒ g( X n ) −→ g( X ).
1X n
p.s.
X i −→ E( X 1 ).
n i=1
Exercice 1. Une population est composée de 40% d’hommes et de 60% de femmes ; 50%
des hommes et 30% des femmes fument. Quelle est la probabilité pour qu’un fumeur, choisi
au hasard soit une femme ?
Exercice 2. On a melangé par inadvertance des graines de deux provenances différentes
A et B. On a ainsi un ensemble de graines dont 1/3 provient de A et 2/3 de B. La moitié
des graines de A et les trois quarts des graines de B sont noires. On choisit une graine au
hasard ; elle est noire. Quelle est la probbilité pour qu’elle provienne de A .
Exercice 3. Deux machines M1 et M2 produisent respectivement 100 et 200 objets. M1
produit 5% de pièces défectueuses et M2 produit 6%. Quelle est la probabilité pour qu’un
objet défectueux ait été fabriqué par la machine M1 ?
Exercice 4. Soit X la variable aléatoire telle que X (Ω) = {0, 1, 2} et
P( X = 0) = k P( X = 1) = 2 k P( X = 2) = 3 k.
1. Trouver k.
2. Calculer l’espérance et la variance de X .
3. Déterminer la fonction de répartition de X et représenter graphiquement cette fonc-
tion.
Exercice 5. On admet que le nombre de défauts X sur le verre d’une ampoule obéit à une
loi de Poisson de paramètre λ = 4. Calculer la probabilité des évènements suivants :
1. L’ampoule est sans défaut.
2. Il y a plus de deux défauts sur l’ampoule.
3. Il y a entre trois et sept défauts sur l’ampoule.
Exercice 6. Un gardien de nuit doit ouvrir une porte dans le noir, avec n clefs dont une
seule est la bonne.
1. Donner la loi de probabilité du nombre X d’essais nécessaires s’il essaie les clefs une
à une sans utiliser deux fois la même. Calculer l’espérance et la variance de X .
2. Lorsque le gardien est ivre, il mélange toutes les clefs à chaque tentative. Identifier
la loi de X . Rappeler l’espérance et la variance de X .
27
28 CHAPITRE 6. EXERCICES NON CORRIGÉS
3. Le gardien est ivre un jour sur trois. Sachant qu’un jour n tentatives ont été néces-
saires pour ouvrir la porte, quelle est la probabilité que le gardien ait été ivre ce jour
là ? Calculer sa limite.
Exercice 7. Soit Y une variable aléatoire de loi exponentielle de paramètre λ > 0 et ε une
variable aléatoire indépendante de Y et telle que P(ε = 1) = P(ε = −1) = 12 . Quelle est la loi de
Z = εY . Cette loi est appelée loi exponentielle symétrique.
Exercice 9 : Soit X et Y deux variables aléatoires à valeurs dans N telles que pour tout
( i, j ) ∈ N2
α
P( X = i, Y = j ) = .
2 i+ j
1. Déterminer α
2. Donner les lois marginales de X et Y
3. X et Y sont-elles indépendantes ?
Chapitre
7 Exercices corrigés
Exercice 1 :La loi de la variable aléatoire X est donnée par le tableau suivant :
xi 1 2 3 4 5
P( X = x i ) 0.25 p2 0.18 p4 0.37
1. Déterminer les valeurs de p 2 et p 4 sachant que les événements ( X = 3) et ( X = 4) sont
équiprobables.
Puisque
0.25 + p 2 + 0.18 + p 4 + 0.37 = 1 p2 = p4
0.8 + 2 p 2 = 1 ⇒ p 2 = 0.1 = p 4
2. Déterminer la fonction de répartition de X .
On sait que
P( X = t).
X
F ( x) =
t≤ x
Par suite, on a
0 si x < 1
P( X = 1) = 0.25 si 1 ≤ x < 2
P( X = 1) + P( X = 2) = 0.35 si 2 ≤ x < 3
F ( x) =
P( X = 1) + P( X = 2) + P( X = 3) = 0.53 si 3 ≤ x < 4
P( X = 1) + P( X = 2) + P( X = 3) + P( X = 4) = 0.63 si 4 ≤ x < 5
P( X = 1) + P( X = 2) + P( X = 3) + P( X = 4) + P( X = 5) = 1 si x ≥ 5
0 si
x<1
0.25 si 1≤x<2
0.35 si 2≤x<3
F ( x) =
0.53 si 3≤x<4
0.63 si 4≤x<5
1 si x≥5
29
30 CHAPITRE 7. EXERCICES CORRIGÉS
3. Calculer l’espérance et la variance de X .
L’espérance de X est
E( X ) = x P( X = x )
X
x ∈ X (Ω )
E( X 2 ) = x2 P( X = x)
X
x ∈ X (Ω )
La variance de X est
V ar ( X ) = E( X 2 ) − (E( X ))2
= 2.6224
Exercice 2 : Soit X une variable aléatoire continue dont la densité de probabilité est définie
par :
(
cx(2 − x) si 0 ≤ x ≤ 2
f X ( x) =
0 sinon
1. Déterminer c.
f X ( x) ≥ 0 ∀ x ∈ R
Z +∞
fX est une densité ⇐⇒
f X ( x) dx = 1
−∞
f X ( x) ≥ 0 ⇒ c ≥ 0
Z +∞ Z 2 4c 3
f X ( x) dx = c x(2 − x) dx = =1⇒c= .
−∞ 0 3 4
p
3. Soit Y = X . Quelle est la fonction de répartition de Y ?
Soit y ∈ R
FY ( y) = P(Y ≤ y)
p
= P( X ≤ y)
(
0 si y < 0
=
P( X ≤ y2 ) = F X ( y2 ) si y ≥ 0
0 y ≤ 0 2
p
= 43 y4 (1 − y3 ) si 0 ≤ y ≤ 2
1 si y ≥ 2 p
Exercice 3 :
1. On a mélangé par inadvertance des graines de deux provenances différentes A et B.
On a ainsi un ensemble de graines dont 1/3 provient de A et 2/3 de B. La moitié des
graines de A et les trois quarts des graines de B sont noires. On choisit une graine au
hasard ; elle est noire. Quelle est la probabilité pour qu’elle provienne de A .
Par suite
P(B) = P( A ∪ B) − P( A ) = 0.7 − 0.5 = 0.2
2. les événements A et B sont indépendants
Les événements étant indépendants, on a
P( A ∪ B) = P( A ) + P(B) − P( A ∩ B)
= P( A ) + P(B) − P( A )P(B)
P( A ∪ B) − P( A )
P( B ) = = 0.4
1 − P( A )
33
3. P( A | B) = 0.5
P( A ∪ B) = P( A ) + P(B) − P( A ∩ B)
= P( A ) + P(B) − P(B)P( A | B)
P( A ∪ B) − P( A )
P( B ) = = 0.4
1 − P( A | B )
On note
M1 = ”la pièce est produite par la machine 1”
M2 = ”la pièce est produite par la machine 2”
D = ”la pièce est produite est défectueuse”
1
P( M 1 ) =
3
2
P( M 1 ) =
3
P(D | M1 ) = 0.05
P(D | M2 ) = 0.06
P( M2 )P(D | M2 )
P( M2 | D ) =
P( M2 )P(D | M2 ) + P( M1 )P(D | M1 )
= 0.71
Exercice 6 : Soit X une variable aléatoire dont la densité est donnée par
(
a(4 x − 2 x2 ) si 0 < x < 2
f ( x) =
0 sinon
0 si x ≤ 0
3 2 x3
F ( x) = x − si 0 ≤ x ≤ 2
4 4
1 si x ≥ 2
ECUE 2 : Statistique
inférentielle
35
Chapitre
8 Modélisation statistique
8.1 Echantillonnage
Exemple 8.1.1. Une entreprise de l’industrie textile souhaite étudier le poids et la taille des
ivoiriens et ivoiriennes de plus de 18 ans (population) afin d’ajuster au mieux ses produits
à la morphologie de ses clients.
Pour mener à bien cette étude, l’entreprise a deux solutions : le recensement ou l’échan-
tillonnage.
Dans le cas où la taille de la population est grande, il faut recourir à l’échantillonnage.
L’échantillonnage se définit comme la méthode de construction d’un échantillon.
Quel est l’intérêt de constituer un échantillon ? L’idée est d’étudier le caractère pour les
individus sélectionnés dans l’échantillon afin d’en tirer de l’ information sur ce caractère
pour l’ensemble de la population. Par conséquent, d’un côté la taille n de l’échantillon doit
être suffisamment importante pour que l’on puisse obtenir une information fiable sur la po-
pulation, mais d’un autre côté elle doit être la plus petite possible afin de limiter le coût de
l’enquête.
Une question se pose alors : comment choisir les individus qui composent l’échantillon ?
On distingue deux grandes méthodes d’échantillonnage. La première repose sur un choix
déterministe des individus. On parle dans ce cas d’échantillon déterministe (ou certain) :
les individus de l’échantillon ne sont pas choisis au hasard. En pratique la méthode la plus
utilisée est celle de l’échantillonnage aléatoire.
36
8.2. MODÈLES STATISTIQUES 37
Echantillon aléatoire : c’est un échantillon dont les individus sont tirés au hasard parmi
la population. Le tirage de l’échantillon peut se faire avec remise (un même individu de la
population peut apparaı̂tre plusieurs fois dans l’échantillon) ou sans remise (chaque individu
de la population ne peut apparaı̂tre qu’une seule fois dans l’échantillon).
On considère deux situations différentes conduisant à un échantillon :
- la répétition d’une expérience aléatoire
Exemple 8.1.2. On lance n fois une pièce. On note
(
1 si le lancer i est pile
Xi =
0 si lancer i est face.
S’il s’agit de la même pièce et qu’on ne modifie pas la manière dont on lance, alors on
peut dire que les X i sont indépendantes et identiquement distribuées de loi commune
la loi de Bernoulli B (1, θ ). Le paramètre θ représente la probabilité du succès, c’est à
dire la probabilité d’obtenir pile.
- la considération d’un échantillon au sein d’une population
Exemple 8.1.3. Deux candidats Kouko et Yao sont en présence d’une élection. n
personnes sont tirées au hasard parmi les électeurs et interrogées sur leurs intentions
de vote. On note (
1 si l’individu i vote Kouko
Xi =
0 si l’individu i vote Yao.
Les valeurs observées sont considérées comme étant les réalisations de variables aléa-
toires X 1 , . . . , X n indépendantes et identiquement distribuées selon la distribution fi-
nale des voix, c’est à dire la loi de Bernoulli B (1, θ ). Le paramètre θ représente la
probabilité du succès, c’est à dire la probabilité de voter pour Kouko.
Définition
n 8.2.1. On
o appelle modèle statistique la donnée d’une famille de lois de proba-
bilité Pθ , θ ∈ Θ ⊂ R ; Θ est appelé espace des paramètre.
d
Echantillon : (X1, . . . , X n)
Réalisation : ( x1 , . . . , xn )
Définition 8.2.3. On appelle statistique toute variable aléatoire ne dépendant que de l’échan-
tillon ( X 1 , . . . , X n ).
1 ³ 1 ´
f ( x, µ, σ2 ) = p exp − 2 ( x − µ)2 .
2πσ 2σ
n o
3. Modèle exponentiel : E (θ ), θ ∈ Θ = R∗+ ⊂ R :
θx
f ( x, θ ) = e−θ 1N ( x).
x!
Définition 8.2.4. Le modèle statistique {Pθ , θ ∈ Θ} est identifiable lorsque l’application
θ 7−→ Pθ est injective.
Chapitre
9 Estimateurs
39
40 CHAPITRE 9. ESTIMATEURS
1. X n et S 2n sont indépendantes.
2
2. X n ,→ N (m, σn ).
( n−1)S 2n
3. σ2
,→ χ2 ( n − 1).
p
n( X n − m)
4. Sn ,→ T ( n − 1)
R (θbn , θ ) = Eθ (θbn − θ )2
Définition 9.1.3. Soient θbn et θen deux estimateurs de θ . On dit que θbn est préférable à θen
si
R (θbn , θ ) ≤ R (θen , θ ) ∀θ ∈ Θ ⇐⇒ R (θbn , θ ) − R (θen , θ ) ≤ 0 θ ∈ Θ.
Les deux estimateurs ne sont pas comparables si l’application θ 7→ R (θbn , θ ) − R (θen , θ ) change
de signe sur l’espace Θ.
Un estimateur optimal au sens du risque quadratique est l’estimateur qui a le plus petit
risque quadratique pour toute valeur de θ ∈ Θ. Il est souvent difficile, voire impossible, de
trouver un estimateur optimal.
Définition 9.1.4. Le biais d’un estimateur θbn de θ est défini par
b n (θ ) = Eθ (θbn ) − θ = Eθ (θbn − θ ).
Le biais de l’estimateur est la moyenne des écarts systématiques entre θbn et θ . L’absence
d’un écart systématique entre θbn et θ se traduit par un biais nul.
Définition 9.1.5. Un estimateur θbn de θ est dit sans biais lorsque pour tout θ ∈ Θ
Eθ (θbn ) = θ .
b ( m) = E m ( X n ) − m
n
³1 X ´ 1X n
Em ( X n ) = Em Xi = Em ( X i )
n i=1 n i=1
Comme Em ( X 1 ) = . . . = Em ( X n ) = m alors nous pouvons ecrire
n
³1 X ´ 1X n 1X n nm
Em ( X n ) = Em Xi = Em ( X i ) = m= =m
n i=1 n i=1 n i=1 n
Em ( X n ) = m ⇐⇒ b( m) = Em ( X n ) − m = 0 ∀ m ∈ R.
9.1. PRINCIPE GÉNÉRAL DE L’ESTIMATION 41
1X n
- La variance empirique Vn2 = ( X i − X n )2 est un estimateur biaisé de σ2 . En déduire
n i=1
1 X n
que S 2n = ( X i − X n )2 est un estimateur sans biais de σ2
n − 1 i=1
n−1 2
Eσ2 (Vn2 ) = σ 6= σ2 .
n
Cependant
n−1 2
Eσ2 (Vn2 ) =
σ −→ σ2
n
n n−1 2 n ³ n ´
σ2 = σ = Eσ2 (Vn2 ) = Eσ2 Vn2 = Eσ2 (S 2n ).
n−1 n n−1 n−1
Définition 9.1.6. Un estimateur θbn de θ est dit asymptotiquement sans biais lorsque pour
tout θ ,
Eθ (θbn ) −−−−−→ θ .
n→+∞
c’est à dire ³¯ ¯ ´
∀ε > 0 lim P ¯θbn − θ ¯ ≥ ε = 0.
¯ ¯
n→+∞
Interprétation : La convergence est une des propriétés les plus importantes pour un es-
timateur. On a la garantie qu’à un rang n assez grand et avec grande probabilité, θbn soit
proche du paramètre θ .
Quelles sont les conditions sur la fonction g ? La méthode delta permet de répondre à ce
type de préoccupations.
C’est à dire p 2 L
n( X n − m2 ) −−−−−→ N (0, 4 m2 σ2 )
n→+∞
∀θ ∈ Θ L n ( X 1 , . . . , X n , θbn ) ≥ L n ( X 1 , . . . , X n , θ ).
∂L n ( X 1 , . . . , X n , θ )
(θ̂n ) = 0
∂θ
2
∂ L n ( X 1 , . . . , X n , θ ) (θ̂n ) < 0.
∂θ 2
Puisque la fonction logarithme est croissante, vu la forme de L, il est aussi aisé d’utiliser
le logarithme de la vraisemblance si f ( x, θ ) > 0, ∀ x ∈ X (Ω), ∀θ . Un estimateur du maximum
de vraisemblance maximise le logarithme de la vraisemblance L n ( X 1 , . . . , X n , θ ) :
n
X
ln(L n ( X 1 , . . . , X n , θ )) = ln( f ( X i , θ ).
i =1
∂ ln(L n ( X 1 , . . . , X n , θ ))
(θ̂n ) = 0
∂θ
2
∂ ln(L n ( X 1 , . . . , X n , θ )) (θ̂n ) < 0.
∂θ 2
Exemple 9.2.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, θ ) avec
θ ∈]0, 1[. La vraisemblance de ( x1 , . . . , xn ) issu d’une loi de Bernouilli est :
n
θ x i (1 − θ )1− x i 1{0,1} ( x i )
Y
L( x1 , . . . , xn , θ ) =
i =1
³ θ ´Pn x i
= (1 − θ )n
i =1
1{0,1}n ( x1 , . . . , xn ).
1−θ
44 CHAPITRE 9. ESTIMATEURS
n
Pour tout ( x1 , . . . , xn ) ∈ {0, 1} , la log-vraisemblance est donnée
n
X n
X
ln L( x1 , . . . , xn , θ ) = x i ln(θ ) + ( n − x i ) ln(1 − θ )
i =1 i =1
Pn Pn
∂ ln L( x1 , . . . , xn , θ ) n
i =1 x i n− i =1 x i 1X
= − = 0 ⇐⇒ θ = xi = xn
∂θ θ (1 − θ ) n i=1
2
∂ ln L( x1 , . . . , xn , θ ) − nx n n − nx n
(xn ) = − < 0.
∂θ 2 x2n (1 − x n )2
θ̂n = X n .
∂ ln L( x1 , . . . , xn , θ ) n Xn 1
= − x i = 0 ⇐⇒ θ =
∂θ θ i=1 xn
∂2 ln L( x1 , . . . , xn , θ ) ³ 1 ´
= − nx2n < 0.
∂θ 2 xn
1
θ̂n = .
Xn
Pour montrer que θ̂n est biaisé (ou sans biais), il faut calculer
1 n 1
µ ¶ µ ¶ µ ¶
E = E Pn = n × E Pn
Xn i =1 X i i =1 X i
9.2. METHODE DU MAXIMUM DE VRAISEMBLANCE 45
Comme les variables X i sont indépendantes et de même loi E (θ ) = Γ(1, θ ), on en déduit que
n
Γ( n, θ ).
X
Xi
i =1
X +Y Γ(a + b, θ )
n
X
Posons Z = X i , nous avons
i =1
θn
Z Γ( n, θ ) ⇐⇒ f Z ( z, θ ) = z n−1 e−θ z 1R+∗ ( z)
Γ( n)
Finalement
1 n
µ ¶ µ ¶
E = E Pn
Xn i =1 X i
1
µ ¶
= n × E Pn
i =1 X i
µ ¶
1 n
= n×E
X
Z= Xi
Z i −1
Z +∞
1
= f Z ( z, θ ) dz
−∞ z
θn +∞
Z
= z n−2 e−θ z dz
Γ( n) 0
θn
Z +∞
= z(n−1)−1 e−θ z dz
Γ( n) 0
θn Γ( n − 1)
= ×
Γ( n) θ n−1
Γ(a) +∞
Z
= xa−1 e−ρ x dx
ρa 0
Γ( n) = ( n − 1)Γ( n − 1) n entier ≥ 1
Z +∞
Γ(a) = xa−1 e− x dx.
0
1 P
−−−−−→ θ .
Xn n→+∞
E( g( X 1 ) = q(θ ). (9.3.1)
1X n
g ( X i ) = q (θ ) (9.3.2)
n i=1
— Résoudre (9.3.2) ; si q est bijective alors l’estimateur par la méthode des moments
est donné par :
n
³1 X ´
θbn = q−1 g( X i ) .
n i=1
3. Etape 3 : s
2
θ= 1 Pn 2
n i =1 X i
Exercice 9.3.1. Pendant une année, un assureur a enregistré les montants de sinistres
suivants
{500, 1000, 1500, 2500, 4500}.
Il décide de modéliser ces données par une loi Log-normale(µ, σ2 ). En utilisant la méthode
des moments, estimer les paramètres µ et σ2 . Calculer ensuite la probabilité d’avoir un si-
nistre supérieur à 4 500.
10.1 Introduction
Définition 10.1.1. Soit α ∈]0, 1[ ; on appelle intervalle de confiance pour le paramètre θ de
niveau de confiance égale à 1 − α, un intervalle aléatoire I ( X 1 , . . . , X n ) ⊂ Θ tel que
Pθ ( I ( X 1 , . . . , X n ) 3 θ ) = 1 − α.
lim Pθ ( I ( X 1 , . . . , X n ) 3 θ ) = 1 − α.
n→+∞
Lorsque
I ( X 1 , . . . , X n ) = [T n∗ ( X 1 , . . . , X n ), T n∗∗ ( X 1 , . . . , X n )]
I ( X 1 , . . . , X n ) = [T n∗ ( X 1 , . . . , X n ), +∞[
ou
I ( X 1 , . . . , X n ) =] − ∞, T n∗ ( X 1 , . . . , X n )],
Remarque 10.1.1. Dans l’univers des échantillons possibles, pour une proportion au moins
1 − α d’entre eux, on obtient un intervalle qui contient θ .
Remarque 10.1.2. A α fixé, l’intervalle de confiance est d’autant meilleur que sa longueur
est petite.
48
10.2. CONSTRUCTION D’UN INTERVALLE DE CONFIANCE 49
Remarque 10.1.3. On doit comprendre un intervalle de confiance de niveau 1 − α comme
un intervalle aléatoire qui a une probabilité 1 − α de contenir le vrai parametre θ .
Définition 10.1.3. Soit X une variable aléatoire réelle de fonction de répartition F ( x) =
P( X ≤ x). Pour α ∈]0, 1[, on appelle quantile (ou fractile) d’ordre α de la loi de X le nombre
q α = inf { x ∈ R, F ( x) ≥ α} .
Lorsque la fonction de répartition F est continue et strictement croissante, elle est inversible
d’inverse F −1 et pour tout α ∈]0, 1[, on a qα = F −1 (α).
Si X ,→ N (µ, σ2 ) alors
X −µ
,→ N (0, 1)
σ
σ σ
· ¸
Xn − z1− α p , Xn + z1− α p
2 n 2 n
où z1− α2 est le quantile d’ordre 1 − α2 de la loi normale centrée réduite N (0, 1)
Taille d’échantillon. Fixons ε > 0. Nous cherchons à choisir une taille d’échantillon
telle que ME ≤ ε. Ainsi, on cherche la taille n d’échantillon tel que
σ
|µ − X̄ n | ≤ z1− α p ≤ ε
2 n
c’est à dire
σ2 z12− α
2
n≥ .
ε2
2. σ2 inconnue et estimation de µ. Nous avons le résultat suivant
p ³ ´
n Xn −µ 1 X n
,→ T ( n − 1) avec S2 = ( X i − X n )2 .
S n − 1 i=1
Cette variable aléatoire est une fonction pivotale pour µ. De plus la densité de la loi
de Student vérifie les hypothèses de la Proposition ??. Ainsi,
p ³ ´
n Xn −µ
P − t 1− α ≤ ≤ t 1− α = 1 − α
2 S 2
c’est à dire
S 2 t21− α
2
n≥ .
ε2
Un test est déterminé par sa région critique W . La région critique dépend du niveau α
et d’une statistique appelée variable de décision. Pour la déterminer, il est indispensable de
connaı̂tre la loi de la variable de décision sous l’hypothèse H0 . Lorsque ( x1 , . . . , xn ) sont des
valeurs observées de cet échantillon,
- si ( x1 , . . . , xn ) ∈ W , alors on rejette H0 et on accepte H1 ;
- si ( x1 , . . . , xn ) 6∈ W , alors on accepte H0 et on rejette H1 .
Définition 11.1.2. On appelle erreur de première espèce le rejet de H0 à tort. Cette erreur
est mesurée par le risque de premir̀e espèce :
θ ∈ Θ0 7→ Pθ (W ).
On appelle erreur de seconde espèce le rejet de H1 à tort. Cette erreur est mesurée par le
risque de seconde espèce :
θ ∈ Θ1 7→ Pθ (W ).
52
11.2. ETAPES DES TESTS 53
Définition 11.1.3. On appelle niveau du test de région critique W , la quantité :
α = sup Pθ (W ).
θ ∈Θ0
Parmi les tests de niveau α fixé, on souhaite minimiser le risque de seconde espèce.
Remarque 11.1.1. Lors d’un test, on minimise en priorité le risque de première espèce,
aussi les rôles de H0 et H1 ne sont pas symétriques. On choisit comme hypothèse nulle
l’ensemble que l’on ne souhaite surtout pas voir rejeté è tort : hypothèse à laquelle on tient,
hypothèse de prudence, hypothèse solidement établie etc. Par exemple, dans le test de dépis-
tage d’une maladie, on souhaite surtout éviter de dire à une personne qu’elle est en bonne
santé alors qu’elle est en fait malade. On choisit comme hypothèse nulle le fait d’être malade.
Dans le cas du réchauffement climatique, un homme politique qui veut éviter de prendre des
mesures si le réchauffement n’est pas avéré choisira comme hypothèse nulle ”il n’y a pas
réchauffement”. Un écologiste choisira plutôt ”il y a réchauffement”.
12.1 Introduction
On appelle test de Student un test de comparaison de la moyenne dans un échantillon
gaussien, c’est à dire un échantillon ( X 1 , . . . , X n ) issu de la loi normale N (m, σ2 ). Soit m 0
une valeur possible de m. La moyenne empirique X n est un estimateur efficace de m.
Deux résultats importants :
p ³ ´
µ
σ 2¶ n Xn −m
X n ,→ N m, ⇐⇒ ,→ N (0, 1).
n σ
p ³ ´
n Xn −m
,→ T ( n − 1)
Sn
qui est la loi de Student à n − 1 dégrés de liberté avec
à !1/2
1 X n
Sn = ( X i − X n )2 .
n − 1 i=1
54
12.2. H0 : M ≤ M0 CONTRE H1 : M > M0 55
Ainsi, on en déduit que p
nl α σ
= q 1−α ⇔ l α = p q 1−α
σ n
où q1−α est le quantile d’ordre 1 − α de N (0, 1).
où q0.95 = 1.644 est le quantile d’ordre 0.95 de la loi normale centrée-réduite. Par
suite, nous obtenons :
p ³ ´
½ 10 X − 430
10
¾
W= > 1.644
24
Puisque
1
x10 = (505.1+423.5+462.0+391.9+412.1+487.2+439.0+434.1+441.1+474.2) = 447.02
10
56 CHAPITRE 12. TESTS DE STUDENT : UN ÉCHANTILLON
et p
10 (447.02 − 430)
= 2.243 > 1.644,
24
on accepte H1 au niveau α = 0.05. Ainsi, on peut conclure que les tablettes de cette
marque contiennent une teneur en cacao supérieure à 430 g par k g.
où t1−α,n−1 est le quantile d’ordre 1 − α de la loi de Student à n − 1 degrés de liberté T (n − 1).
Exercice 12.2.2. Une marque de tablettes de chocolat annonce que ses tablettes contiennent
une teneur en cacao supérieure à 430 g par k g. On effectue un contrôle de qualité sur un
échantillon de 10 tablettes et on obtient les teneurs suivantes en g/k g : 505.1 423.5 462.0
391.9 412.1 487.2 439.0 434.1 441.1 474.2. On admet que chaque mesure suit une loi normale
N ( m, σ2 ). Que peut-on conclure au niveau α = 0.05 ?
Solution 12.2.2. Au niveau α = 0.05, nous voulons tester H0 : m ≤ 430 contre H1 : m > 430.
La région critique du test est :
p ³ ´
½ 10 X − 430
10
¾
W= > t 0.95,9
S 10
où t0.95,9 = 1.833 est le quantile d’ordre 0.95 de la loi de Student à 9 degrés de liberté. Par
suite, nous obtenons :
p ³ ´
½ 10 X − 430
10
¾
W= > 1.833
35
Puisque
1
x10 = (505.1 + 423.5 + 462.0 + 391.9 + 412.1 + 487.2 + 439.0 + 434.1 + 441.1 + 474.2) = 447.02
10
et p
10 (447.02 − 430)
= 1.5378 < 1.833,
35
on rejette H1 au niveau α = 0.05. Ainsi, on peut conclure que les tablettes de cette marque
ne contiennent pas une teneur en cacao supérieure à 430 g par k g.
12.3. H0 : M ≥ M0 CONTRE H1 : M < M0 57
15
½ ¾
W = X 15 < 200 + p q 0.05
15
où q0.05 = − q0.95 = −1.644 est le quantile d’ordre 0.05 de la loi normale centrée-
15
réduite. 200 − p ∗ 1.64 = 193.65
15
3. Puisque 195 > 193.65, on accepte H0 . Même si x̄ < 200 g, il n’y a pas d’éléments
significatifs indiquant que le poids moyen des boites est inférieure à 200 g.
où tα,n−1 est le quantile d’ordre α de la loi de Student à n − 1 degrés de liberté T (n − 1).
où t0.05,14 = −1.761 est le quantile d’ordre 0.05 de la loi de Student à 14 degrés de
liberté (T (14)).
p
3. Puisque 15(195 15
−200)
= −1.291 > −1.761, on accepte H0 .Au niveau α = 0.05, il n’y a
pas d’éléments significatifs indiquant que le poids moyen des boites est inférieure à
200 g.
12.4 H0 : m = m 0 contre H1 : m 6= m 0
Exercice 12.4.1. Une entreprise de vente par correspondance demande un montant fixe
pour les frais d’envoi, indépendamment du poids du colis. Une étude réalisée il y a quelques
années a montré que le poids moyen d’un colis était de 17.5 kg avec un écart-type de 3.6
kg. La comptabilité soupçonne que le poids moyen est maintenant différent de 17.5 kg. Un
échantillon aléatoire de 100 colis est prélevé et fournit un poids moyen de x̄ = 18.4 kg. On
suppose que les poids des colis sont distribués normalement. Que conclure au niveau α = 0.05
½¯ p n X − m ¯
³ ´
n 0 ¯
¾
¯
W = ¯¯ ¯ > q 0.975
σ ¯
σ σ
½ ¾ ½ ¾
= X n < m 0 − p q 0.975 ∪ X n > m 0 + p q 0.975
n n
où q0.975 = 1.96 est le quantile d’ordre 0.975 de la loi normale centrée-réduite.
σ 3.6
m 0 + p q 1− α = 17.5 + p ∗ 1.96 = 18.2056
n 2
100
σ 3.6
m 0 − p q 1− α = 17.5 − p ∗ 1.96 = 16.7944
n 2
100
3. Puisque x̄ > 18.2056, on rejette H0 i.e le poids moyen des colis a changé.
12.4. H0 : M = M0 CONTRE H1 : M 6= M0 59
2
12.4.1 On suppose que la variance σ est inconnue.
où t1− α2 ,n−1 est le quantile d’ordre 1 − α2 de la loi de Student à n − 1 degrés de liberté T (n − 1).
Exercice 12.4.2. Une entreprise de vente par correspondance demande un montant fixe
pour les frais d’envoi, indépendamment du poids du colis. Une étude réalisée il y a quelques
années a montré que le poids moyen d’un colis était de 17.5 kg. La comptabilité soupçonne
que le poids moyen est maintenant différent de 17.5 kg. Un échantillon aléatoire de 100 colis
est prélevé et fournit un poids moyen de x̄ = 18.4 kg avec un écat-type estimé égal à 3.6. On
suppose que les poids des colis sont distribués normalement. Que conclure au niveau α = 0.05
où t0.975,100 = 1.9842 est le quantile d’ordre 0.975 de la loi de Student à 99 degrés de
liberté T (99).
p
100 (18.4 − 17.5)
3. Puisque = 2.5 > 1.9842, on rejette H0 i.e le poids moyen des colis
3.6
a changé.
Chapitre
13.1 Introduction
Soient P1 et P2 deux populations. On étudie un caractère (rendement, chiffre d’affaire,
seuil de perception, etc.) sur ces deux populations. Le caractère a pour espérance m 1 et
pour variance σ21 dans la population P1 et a pour espérance m 2 et pour variance σ22 dans
la population P2 . Pour des raisons techniques, on supposera que le caractère est distribué
selon une loi normale. On dispose alors de deux échantillons ( X 1 , . . . , X n1 ) et (Y1 , . . . , Yn2 ) issus
respectivement de P1 et P2 , tels que X i et Y j sont indépendantes :
- ( X 1 , . . . , X n1 ) est issu de N (m 1 , σ21 )
- (Y1 , . . . , Yn2 ) est issu de N ( m 2 , σ22 ).
Dans cette section, on comparera les moyennes et les variances des deux échantillons. Les
moyennes empiriques, variances empiriques modifiées des deux échantillons sont notées res-
pectivement X n1 , S12 , Y n2 et S22 .
moyenne Variance S 2
Groupe 1 12.8 3.4
Groupe 2 11.3 2.9
On suppose que les notes sont reparties dans les deux groupes selon des lois normales et
qu’elles sont toutes independantes. Peut-on considérer que le premier groupe est meilleur que
le deuxième, c’est-à-dire qu’un point et demi d’écart entre les moyennes est significatif d’une
différence de niveau ? La procédure à suivre consiste à tester d’abord l’égalité des variances,
puis l’égalité des moyennes.
Exemple 13.1.2. Deux variétés de blé ont été cultivées chacune sur 8 parcelles (n1 = n2 = 8).
Les rendements observés (en quintaux/hectare) sont regroupés dans le tableau ci-dessus :
moyenne variance σ2
Echantillon 1 80.0 1.00
Echantillon 2 81.5 1.00
60
13.2. TEST DE FISHER DE COMPARAISON DES VARIANCES 61
Si l’on considère que les 16 parcelles, la variété 2 présente en moyenne un rendement su-
périeur (de 1.5 q/ ha) à celui de la variété 1. Peut-on généraliser ce résultat ? Autrement
dit, la différence observée (de 1.5 q/ha) doit être considérée comme une conséquence d’un
rendement moyen différent selon la variété ou, au contraire, est-il fortuit ? Selon un autre
point de vue, la question peut être posée ainsi : la différence de moyenne obervée doit être
imputée au hasard (c’est-à-dire à la variété ”naturelle” dite aussi ”résiduelle” pour exprimer
que l’on ne sait l’expliquer par la statistique) ?
S 12 S 12
( ) ( )
∗
W= < fα ∪ > f 1∗− α
S 22 2 S 22 2
α
où f α∗ est le quantile d’ordre 2 de la loi de Fisher à (n1 − 1, n2 − 1) degrés de liberté, f 1∗− α
2 2
est le quantile d’ordre 1 − α2 de la loi de Fisher à (n1 − 1, n2 − 1) degrés de liberté et
à !1/2
n1 ³
1 X ´2
S n1 = X i − X n1
n 1 − 1 i=1
à !1/2
n2 ³
1 X ´2
S n2 = Yi − Y n2 .
n 2 − 1 i=1
H0 : m 1 = m 2 contre H0 : m 1 6= m 2 .
Lorsque H0 est vraie, on observe très rarement une parfaite égalité des moyennes. La question
est donc de savoir à partir de quel écart de moyenne va-t-on choisir H1 ?
La région critique est de la forme
n¯ ¯ o
W = ¯ X n1 − Y n2 ¯ > l α .
¯ ¯
σ21 σ22
à !
X n1 − Y n2 ,→ N m 1 − m 2 , + .
n1 n2
62 CHAPITRE 13. TESTS DE STUDENT : DEUX ÉCHANTILLONS
Ainsi nous avons
( X n1 − Y n2 ) − ( m 1 − m 2 )
V= r ,→ N (0, 1).
σ21 σ2
n1 + n22
X n − Y n2
V= r1 ,→ N (0, 1).
σ21 σ2
n1 + n22
s
σ21 σ22
½¯ ¯ ¾
W = ¯ X n1 − Y n2 ¯ > u 1− α +
¯ ¯
2 n1 n2
Exemple 13.3.1. Revenons à l’exemple 13.1.2. Les variances sont connues, σ21 = σ22 = 1,
n 1 = n 2 = 8 et les rendements moyens observés x̄8 = 80 q/ h et ȳ8 = 81.5 q/ h. On suppose que
le seuil du test est α = 0.05. De ce fait, u0.975 = 1.96 Nous avons donc
s
1 1
u 0.975 + = 0.98 x̄8 − ȳ8 = −1.5 < −0.98.
8 8
On note que lorsque n1 et n2 sont grands, le caractère gaussien des observations n’est plus
requis, et que T n1 ,n2 suit approximativement, sous H0 , une loi N (0, 1)..
13.3. TEST DE STUDENT DE COMPARAISON DES MOYENNES 63
Supposons que σ21 = σ22 .
où t1− α2 ,n1 +n2 −2 est le quantile d’odre 1 − α2 de la loi de Student T (n1 + n2 − 2).
X n − Y n2
T n1 ,n2 = r 1 .
S 2n1 S 2n2
n1 + n2
où q1− α2 est le quantile d’odre 1 − α2 de la loi de Student [ν] degrés de liberté.
Chapitre
où q1−α est le quantile d’ordre 1 − α de loi normale centrée-réduite N (0, 1).
où q1− α2 est le quantile d’ordre 1 − α2 de loi normale centrée-réduite N (0, 1).
64
14.2. TEST DE COMPARAISON DE DEUX PROPORTIONS 65
H0 : p 1 = p 2 contre H1 : p 1 6= p 2
p 1 (1 − p 1 )
µ ¶
X n1 ,→ N p 1 ,
n1
66 CHAPITRE 14. TESTS DE COMPARAISON DES PROPORTIONS
p 2 (1 − p 2 )
µ ¶
Y n2 ,→ N p 2 ,
n2
p 1 (1 − p 1 ) p 2 (1 − p 2 )
µ ¶
X n1 − Y n2 ,→ N p 1 − p 2 , + .
n1 n2
1 1
µ µ ¶¶
X n1 − Y n2 ,→ N 0, p(1 − p) +
n1 n2
et s
1 1
µ ¶
X n1 − Y n2 p(1 − p) + ,→ N (0, 1) .
n1 n2
n 1 X n1 + n 2 Y n2
Comme p est inconnu, en remplaçant p par son estimateur p̂ = le résultat
n1 + n2
ci-dessus reste approximativement vrai. En posant
v à !µ
u
u n1 X n + n2 Y n n 1 X n1 + n 2 Y n2 1 1
¶
1 2
σ̂ = t 1− + ,
n1 + n2 n1 + n2 n1 n2
X n1 − Y n2
U= ,→ N (0, 1) .
σ̂
où q1−α est le quantile d’ordre 1 − α de loi normale centrée-réduite N (0, 1).
α
où q1− α2 est le quantile d’ordre 1 − 2 de loi normale centrée-réduite N (0, 1).
Durée de taitement (en jours) [0, 10[ [10, 20[ [20, 30[ [30, 40[ [40, 50[ [50, 60[
Effectif 3 6 10 7 3 1
³ 1 ´n ³ 1 X n ´
= p exp − 2 ( X i − m )2
σ 2π 2σ i=1
Puis, résourdre ³ ´
σ n b n , σ2 , X 1 , . . . , X n ) .
c2 = arg max ln L( m
m∈R
On obtient :
n
m
bn = Xn c2 = 1 X ( X − X )2 .
σ n i n
n i=1
Attention : en ce qui concerne la variance, il faut dériver par rapport à
σ2 et non par rapport à σ.
n
c2 = 1 (Xi − Xn )2 .
X
Intéressons nous σ n
n i=1
Propriétés non asymptotiques
c2 ) = n − 1 σ2 6= σ2 ⇒ σ
— E(σ c2 est un estimateur biaisé de σ2 .
n n
n
— σn est un estimateur biaisé de σ2 ⇒ σ
c2 c2 n’est pas un estimateur efficace de σ2 .
n
(Pas la peine de calculer l’information de Fisher et la borne de Cramer-
Rao, la condition sans biais n’étant pas vérifiée.)
Propriétés asymptotiques
c2 ) = n − 1 σ2 −→ σ2 ⇒ σ
— E(σ c2 est un estimateur asymptotiquement sans biais de σ2 .
n n
n
— Vérifier que la variance V(σ c2 vers σ2 .
c2 ) −→ 0 pour assurer la convergence de σ
n n
— Pas la peine d’établir la normalité asymptotique ; c’est un peu compli-
qué pour eux je crois ! Si vous trouvez simple, faites moi signe !
2. Donner les estimations ponctuelles de la moyenne m et de la variance σ2 .
Utiliser les centres des intervalles pour faire les estimations :
1X 30 1 X6
X 30 = ci = n j c j.
n i=1 30 j=1
30 6
2 = 1 ( c i − X 30 )2 =
1 X
n j ( c j − X 30 )2 .
X
σ
d
30 30 i=1 30 j=1
où t(0n.975
−1)
est le quantile d’ordre 0.975 de la loi de Student à n − 1 degrés de liberté et
r
n c2
Sn = σn .
n−1
Exercice 2. La société ”Votre santé” est une entreprise de vente par correspondance de
produits de beauté dits ”naturels”. Elle gère un fichier de 350000 clients et propose chaque
mois une offre promotionnelle accompagnée d’un cadeau. Le taux de réponse à cette offre est
généralement de 15%, la marge moyenne par réponse de 340 fcfa. Mlle Claire, nouvellement
en charge de ce fichier, a retenu comme cadeau un abonnement gratuit de six mois, au
mensuel ”Votre beauté Madame”. Elle pense que cela pourrait augmenter le taux de réponse
à la prochaine offre ; toutefois cette proposition ne serait rentable que si le taux de réponse
dépassait les 17.5% (avec la même marge moyenne évidemment). Elle envisage de tester
la réalité de ces hypothèses sur un échantillon de clientes. La précision voulue pour son
estimation est de l’ordre de 2%.
1. Quelle taille d’échantillon doit-elle choisir afin d’atteindre la précision voulue (avec
un niveau de confiance de 0.95) ?
q
puisque X n (1 − X n ) ≤ 12 . La marge d’erreur est donc :
s
X n (1 − X n ) 1
ME = q 1− α ≤ q 1− α p .
2 n 2 2 n
14.2. TEST DE COMPARAISON DE DEUX PROPORTIONS 71
Nous déterminons n tel que
1 ³ q 1− α ´2
2
q 1− α p ≤ 0.02 ⇒ n ≥ = 2401.
2 2 n 0.04
— Méthode plus optimiste (on pense que le taux de réponse sera proche
du taux habituel qui est 15%) : L’intervalle de confiance de niveau 1 − α
est donné par
s s
h X n (1 − X n ) X n (1 − X n ) i
X n − q 1− α , X n + q 1− α
2 n 2 n
avec sans doute X n (1 − X n ) sans doute proche de son ancienne 0.15(1 − 0.15).
Nous déterminons alors n tel que
s s
X n (1 − X n ) 0.15(1 − 0.15)
ME = q 1− α = q 1− α ≤ 0.02
2 n 2 n
⇒ n ≥ 1224.51 ⇒ n = 1225.
2. Les résultats d’un sondage sur un échantillon de 1225 clientes vous sont donnés en
annexe.
où
850 × Y 850 + 375 × Z 375
pb = .
850 + 375
La région critique du test est :
n o
W = T > q 1−α .
— Pour α = 0.05 q0.95 = 1.64 et t = 2.13. On voit que 2.13 > 1.64. Ainsi, au niveau
α = 0.05, nous acceptons H1 , c’est à dire que les anciens sont plus recptifs que les
nouveaux.
Théorème 14.2.1. Posons
n 1 X n1 + n 2 X n2
pb = .
n1 + n2
où t(257)
α est le quantile d’ordre 0.05 de la loi de Student à 257 degrés de liberté.
On peut utiliser la table de la loi normale centrée réduite car la loi de Student
converge vers la loi normale N (0, 1) lorsque le nombre de degrés de liberté n → +∞
(n > 30 en pratique.)
— On a t = −0.97 et t(257)
α = −1.65. Nous avons donc −0.97 > −1.65. Nous en dédui-
sons qu’au niveau 5%, on conerve H0 ,c’est à dire en moyenne, la marge ne diffère
pas significativement de 340.
2. Montrer que θbn peut être obtenu par la methode des moments.
Nous avons
1 1 1
E( X 1 ) = ⇒ Xn = ⇒θ=
θ θ Xn
P 1
X n −−−−−→ .
n→+∞ θ
1
Comme, l’application x 7→ est continue sur R∗+ , alors
x
1 P
−−−−−→ θ .
Xn n→+∞
4. Montrer que θbn est un estimateur biaisé de θ . En déduire un estimateur θen sans biais
de θ .
Montrer que
E(θbn ) 6= θ .
Utiliser la linéarité de l’espérance pour tirer θen .
5. L’estimateur θen est-il efficace ?
Je crois que θen n’est pas efficace malgré qu’il soit sans biais. Mais il faut vérifier que
la variance :
V(θen ) > BCR (θ ),
où BCR (θ ) est la borne de Cramer-Rao.
14.2. TEST DE COMPARAISON DE DEUX PROPORTIONS 75
Exercice 4. Pour 30 femmes et 20 hommes, on a observé le salaire mensuel. Les résultats
mesurés en euros sont ci-dessous :
2283 2010 1970 2019 1941 2024 2046 1962 1948 2071
2108 1880 2008 2119 2030 2014 1919 1837 2094 2169
Au seuil de 5%, le salaire moyen des hommes est-il significativement supérieur à celui
des femmes ?
Il s’agit ici de faire un test de comparaison des moyennes dans un échantillon gaussien.
— ( X 1 , . . . , X n1 ) est issu de N (m 1 , σ21 )
— (Y1 , . . . , Yn2 ) est issu de N (m 2 , σ22 ).
— ( X 1 , . . . , X n1 ) et (Y1 , . . . , Yn2 ) sont indépendants.
Problème : tester H0 : m 1 = m 2 contre H1 : m 1 6= m 2 au niveau α.
La variable de décision dépend du fait que les variances σ21 et σ22 soient égales ou non. Il
faut donc commencer par comparer les variances :
où
m = n 1 + n 2 − 2 si σ1 = σ2
et ³ S2
n1 S 2n ´2
2
n1 + n2
m= si σ1 6= σ2 .
S 4n1 S 4n2
+
n21 ( n 1 −1) n22 ( n 2 −1)
76 CHAPITRE 14. TESTS DE COMPARAISON DES PROPORTIONS
Année Universitaire 2018-2019
Examen (2 heures)
Enseignant : Prof. YODE Armel
Exercice 1. Une enquête concernant l’utilisation des cartes bancaires (CB) a été effectuée
en septembre 2005 auprès des personnes agées de 18 ans. Les résultats (partiels) de cette
enquête sont présentés dans le tableau ci-dessous :
Description Effectif
Personnes interrogées 501
Porteurs de CB 433
ayant effectué au moins un achat par CB 400
ayant effectué au moins un achat par CB sur Internet 144
- La population étudiée est l’ensemble des clients ayant effectué au moins un achat
par CB.
- On dispose d’un échantillon de taille 400 issu de cette population.
- Soit X i la variable aléatoire définie par :
(
1 si le client i a effectué au moins un achat par CB sur intenet
Xi =
0 sinon
X i suit une loi de Bernouilli B (1, p). De plus les variables aléatoires X 1 , . . . , X n
sont indépendantes.
n
Y
L( p, X 1 , . . . , X n ) = f ( X i , p)
i =1
n
p X i (1 − p)1{0,1}
Y
=
i =1
³ p ´P n X i
= (1 − p)n
i =1
1{0,1}n
1− p
³ ´ X n ³ p ´
ln L( p, X 1 , . . . , X n ) = n ln(1 − p) − X i ln
i =1 1− p
14.2. TEST DE COMPARAISON DE DEUX PROPORTIONS 77
La log-vraisembleance est
n
X n
X
ln L( X 1 , . . . , X n , p) = X i ln( p) + ( n − X i ) ln(1 − p)
i =1 i =1
Condition du premier ordre
Pn Pn
∂ ln L( X 1 , . . . , X n , p) n
i =1 X i n− i =1 X i 1X
= − = 0 ⇐⇒ p = Xi = X n
∂p p (1 − p) n i=1
Condition du deuxième ordre
∂2 ln L( X 1 , . . . , X n , p) − nX n n − nX n
(X n) = − < 0.
∂ p2 2
Xn (1 − X n )2
pbn = X n .
(a) E ( pb) = p
(b) L’information de Fisher est :
³ ∂2 ln L( X , . . . , X , p) ´ n
1 n
I n = −E = .
∂ p2 p(1 − p)
p(1 − p)
var ( pbn ) = = BCR ( p).
n
q21− α X n (1 − X n )
s
¯ ¯ X n (1 − X n ) 2
¯ p − X n ¯ ≤ q 1− α2 ≤ 0.03 ⇒ n ≥
¯ ¯
n (0.03)2
(1.96)2 ∗ 0.36(1 − 0.36)
⇒n≥ = 983.44 ⇒ n = 984.
(0.03)2
6. En janvier 2005, une enquête similaire évaluait à 32% la part de personnes ayant
effectué au moins un achat par CB sur Internet parmi celles ayant effectué au moins
un achat par CB.
(a) Les données de l’enquête de septembre 2005 permettent-elles de conclure à une
augmentation significative de la part de personnes utilisant leur CB sur Internet,
en prenant un risque de première espèce de 1% ?
Il s’agit ici de tester H0 : p ≤ 0.32 contre H1 : p > 0.32 au seuil α = 0.01. La région
critique est donc
n p400( p
bn − 0.32) o
W= p > q 0.99
0.32 ∗ 0.68
où q0.99 = 2.33 est le quantile d’ordre 0.99 de la loi normale centrée réduite.
Comme
p
400( pbn − 0.32)
p = 1.714 < 2.33, alors au seuil de 1%, les données de septembre
0.32 ∗ 0.68
2005 ne permettent pas de conclure àune augmentation significative de la part des
personnes utilisant leur CB sur internet.
(b) Quelle est la puissance du test lorsque p = 34% ?
La puissance du test au point p = 0.34 est donée par :
³ p400( p
bn − 0.32) ´
γ(3) = P34 p > 2.33
0.32 ∗ 0.68
s
³ 0.32 ∗ 0.68 ´
=P p b400 > 2.33 + 0.32
400
p
³ 0.34 ∗ 0.66 ´ 400( pbn − 0.34)
Sous l’hypothèse H1 , pbn ∼ N 0.34, ⇔ p ∼ N (0, 1). Ainsi,
400 0.34 ∗ 0.66
nous obtenons :
³ p400( p
s s
bn − 0.34) 400 h 0.32 ∗ 0.68 i´
γ(3) = P0.34 p > 2.33 + 0.32 − 0.34
0.34 ∗ 0.66 0.34 ∗ 0.66 400
³1´
Exercice 2. On considère un échantillon ( X 1 , . . . , X n ) issu de la loi exponentielle E avec
θ
θ > 0 inconnu.
Exercice 3. Une étude a été réalisée sur le cancer de la gorge. Pour cela, une population
de 1000 personnes a été interrogée. les résultats obtenus sont donnés dans le tableau de
contingences suivant :
Exercice 4. Sur deux groupes de même taille 9 malades, on expérimente les effets d’un
nouveau médicament. On observe les résultats suivants :
Groupe 1 15 18 17 20 21 18 17 15 19
Groupe 2 12 16 17 18 17 15 18 14 16
1. Comparer au niveau 5% les variances des deux populations
2. Comparer au niveau 5% les moyennes des deux populations