Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Proba GE+GME

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 92

Chapitre 2: Statistiques inférentielles

Prof: Ali El Mfadel

Université Sultan Moulay Slimane


École Supérieure de Technologie de Khénifra
Filières : GE et GME/S1
a.elmfadel@usms.ma

Année universitaire : 2023/2024

EST de Khénifra 1 / 92
Plan

1 Probabilités

2 Variables aléatoires

3 Échantillonnage

4 Estimation

5 Tests d’hypothèse

EST de Khénifra 2 / 92
Plan

1 Probabilités

2 Variables aléatoires

3 Échantillonnage

4 Estimation

5 Tests d’hypothèse

EST de Khénifra Probabilités 3 / 92


Dénombrement

Définition 1
On réalise une permutation si on écrit tous les éléments d’un ensemble dans un ordre
déterminé.
Exemple 1
On considère 4 pions de couleurs, respectivement verte (V ), rouge (R), bleue (B) et noire
(N). On souhaite aligner les pions les uns derrière les autres. De combien de manières
différentes (par l’ordre des couleurs) peut-on le faire ?
1 Pour la première position, il y a 4 couleurs possibles. Pour la seconde, il n’y en a plus que
3. Pour la troisième position, il ne reste plus que deux possibilités de couleurs, et pour la
dernière position, il ne restera qu’une couleur, la dernière. Un arbre permet de décrire
complètement ce schéma.
2 Il y a donc au total 4 × 3 × 2 × 1 = 24 possibilités d’ordonner les 4 pions de couleurs
différentes.

EST de Khénifra Probabilités 4 / 92


Définition 2
Soit n ∈ N. On appelle factorielle n le nombre noté n! qui vaut n! = n × (n − 1) × ... × 2 × 1.
Par convention, 0! = 1

Exemple 2
1 3! = 1 × 2 × 3 = 6.
2 6! = 1 × 2 × · · · × 5 × 6 = 720.
3 8! = 1 × 2 × · · · × 7 × 8 = 40320.

Propriété 1
Le nombre de permutations de n éléments est n!.

Remarque 1
On dit aussi qu’il y a n! façons de ranger n objets dans n cases, de manière à placer tous les
objets dans une et une seule case.

EST de Khénifra Probabilités 5 / 92


Exemple 3
Faire un emploi du temps d’une classe de GE consiste (grossièrement) à placer 16 blocs de 2
heures, dans un planning hebdomadaire vierge, qui compte 16 créneaux de 2 heures. On peut
déterminer le nombre d’emplois du temps différents que l’on peut constituer :
- de manière exacte ;
- en en donnant un ordre de grandeur :
1 16! = 20922789888000 ;
2 soit environ 21000 milliards ...

EST de Khénifra Probabilités 6 / 92


Definition 3(Combinaison)
Soient n et p deux entiers naturels.
1 on appelle combinaison de p éléments parmi n le fait de prélever p éléments parmi n, de
manière à constituer un groupe dans lequel l’ordre n’a pas d’importance.
2 Ce nombre de combinaison vaut : Cnp = n!
p!(n−p)! .

Remarque 2
Si l’on s’intéresse à la constitution d’un groupe ordonné, on parle d’arrangement Apn , au lieu
de combinaison.
Exemple Calcul des combinaisons C50 ; C51 et des arrangements A25 , A35 .
5! 5! 5! 5!
1 C0 = = = 1 ; C51 = = = 5.
5
0!(5 − 0)! 0!5! 1!(5 − 1)! 1!4!
2 A2 = 5 × 4 = 20. ; A35 = 5 × 4 × 3 = 60.
5

EST de Khénifra Probabilités 7 / 92


Exemple 4 On tire 5 cartes au hasard dans un jeu de 32, pour constituer une main (sans
tenir compte de l’ordre d’arrivée des cartes).
1 5 = 201376 mains possibles.
Il y a C32

Propriété 2
Soient n et p des entiers naturels tels que p 6 n, on a les propriétés suivantes :
1 Cn0 = Cnn = 1.
2 Symétrie : Cnp = Cnn−p .
3 Relation de Pascal : Cnp + Cnp+1 = Cn+1
p+1
.

EST de Khénifra Probabilités 8 / 92


Propriété 3 (Formule du binôme de Newton)
Pour tous réels a et b et tout entier naturel n, on a :
n
X
n
(a + b) = Cnk ak b n−k
k=0
.

Exemple
Développons (x + 2)4 :
4
On a (x + 2)4 = Cnk x k 24−k .
P
k=0
Donc (x + 2)4 = 1 × 24 × x 0 + 4 × 23 × x 1 + 6 × 22 × x 2 + 4 × 21 × x 3 + 1 × 20 × x 4
= 16 + 32x + 24x 2 + 8x 3 + x 4 .

EST de Khénifra Probabilités 9 / 92


Probabilités

Définition 4
1 Chaque résultat possible et prévisible d’une expérience aléatoire est appelé éventualité
liée à l’expérience aléatoire.
2 L’ensemble formé par les éventualités est appelé univers, il est très souvent noté Ω.
3 Un événement d’une expérience aléatoire est une partie quelconque de l’univers,
4 Un événement ne comprenant qu’une seule éventualité est un événement élémentaire.
5 L’événement qui ne contient aucune éventualité est l’événement impossible, noté ∅,
6 L’événement composé de toutes les éventualités est appelé événement certain.
7 Pour tout événement A il existe un événement noté A et appelé événement contraire de
A qui est composé des éléments de Ω qui ne sont pas dans A.
On a en particulier A ∪ A = Ω et A ∩ A = ∅.

EST de Khénifra Probabilités 10 / 92


Exemple 5 :Lancer d’un dé à six faces :
"obtenir 2" est une éventualité de cette expérience aléatoire.
Univers : Ω = {1; 2; 3; 4; 5; 6}.
A = "obtenir un 5" est un événement élémentaire que l’on peut noter A = {5},
B = "obtenir un numéro pair" est un événement que l’on peut noter B = {2; 4; 6}.
"obtenir 7" est un événement impossible,
"obtenir un nombre positif" est un événement certain.
B = "obtenir un nombre impair" est l’événement contraire de A,
Remarque 3
Dans toute la suite du cours, on suppose que Ω est l’univers associé à une expérience
aléatoire, et A et B deux événements associés à cet univers.

EST de Khénifra Probabilités 11 / 92


Définition 5
1 Intersection d’événements : événement constitué des éventualités appartenant à A et à B
noté A ∩ B (se lit "A inter B" ou "A et B"),
2 Réunion d’événements : événement constitué des éventualités appartenant à A ou à B
noté A ∪ B (se lit "A union B" ou "A ou B").
3 Si A ∩ B = ∅, on dit que les événements sont disjoints ou incompatibles.

Exemple 6
On considère l’ensemble des chiffres.
On note A l’événement "obtenir un chiffre pair" et B l’événement "obtenir un chiffre
strictement inférieur à six"
1 A ∩ B = "obtenir un chiffre pair et inférieure strictement à six" : A ∩ B = {2; 4},
2 A ∪ B = "obtenir un chiffre pair ou inférieur strictement à six" : A ∪ B = {1; 2; 3; 4; 5}.

EST de Khénifra Probabilités 12 / 92


Définition 6
1 La probabilité d’un événement d’univers Ω est la somme des probabilités des événements
élémentaires qui le constitue.
2 On dit qu’il y a équiprobabilité lorsque tous les événements élémentaires ont la même
probabilité.
nombre d’éléments de A Card(A)
Dans ce cas, on a : P(A) = = .
nombre d’éléments de Ω Card(Ω)

Remarque 4
Dans un exercice, pour signifier qu’on est dans une situation d’équiprobabilité on a
généralement dans l’énoncé un expression du type :
on lance un dé non pipé,
dans une urne, il y a des boules indiscernables au toucher,
on rencontre au hasard une personne parmi . . .

EST de Khénifra Probabilités 13 / 92


Propriétés 5
Soit A et B deux événements, on a les propriétés suivantes :
1 P(∅) = 0.
2 P(Ω) = 1.
3 0 6 P(A) 6 1.
4 P(A) = 1 − P(A).
5 P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

EST de Khénifra Probabilités 14 / 92


Exemple 7 On considère l’ensemble E des entiers de 1 à 20. On choisit l’un de ces nombres
au hasard.
1 A est l’événement : « le nombre est multiple de 3 » : donc A = {3; 6; 9; 12; 15; 18},
2 B est l’événement : « le nombre est multiple de 2 » : donc
B = {2; 4; 6; 8; 10; 12; 14; 16; 18; 20},
Calul des probabilités :
6 3
1 P(A) = = = 0, 3.
20 10
3 7
2 P(A) = 1 − P(A) = 1 − = = 0, 7.
10 10
10 1
3 P(B) = = = 0, 5.
20 2
3
4 P(A ∩ B) = = 0, 15.
20
6 10 3 13
5 P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = + − = = 0, 65.
20 20 20 20
EST de Khénifra Probabilités 15 / 92
Définition 7
On suppose que P(B) 6= 0.
1 On appelle probabilité conditionnelle de A relativement à B ou de A sachant B la
probabilité que l’événement A se réalise sachant que B est réalisé.
P(A ∩ B)
2 Cette probabilité vaut PB (A) = .
P(B)
3 On trouve aussi la notation P(A/B) pour PB (A).

EST de Khénifra Probabilités 16 / 92


Exemple 8
On considère l’expérience aléatoire consistant à lancer un dé à 6 faces, équilibré. On suppose
que toutes les faces sont équiprobables, et on définit les événements :
B : "la face obtenue porte un numéro pair" ;
A : "la face obtenue porte un numéro multiple de 3".
Déterminons la probabilité d’obtenir un numéro multiple de 3, sachant qu’on a un numéro
pair de deux manières différentes.
L’événement (A/B) correspond à l’événement "obtenir un numéro multiple de 3" parmi
les éventualités de B, autrement dit parmi {2; 4; 6}. Il n’y a donc que l’issue "obtenir 6"
qui correspond.
1
Et comme on est en situation d’équiprobabilité, on obtient PB (A) = .
3
3 1
Par le calul, on a P(B) = et P(A ∩ B) = donc, d’après la formule :
6 6
P(A ∩ B) 1
PB (A) = = .
P(B) 3

EST de Khénifra Probabilités 17 / 92


Propriétés 6
Pour tous événements A et B de probabilité non nulle, on a :

P(A ∩ B) = P(B)PB (A) = P(A)PA (B).

Propriétés 7
Soit S un événement de probabilité non nulle, on a :
1 0 6 PS (A) 6 1 ;
2 PS (Ω) = 1 ;
3 PS (∅) = 0 ;
4 PS (Ā) = 1 − PS (A) ;
5 PS (A ∪ B) = PS (A) + PS (B) − PS (A ∩ B) ;
6 Si A et B sont des événements incompatibles, alors PS (A ∪ B) = PS (A) + PS (B) ;
7 PS (A ∩ B) = PS (A ∪ B) = 1 − PS (A ∪ B).

EST de Khénifra Probabilités 18 / 92


Propriétés 8 (Formule des probabilités totales)
Pour tous A et B de probabilité non nulle :

P(A) = PB (A)P(B) + PB (A)P(B).

Exemple 9
Dans un atelier, deux machines M1 et M2 découpent des pièces métalliques identiques. M1
fournit 60% de la production (parmi lesquelles 6, 3% sont défectueuses), le reste étant fourni
par M2 (dont 4% de la production est défectueuse).
La production du jour est constituée des pièces produites par les deux machines, et on en tire
en fin de soirée une pièce au hasard (tous les prélèvements sont supposés équiprobables).
1 Quelle est la probabilité de prélever une pièce défectueuse, sachant qu’elle est produite
par M1 ?
2 Quelle est la probabilité de prélever une pièce défectueuse, sachant qu’elle est produite
par M2 ?
3 Quelle est la probabilité de prélever une pièce défectueuse ?
EST de Khénifra Probabilités 19 / 92
Définition 8 (Evénements indépendants)
On dit que A et B sont des événements indépendants si et seulement si
P(A ∩ B) = P(A).P(B).

Exemple 10
On considère le tirage au hasard d’une carte d’un jeu de 32 cartes.
A = "Tirer un as", B = "Tirer un coeur" et C = "Tirer un as rouge".
Indépendance de A et B :
4 1 8 1
1 P(A) = = et P(B) = = .
32 8 32 4
1
2 P(A ∩ B) = = P(A) × P(B), les événements A et B sont donc indépendants.
32
Indépendance de B et C :
1 2 1
1 P(B) = et P(C ) = = .
4 32 16
1
2 P(B ∩ C ) = 6= P(B) × P(C ), les événements B et C ne sont donc pas indépendants.
32
EST de Khénifra Probabilités 20 / 92
Remarque 5
Dans le cas où A et B sont des événements de probabilités non nulles, on a
P(A ∩ B) = P(B)PB (A) = P(A)PA (B) = P(A).P(B), d’où :
PB (A) = P(A) et PA (B) = P(B).

Propriétés 10
Si A et B sont des événements indépendants, alors : A et B ; A et B ; A et B sont également
des événements indépendants.

EST de Khénifra Probabilités 21 / 92


Plan

1 Probabilités

2 Variables aléatoires

3 Échantillonnage

4 Estimation

5 Tests d’hypothèse

EST de Khénifra Variables aléatoires 22 / 92


Variables aléatoires discrètes

Définition 9
Une grandeur numérique X prenant, lors d’une expérience aléatoire, des valeurs x1 , x2 , ..., xn
avec des probabilités p1 , p2 , ..., pn est une variable aléatoire discrète.

Exemple 11
Un jeu de hasard consiste à lancer un dé équilibré à 6 faces. Le lanceur gagne la somme
double de la valeur de la face obtenue si celle-ci est paire, sinon, il perd le double de la valeur
indiquée par le dé.
On appelle X le gain, positif ou négatif, du joueur après un lancer.
1 Ici, l’ensemble des issues possibles est Ω = {1; 2; 3; 4; 5; 6},
2 on a défini avec X une variable aléatoire réelle telle que :
X (1) = −2, X (2) = 4, X (3) = −6, X (4) = 8, X (5) = −10 et X (6) = 12.

EST de Khénifra Variables aléatoires 23 / 92


Définition 10
La loi de probabilité de la variable aléatoire X est la fonction f qui a chaque valeur associe
sa probabilité.

Remarque 6
En général, on présente la loi d’une variable aléatoire X sous la forme d’un tableau, qui
récapitule les valeurs prises par X ainsi que les probabilités associées.

Dans tout le reste du chapitre, on considèrera la variable aléatoire discrète de loi :

EST de Khénifra Variables aléatoires 24 / 92


Exemple 12
On reprend l’énoncé de l’exemple précédent. La loi de X est donnée par :

Définition 11
Soit X une variable aléatoire discrète, on appelle espérance de la variable aléatoire X le réel
noté E (X ) qui vaut :
n
X
E (X ) = p1 x1 + p2 x2 + ... + pn xn = pi xi .
i=1

Ce nombre important en probabilités représente la valeur moyenne de la variable aléatoire X .

EST de Khénifra Variables aléatoires 25 / 92


Exemple 12
On dispose d’un jeu de 32 cartes. On tire une carte dans ce jeu, et on attribue à ce tirage la
valeur X calculée suivant la règle suivante :
1 si la carte est un Roi, X vaut 4 points,
2 si la carte est une Dame, X vaut 3 points,
3 si la carte est un Valet, X vaut 1 point,
4 toutes les autres cartes valent 0 point.
La loi de X est donnée par :

La valeur moyenne de la variable aléatoire X est :E (X ) = ...

EST de Khénifra Variables aléatoires 26 / 92


Définition 12
Soit X une variable aléatoire aléatoire discrète d’espérance E (X ).
1 On appelle variance de la variable aléatoire X le réel noté V (X ) qui vaut :
n
X
V (X ) = p1 [x1 − E (X )]2 + p2 [x2 − E (X )]2 + ... + pn [xn − E (X )]2 = pi [xi − E (X )]2 .
i=1

2 On appelle écart-type de X le réel noté σ(X ) ou σX défini par :


q
σ(X ) = V (X ).

Exemple 13
Calcul de la variance pour le jeu de cartes :
5 1 1 1 5 4 9 9
V (X ) = [0 − 1]2 + [1 − 1]2 + [3 − 1]2 + [4 − 1]2 = + 0 + + = = 2, 25.
8 8 r8 8 8 8 8 4
9 3
D’où l’écart-type : σ(X ) = σx = = σx = = 1, 5.
4 2
EST de Khénifra Variables aléatoires 27 / 92
Théorème 1

n
X
V (X ) = p1 x12 + p2 x22 + ... + pn xn2 − [E (X )]2 = pi xi2 − [E (X )]2 = E (X 2 ) − E 2 (X ).
i=1

Exemple 14
Autre méthode de calcul de la variance pour le jeu de cartes :
5 1 1 1
V (X ) = × 02 + × 12 + × 32 + × 42 − 12
8 8 8 8
1 9 16 9
V (X ) = 0 + + + − 1 = V (X ) = = 2, 25.
8 8 8 4
Remarque 7
1 La variance et l’écart-type d’une variable aléatoire réelle X sont des nombres positifs.
2 L’écart-type mesure la dispersion des valeurs d’une variable aléatoire par rapport à son
espérance.

EST de Khénifra Variables aléatoires 28 / 92


Propriété 9
Soit X une variable aléatoire discrète admettant une espérance et une variance, alors pour
tous a; b ∈ R, la variable aléatoire aX + b admet une expérance, une variance et un
écart-type définis par :
1 E (aX + b) = aE (X ) + b.
2 V (aX + b) = a2 V (X ).
3 σ(aX + b) =| a | σ(X ).

Exemple 15
On considère la variable aléatoire X de loi :

EST de Khénifra Variables aléatoires 29 / 92


La loi de Y = 2X − 1 est donnée par :

Calculer l’espérance, la variance et l’écart-type dans chaque cas :

E (X ) = ... E (Y ) = ...
V (X ) = ... V (Y ) = ...
σ(X ) = ... σ(Y ) = ...

EST de Khénifra Variables aléatoires 30 / 92


Définition 12
Certaines situations sont naturellement décrites par la donnée d’un couple de variables
aléatoires. Par exemple, en météorologie, on peut s’intéresser au couple formé par la donnée
de la température (T ) et de la pression (P) atmosphériques. On est ainsi amené à étudié les
deux paramètres simultanément, donc à regarder le couple (T ; P), qui est un couple de
variables aléatoires.
Exemple 16
On considère dans le plan les points de coordonnées entières situés dans la zone B, définie par

B = {(x ; y ) tel que x ; y ∈ N et 1 6 x 6 2 , 1 6 y 6 3}.

On considère l’expérience aléatoire consistant à choisir l’un de ces points au hasard (tous les
choix de points dans B étant équiprobables). On définit la variable aléatoire discrète Z qui est
formée du couple de coordonnées du point choisi.

EST de Khénifra Variables aléatoires 31 / 92


Détermination de la loi de Z :

La variable aléatoire Z est appelée couple des variables aléatoires X et Y . On peut présenter
sa loi de manière à faire apparaître les rôles joués par X et Y plus clairement :

EST de Khénifra Variables aléatoires 32 / 92


on peut aussi déterminer les lois de X et de Y à partir de celle de Z .
• De manière plus rapide, en faisant les additions en colonne, on obtient la loi de Y :

• En faisant les additions en ligne, on obtient la loi de X :

• Ces deux lois sont appelées les lois marginales du couple (X ; Y ).


EST de Khénifra Variables aléatoires 33 / 92
• De façon synthétique, on peut représenter toutes ces données dans un même tableau :

EST de Khénifra Variables aléatoires 34 / 92


Définition 13
Soient X et Y deux variables aléatoires discrètes de valeurs respectives (x1 ; x2 ; ...; xn ), et
(y1 ; y2 ; ...; yp ).
Les variables aléatoires X et Y sont indépendantes si pour tous i et j tels que 1 6 i 6 n et
16j 6p :
P(X = xi ; Y = yj ) = P(X = xi )P(Y = yj ).
1
Exemple 17 On donne deux variables aléatoires discrètes X vérifiant P(X = −1) = ,
3
1 1 2
P(X = 0) = , P(X = 1) = et Y = X .
6 2
Loi de Y :

EST de Khénifra Variables aléatoires 35 / 92


Loi du couple (X ; Y ) : on calcule la probabilité obtenue por chaque couple

On a par exemple P(−1, 0) = P((X = −1) ∩ (Y = 0)) = 0.


1 1 1
Or, P(X = −1) × P(Y = 0) = × = 6= 0.
3 6 18
X et Y ne sont donc pas indépendantes.
(ce résultat était prévisible puisque, par construction, la variable Y est dépendante de la
variable X ).
EST de Khénifra Variables aléatoires 36 / 92
Propriété 10
On considère deux variables aléatoires discrètes X et Y admettant une espérance, alors
1 X + Y admet l’espérance E (X + Y ) = E (X ) + E (Y ).
2 X − Y admet l’espérance E (X − Y ) = E (X ) − E (Y ).
Et dans le cas où X et Y sont indépendantes :
1 X + Y admet la variance V (X + Y ) = V (X ) + V (Y ).
2 X − Y admet la variance V (X − Y ) = V (X ) − V (Y ).

Exercice 1
Dans une fête foraine, on considère deux roues A et B définies ainsi :
pour la roue A : on a 20% de chance de tomber sur le nombre 10, 50% de chance de
tomber sur le nombre 20 et 30% de chance de tomber sur le nombre 30.
pour la roue B : on a 40% de chance de tomber sur le nombre 10 et 60% de chance de
tomber sur le nombre 20.

EST de Khénifra Variables aléatoires 37 / 92


On lance successivement les deux roues, on note X la variable aléatoire égale au nombre
obtenu pour la roue A et Y la variable aléatoire égale au nombre obtenu pour la roue B.
1 Donner la loi de X et de Y .
2 Calculer E (X ), E (Y ), V (X ) et V (Y ).
3 Donner la loi de Z = X + Y .
4 Calculer E (Z ) et E (Z ).

EST de Khénifra Variables aléatoires 38 / 92


Définition 14 (Loi de Bernoulli)
Une expérience de Bernoulli est une expérience qui n’a que deux issues possibles, l’une
appelée « succès » qui a pour probabilité p, l’autre appelée « échec » qui a pour probabilité
q = 1 − p.
Définir une loi de Bernoulli de paramètre p, c’est associer une loi de probabilité discrète à
cette expérience aléatoire en faisant correspondre la valeur 1 à l’apparition d’un succès et 0 à
celle d’un échec.

EST de Khénifra Variables aléatoires 39 / 92


Exemple 18
Si on lance un dé et qu’on nomme « succès » l’apparition de la face 6, on obtient la loi de
Bernoulli suivante :

Propriété 11
Soit X une variable aléatoire suivant une loi de Bernouilli B(p), alors :
1 L’espérance de X vaut E (X ) = p.
2 La variance de X vaut V (X ) = pq.
1 5
Dans l’exemple précédent, on obtient E (X ) = et V (X ) = .
6 36
EST de Khénifra Variables aléatoires 40 / 92
Définition 15 (Loi binomiale)
La loi binomiale de paramètres n et p, notée B(n; p) est la loi de probabilité du nombre de
succès dans la répétition de n expériences de Bernouilli de paramètre p identiques et
indépendantes.
Elle est définie par :

P(X = k) = Cnk × p k × q n−k , ∀ 0 6 k 6 n.

Exemple 19
On lance 2 fois un dé bien équilibré. On s’intéresse à l’apparition de la face 6. Chaquelancer
1
est une expérience de Bernouilli de paramètre 61 . O.n obtient donc une loi binomiale B 2; .
6

EST de Khénifra Variables aléatoires 41 / 92


Propriété 12
Soit X une variable aléatoire suivant une loi Binomiale B(n, p), alors :
1 L’espérance de X vaut E (X ) = np.
2 La variance de X vaut V (X ) = npq.
1 5
Dans l’exemple précédent, on obtient E (X ) = et V (X ) = .
3 18
Loi de Poisson :
La loi de Poisson modélise des situations où l’on s’intéresse au nombre d’occurrences d’un
événement dans un laps de temps déterminé ou dans une région donnée. Par exemple :
Nombre d’appels téléphoniques qui arrivent à un standard en x minutes,
nombre de clients qui attendent à la caisse d’un magasin,
nombre de défauts de peinture par m2 sur la carrosserie d’un véhicule . . .

EST de Khénifra Variables aléatoires 42 / 92


Définition 16 (Loi de Poisson)
La variable aléatoire X suit une loi de Poisson de paramètre λ, notée P(λ) avec λ > 0
lorsque sa loi de probabilité vérifie :

λk
P(X = k) = e −λ , ∀k ∈ N.
k!
Exemple 20
On considère la variable aléatoire X mesurant le nimbre de clients se présentant au guichet 1
d’un bureau de poste par intervalle de temps de durée 10 minutes entre 14h30 et 16h30. On
suppose que X suit la loi de Poisson de paramètre λ = 5.
• Pour λ = 5, la table de la loi de poisson nous donne :

EST de Khénifra Variables aléatoires 43 / 92


• On peut aussi représenter graphiquement la loi P(5) :

La probabilité qu’entre 14h30 et 14h40, 10 personnes exactement se présentent à ce


guichet vaut : P(X = 10) = 0, 018.
La probabilité qu’entre 15h20 et 15h30, au maximum 3 personnes se présentent à ce
guichet vaut : P(X 6 3) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) = 0, 265.

EST de Khénifra Variables aléatoires 44 / 92


La probabilité qu’entre 16h00 et 16h10, 8 personnes au moins se présentent à ce guichet
vaut : P(X > 8) = 1 − P(X < 8) = 1 − [P(X = 0) + P(X = 1) + · · · + P(X = 8)] =
1 − 0, 867 = 0, 133.

Propriété 13
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ, alors l’espérance et la
variance sont égales et valent E (X ) = V (X ) = λ.

• Dans l’exemple précédent, on obtient E (X ) = V (X ) = 5.

EST de Khénifra Variables aléatoires 45 / 92


Variables aléatoires continues
Définition 17 (variable aléatoire continue)
Une variable aléatoire continue est une variable qui prend ses valeurs dans un intervalle de
R.
Exemple 21
Exemple de variables aléatoires qui ne sont pas discrètes :
Variable T correspondant à la taille d’un élève,
Variable L correspondant à longueur d’un train,
Variable A correspondant au temps d’attente à une caisse . . .

Définition 22 (fonction de répartition)


Soit X une variable aléatoire, on appelle fonction de répartition de X la fonction définie sur
R par
F (x ) = P(X 6 x ).

EST de Khénifra Variables aléatoires 46 / 92


Propriété 14
1 F (x ) = P (X ∈ ] − ∞ ; x ]).
2 P(a 6 X 6 b) = P(X 6 b) − P(X 6 a) = F (b) − F (a).
3 P(X > b) = P(X 6 b) = 1 − F (b).

Remarque
On admet que pour une variable aléatoire continue, pour tout a ∈ R : P(X = a) = 0. On a
donc :
P(a < X < b) = P(a < X 6 b) = P(a 6 X < b) = P(a 6 X 6 b),
P(a < X ) = P(a 6 X < b),
P(X > b) = P(X > b).

EST de Khénifra Variables aléatoires 47 / 92


Propriété 15
La fonction de répartition F d’une variable aléatoire continue X a les propriétés suivantes :
F est une fonction croissante, définie et continue sur R.
Pour tout x ∈ R, 0 6 F (x ) 6 1.
lim F (x ) = 0 et lim F (x ) = 1.
x →−∞ x →+∞

Définition 23 (densité de probabilité)


Dans le cas où F est dérivable, la fonction f dérivée de F est appelée densité de probabilité
de X et pour tout x de R, F 0 (x ) = f (x ).
Z b
P(a 6 X 6 b) = F (b) − F (a) = f (x ) dx .
a Z a Z a
P(X 6 a) = F (a) = lim [ F (a) − F (x ) ] = lim f (t)dt = f (t) dt.
x →−∞ x →−∞ x notation −∞
Z +∞
f (x ) dx = 1.
−∞
EST de Khénifra Variables aléatoires 48 / 92
Exemple 22
Voici quelques exemples de densités de probabilités ainsi que leurs courbes représentatives
dans un repère orthonormal :

EST de Khénifra Variables aléatoires 49 / 92


Définition 24 (Espérance et variance)
Soit X une variable aléatoire continue et f sa densité.
On appelle espérance de X le réel, noté E (X ), défini par la relation
Z +∞
E (X ) = xf (x ) dx .
−∞

On appelle variance de X le réel, noté V (X ), qui, s’il existe, est défini par la relation
Z +∞
V (X ) = [ x − E (X ) ]2 f (x ) dx .
−∞

On appelle écart-type de X le réel, noté σX , défini par la relation


q
σX = V (X ).

EST de Khénifra Variables aléatoires 50 / 92


Propriété 16
Soit X une variable aléatoire continue admettant une espérance et une variance, alors pour
tous a; b ∈ R :
1 E (aX + b) = aE (X ) + b.
2 V (aX + b) = a2 V (X ).
3 σ(aX + b) = |a|σ(X ).
4 E (X + Y ) = E (X ) + E (Y ).
5 E (X − Y ) = E (X ) − E (Y )
Si de plus X et Y sont indépendantes,
1 V (X + Y ) = V (X ) + V (Y ).
2 V (X − Y ) = V (X ) + V (Y ).

Exercice 2 : Calculer l’espérance, la variance et l’écart-type pour la fonction f2 définie dans


l’exemple 22

EST de Khénifra Variables aléatoires 51 / 92


Définition 25 (loi Normale)
On appelle loi Normale de paramètres m ∈ R et σ > 0 la loi d’une variable aléatoire continue
X prenant toutes les valeurs réelles, de densité de probabilité la fonction définie pour tout
x ∈ R par
1 1 x −m 2
f (x ) = √ e − 2 ( σ )
σ 2π
On note X N (m; σ).

Propriété 17
On admet que si X est une variable aléatoire suivant la loi normale N (m; σ) alors

E (X ) = m et σ(X ) = σ.
Z b
1 1 x −m 2
Pour tous a et b réels tels que a 6 b on a P(a 6 X 6 b) = √ e− 2 ( σ ) dx .
σ 2π a

EST de Khénifra Variables aléatoires 52 / 92


• Les paramètres d’une loi normale sont en fait son espérance mathématique et son écart-type.
• Voici des exemples de courbes pour quelques valeurs de m et σ :

EST de Khénifra Variables aléatoires 53 / 92


Définition 26(Loi normale centrée réduite N (0; 1))
La variable aléatoire T qui suit la loi normale de paramètres m = 0 et σ = 1 est dite variable
1 1 2
aléatoire centrée réduite. Sa densité de probabilité est définie sur R par f (x ) = √ e − 2 x .

Notation : On note Π la fonction de répartition d’une variable aléatoire suivant la loi N(0; 1).
On a donc Z t
1 1 2
Pour tout t ∈ R, Π(t) = P(T 6 t) = √ e − 2 x dx .
−∞ 2π

EST de Khénifra Variables aléatoires 54 / 92


Propriété 18
Soit T la variable aléatoire centrée et réduite.
1 P(T > t) = 1 − Π(t).
2 Si t est positif : Π(−t) = 1 − Π(t).
3 Pour tous a; b ∈ R, avec a 6 b : P(a 6 T 6 b) = Π(b) − Π(a).
4 Pour tout t > 0, P(−t 6 T 6 t) = 2Π(t) − 1.

Propriété 19
X −m
Si une variable aléatoire X suit la loi normale N (m; σ), alors la variable aléatoire T =
σ
suit la loi normale centrée réduite N (0; 1). En particulier, on a E (T ) = 0 et σ(T ) = 1.

EST de Khénifra Variables aléatoires 55 / 92


• N.B : Ce résultat est très importante, puisqu’alors il nous suffit d’étudier la loi normale
centrée réduite puis de procéder à un changement de variable pour obtenir n’importe quelle
loi normale !
• La Propriété 18 ne donne que les valeurs de la loi normale centrée réduite et pour des
valeurs positives.

EST de Khénifra Variables aléatoires 56 / 92


Propriété 20
Soit X une variable aléatoire suivant la loi normale N (m; σ). Alors, pour tous a; b ∈ R :
1 La variable aléatoire aX + b suit la loi normale N (am + b ; |a|σ),
Si de plus Y suit une loi normale N (m0 ; σ 0 ), alors

1 La variable aléatoire X + Y suit une loi normale N (m + m0 ; σ 2 + σ 02 ),

2 La variable aléatoire X − Y suit une loi normale N (m − m0 ; σ 2 + σ 02 ).

Exemple 23 √
Si X suit la loi N (1; 3) et Y suit la loi N (−1; 1), alors :

1 La variable aléatoire −2X + 5 suit la loi normale N (3; 2 3),
2 La variable aléatoire X + Y suit une loi normale N (0; 2),
3 La variable aléatoire X − Y suit une loi normale N (2; 2).

EST de Khénifra Variables aléatoires 57 / 92


Plan

1 Probabilités

2 Variables aléatoires

3 Échantillonnage

4 Estimation

5 Tests d’hypothèse

EST de Khénifra Échantillonnage 58 / 92


Définition 27
Population : Rassemblement de tous les cas qui répondent à un ensemble de caractères
spécifiques. Appelée aussi univers ou ensemble statistique.
Enquête : Ensemble des opérations de collecte et de traitement de données relatives à
quelques domaines que ce soit
Unité de base : Unité d’échantillonnage ou unité de sondage, c’est l’élément pris en
considération dans l’enquête.
Recensement : Enquête complète ou enquête exhaustive, c’est une enquête au cours de
laquelle toutes les unités de base de la population sont observées
Sondage : Enquête incomplète, enquête partielle ou enquête par échantillonnage, c’est
une enquête au cours de laquelle seulement une partie des unités de base de la
population sont observée.
Échantillon : Ensemble des unités de base sélectionnées et réellement observées au
cours d’un sondage.
Échantillonnage : Ensemble des opérations qui permettent de sélectionner de façon
organisée les éléments de l’échantillon.
EST de Khénifra Échantillonnage 59 / 92
Rôle de l’échantillonnage
Lorsqu’on souhaite collecter les informations sur une population, deux possibilités s’offrent :
Solution 1 : La première solution consiste à observer ou interroger tous les éléments de
la population, c’est ce qu’on appelle une enquête complète ou enquête exhaustive ou
recensemen
Solution 2 : La seconde solution consiste à observer ou interroger une partie de la
population, c’est ce qu’on appelle enquête partielle ou sondage. Les éléments de la
population qui sont réellement observés constituent l’échantillon et l’opération qui
consiste à choisir ces éléments est appelée échantillonnage.

EST de Khénifra Échantillonnage 60 / 92


Les principales formules des lois usuelles vues en section 2 avec p + q = 1.

EST de Khénifra Échantillonnage 61 / 92


Propriété 21 (Approximations de la loi binomiale par par la loi de poisson)
Pour n « assez grand » et p « proche » de 0 tels que np(1 − p) ne soit « pas trop grand », on
peut approcher la loi binomiale B(n, p) par la loi de poisson P(λ) où λ = np.

On convient de faire cette approximation pour n > 30, p 6 0, 1 et np(1 − p) 6 10.


Exemple 24
Dans une chaîne de fabrication, 5% des pièces sont défectueuses ; on prélève une pièce, on
examine si elle est défectueuse et on la replace parmi les autres. On répète 120 fois cette
expérience. On désigne par X la variable aléatoire qui à chaque tirage de 120 pièces associe le
nombre de pièces défectueuses.
1 Justifier que X suit une loi binomiale, en préciser les paramètres.
2 Calculer P(X = 5).
3 Montrer qu’une approximation de la loi binomiale par une loi de poisson convient.
4 Calculer P(X = 5) à l’aide de cette approximation.
5 Comparer pour apprécier la qualité de l’approximation.

EST de Khénifra Échantillonnage 62 / 92


Solution :
1 Pour chaque tirage, on a deux résultats possibles : ou bien la pièce est défectueuse avec
une probabilité de p = 0, 05 ; ou bien elle ne l’est pas avec une probabilité de
q = 1 − p = 0, 95.
On effectue 120 tirages de manière indépendante.
On peut donc conclure que X suit la loi binomiale B(120; 0, 05).
2 5 × 0, 055 × 0, 95115 = 0, 1634.
P(X = 5) = C120
3 On a n > 30 ; p < 0, 1 et np(1 − p) = 5, 7 < 10. On peut donc faire une approximation
grâce à la loi de poisson P(120 × 0, 05) = P(6).
65
4 On obtient : P(X = 5) = e −6 = 0, 1606.
5!
5 La loi de poisson donne la même valeur à 10−2 près, ce qui est une bonne approximation.

EST de Khénifra Échantillonnage 63 / 92


Propriété 21 (Approximations de la loi binomiale par par la loi normale)
Pour n « assez grand » et pour p « ni proche de 0 ni de 1 » tels que np(1 − p) ne soit « pas
trop grand », onppeut approcher la loi binomiale B(n; p) par la loi normale N (m; σ) où
m = np et σ = np(1 − p).

On convient de faire cette approximation pour n > 50, p 6 50 et np(1 − p) > 10.
Exemple 25
On lance 300 fois une pièce de monnaie truquée ce qui constitue une partie. La probabilité
d’obtenir « face » est 23 .
On désigne par X la variable aléatoire qui à chaque partie associe le nombre de « face »
obtenus.
1 Justifier que X suit une loi binomiale, en préciser les paramètres.
2 Peut-on calculer simplement P(X > 210) ?
3 Montrer qu’une approximation de la loi binomiale par une loi normale se justifie.
4 Calculer P(X > 210) à l’aide de cette approximation.

EST de Khénifra Échantillonnage 64 / 92


Solution :
1 Pour chaque jet, on a deux résultats possibles : ou bien on obtient « face » avec une
probabilité de p = 32 , ou bien on obtient « pile » avec une probabilité de q = 1 − p = 13 .
On lance 300fois la pièce de manière indépendante. On peut donc conclure que X suit la
 
loi Binomiale B 300; 32 .
300
i 2 i 1 300−i
× ×
P
2 P(X > 210) = C300 , la calculatrice ne peut pas toujours effectuer un
i=211 3 3
tel calcul.
2
3 On a n > 50, p = et np(1 − p) = 66, 66 > 10.
3 !
On peut donc faire une approximation
r
2 2 1
par la loi normale P 300 × ; 300 × × = P(200; 8, 16).
3 3 3
X − 200
4 On utilise le changement de variable T = . T suit la loi normale N (0, 1).
8, 16
P(X > 210) = P(8, 16T + 200 > 210) = P(T > 1, 22) = 1 − P(T 6 1, 22) =
1 − 0, 8888 = 0, 1112.

EST de Khénifra Échantillonnage 65 / 92


Propriété 22 ( Loi faible des grands nombres)
Soit X1 , X2 , . . ., Xn n variables aléatoires indépendantes ayant même espérance m et même
X1 + X2 + · · · + Xn
écart-type σ et soit Xn = , alors :
n
Pour tout ε > 0, lim P(|Xn − m| < ε) = 1.
n→+∞

Remarque 8
Concrètement, ce théorème signifie que plus n est grand plus la variable aléatoire Xn se
rapproche de l’espérance mathématique m.

Exemple 26
On lance un dé. Si on obtient 6, c’est gagné et on marque 1 point. Sinon, c’est perdu et on
marque 0 point.
Soit Xi la variable aléatoire correspondant au nombre de point obtenu lors du i − ime lancer.
5 1 1
On a donc : P(X = 0) = , P(X = 1) = et E (X ) = .
6 6 6
EST de Khénifra Échantillonnage 66 / 92
On répète n fois cette même expérience, les n variables aléatoires X1 , X2 , . . ., Xn ont la
même loi de probabilité.
Pour connaitre le nombre de succès, on étudie la variable aléatoire Xn : « Fréquence des
Nombre de succès X1 + X2 + · · · + Xn
succès »avec Xn = = .
Nombre d’expériences aléatoires n
1
Normalement, on devrait trouver Xn = .
6
1
Pour n = 3 par exemple, il y a peu de chance pour que l’on trouve X3 = .
6
1
Pour n = 30, la probabilité de trouver X30 = augmente sans être très forte.
6
1
Pour n = 1000, on se rapproche de cette valeur de .
6
1
Le théorème dit que plus n est grand, plus Xn se rapproche de la valeur théorique .
6

EST de Khénifra Échantillonnage 67 / 92


Théorème 2 (Théorème de la limite centrée)
Soit X1 , X2 , . . ., Xn n variables aléatoires indépendantes ayant même espérance m et même
X1 + X2 + · · · + Xn
écart-type σ et soit Xn = , alors :
n
σ
 
Pour n suffisamment grand, Xn suit approximativement la loi normale N m, √ .
n

Étant donné une population de taille N et X une variable aléatoire telle que E (X ) = m et
σ(X ) = σ.
Pour prélever les échantillons de taille n, on a procédé à n épreuves indépendantes de
variables aléatoires X1 , X2 , . . ., Xn de même loi que X .
X1 + X2 + · · · + Xn
La variable aléatoire Xn = associe à tout échantillon de taille n sa
n
moyenne. D’après le théorème de la limite centrée, pour n assez grand, on a :

EST de Khénifra Échantillonnage 68 / 92


Propriété 23(Loi d’échantillonnage des moyennes)
La loi d’échantillonnage de taille n de la moyenne Xn quand n > 30, peut être approchée par
σ

la loi normale N m, √ .
n

Exemple 27
Une machine fabrique des pièces en grande série. A chaque pièce tirée au hasard, on associe
sa longueur exprimée en millimètres ; on définit ainsi une variable aléatoire X .
On suppose que X suit la loi normal N (28, 20; 0, 027).
Soit Mn la variable aléatoire qui à tout échantillon aléatoire de taille n associe la moyenne des
longueurs des n pièces de l’échantillon.
σ
 
La propriété nous dit alors que pour n assez grand, Mn suit la loi normale N m, √ soit
n
0, 027
 
N 28, 20; √ . Supposons que les échantillons soient de taille 100, alors M100 suit la loi
n
N (28, 20; 0, 0027).

EST de Khénifra Échantillonnage 69 / 92


On étudie, dans une population de taille N, un caractère X suivant une loi de bernoulli B(p),
c’est-à-dire que les éléments possèdent une certaine propriété d fréquence p.
Dans un échantillon de taille n, on répète n fois la même épreuve de façon indépendante. On
obtient n variables aléatoires X1 , X2 , . . ., Xn de même loi que X .
X1 + X2 + · · · + Xn
La variable aléatoire fn = associe à tout échantillon de taille n la
n
fréquence de succès sur cet échantillon.

Propriété 24 (Loi d’échantillonnage des fréquences)


La loi d’échantillonnage de taillen de
sla fréquence
 fn pour n « assez grand » peut être
p(1 − p) 
approchée par la loi normale N p; .
n

Remarque 9
On convient de dire que n est « assez grand » lorsque n > 50.
p
Ce résultat est un cas particulier du précédent en l’appliquant à m = p et σ = p(1 − p)

EST de Khénifra Échantillonnage 70 / 92


Exemple 28
Une urne contient 100 boules numérotées de 1 à 100, indiscernables au toucher. Lors d’un
tirage aléatoire d’une boule, la probabilité d’obtenir un nombre inférieur ou égal à 37 est
p = 0, 37. On appelle succès l’événement qui consiste à tirer une des boules numérotées de 1
à 37.
Un échantillon de taille 50 est obtenu par un tirage aléatoire, avec remise, de 50 boules. On
s’intéresse à la fréquence d’apparition d’un succès lors du tirage de ces 50 boules.
Soit f50 la variable aléatoire qui à chaque échantillon de taille 50 associe sa fréquence de
succès.
Xi est la variable aléatoire qui à chaque échantillon associe 1 si la i − ime boule apporte un
succès, O sinon. Les Xi sont des variables aléatoires indépendantes et suivent le même loi de
Bernoullipde paramètre p = 0, 37 d’espérance E (Xi ) = 0, 37 et d’écart-type
σ(X ) = p(1 − p) = 0, 48.
X1 + X2 + · · · + X50
On a f50 = qui a pour espérance mathématique p = 0, 37 et pour
r 50
0, 37 × 0, 63
écart-type = 0, 068.
50
EST de Khénifra Échantillonnage 71 / 92
Plan

1 Probabilités

2 Variables aléatoires

3 Échantillonnage

4 Estimation

5 Tests d’hypothèse

EST de Khénifra Estimation 72 / 92


Estimation ponctuelle d’un paramètre

Propriété 25 (Moyenne)
La valeur moyenne me d’un paramètre observé sur un échantillon de population, dont la taille
est fixée, fournit une estimation x de la moyenne réelle de ce paramètre sur la population
considérée.
Exemple 29
Une usine produit des vis cruciformes. On souhaite estimer la moyenne des longueurs des vis
dans la production de la journée qui s’élève à 10000 pièces.
On choisit un échantillon de 150 vis et on obtient une moyenne de me = 4, 57 cm.
On en déduit donc que la longueur moyenne des vis de la production journalière est x = 4, 57
cm.

EST de Khénifra Estimation 73 / 92


Estimation ponctuelle d’un paramètre

Propriété 26(Écart type)


L’écart-type σe d’un paramètre observé sur un échantillon de population, dont la taille est
fixée, fournit une estimation faussée de l’écart type de ce paramètre dans toute la population
considérée.
Une meilleure
q estimation σ de l’écart type réel est obtenue en considérant le nombre
n
σ = σe n−1 , où n est la taille de l’échantillon servant au calcul de σe .

Exemple 30
La mesure de la longueur des vis produites dans l’échantillon précédent de 150 pièces conduit
à relever un écart-type de 3 mm.
La meilleure estimation possible de l’écart-type de la production
rjournalière n’est pas de 3 mm
150
comme dans le cas précédent pour la moyenne, mais de σ = 3 ' 3, 01 mm.
149

EST de Khénifra Estimation 74 / 92


Estimation ponctuelle d’un paramètre
Propriété 26 (Fréquence)
La fréquence d’apparition fe d’un paramètre observé sur un échantillon de population, dont la
taille est fixée, fournit une estimation f de la fréquence réelle d’apparition de ce paramètre sur
la population considérée.

Exemple 31
Dans l’exemple précédent, On prélève un échantillon de 150 vis et on relève 3 pièces
défectueuses.
On peut alors donner une estimation de la fréquence f de vis défectueuses dans la production
3
journalière : On a fe = = 0, 02 donc, f = 0, 02.
150
Remarque
Notons qu’il revient exactement au même d’estimer un pourcentage : dans l’exemple
précédent, on peut affirmer que 2% des vis ont une croix mal formée sur la tête.

EST de Khénifra Estimation 75 / 92


Estimation par intervalle de confiance d’un paramètre
On souhaite, à partir des observations faites sur un échantillon, déterminer un intervalle de
confiance contenant la valeur moyenne avec un risque d’erreur décidé à l’avance.
On suppose que les conditions sont réunies pour faire l’approximation que la loi
σ
 
d’échantillonnage de la moyenne X est la loi normale N m; √ .
n
X −m
On pose T = σ , T suit donc la loi normale centrée réduite N (0; 1).

n
Soit α la probabilité, fixée à l’avance, pour que T n’appartienne pas à l’intervalle [−t; t], on
peut écrire :
P(|T | > t) = α ⇐⇒ 1 − P(|T | 6 t) = α ⇐⇒ P(|T | 6 t) = 1 − α
X −m
⇐⇒ P(−t 6 T 6 t) = 1 − α ⇐⇒ P(−t 6 σ 6 t) = 1 − α

n
σ σ
 
⇐⇒ P X − t √ 6 m 6 X + t √ =1−α
n n
EST de Khénifra Estimation 76 / 92
σ σ
 
Autrement dit, m appartient à l’intervalle X − t √ ; X + t √ pour 100(1 − α)% des
n n
échantillons.
Cet intervalle est appelé intervalle de confiance,
α est le risque d’erreur ou le seuil de risque,
1 − α est le coefficient de confiance.
Propriété 27
σ σ
 
L’intervalle X − t √ ; X + t √ est l’intervalle de confiance de la moyenne m de la
n n
population avec le coefficient de confiance 2Π(t) − 1 = 1 − α.

EST de Khénifra Estimation 77 / 92


Estimation par intervalle de confiance d’un paramètre

Exemple 32
On suppose que la durée de vie, exprimée en heures, d’une ampoule électrique d’un certain
type, suit la loi normale de moyenne M inconnue et d’écart-type σ = 20.
Une étude sur un échantillon de 16 ampoules donne une moyenne de vie égale à 3000 heures.
On va déterminer un intervalle de confiance de M au seuil de risque de 10%.
On a : α = 10% d’où 2Π(t) − 1 = 0, 90 ⇐⇒ Π(t) = 0, 95 ⇐⇒ t = 1, 645.
Un intervalle de confiance de M est donc :
20 20
 
3000 − 1, 645 √ ; 3000 + 1, 645 √ = [2992, 3008]
16 16

EST de Khénifra Estimation 78 / 92


Estimation par intervalle de confiance d’un paramètre

A l’aide d’un échantillon, nous allons définir, avec un coefficient de confiance choisi à
l’avance, un intervalle de confiance de la fréquence p des éléments de la population possédant
une certaine propriété.  s 
p(1 − p 
On se place dans le cas où on peut approximer la loi par la loi normale N p; .
n

Propriété 28 (Fréquence)
 s s 
f (1 − f ) f (1 − f ) 
L’intervalle f − t ;f + t est l’intervalle de confiance d’une fréquence
n−1 n−1
p de la population avec le coefficient de confiance 2Π(t) − 1 = 1 − α ayant pour centre la
fréquence f de l’échantillon considéré.

EST de Khénifra Estimation 79 / 92


Estimation par intervalle de confiance d’un paramètre

Exemple 33
Un sondage dans une commune révèle que sur les 500 personnes interrogées, 42% sont
mécontentes de l’organisation des transport. On veut déterminer, au seuil de risque 1%, un
intervalle de confiance du pourcentage p de personnes mécontentes dans la commune :
On a : f = 0, 42 ; n = 500 ; α = 1% donc t = 2, 575.
Un intervalle de confiance du pourcentage p est donc :

 s s 
0, 42 − 2, 58
0, 42 × 0, 58 0, 42 × 0, 58 
; 0, 42 + 2, 575 = [0, 36; 0, 48] = [36%; 47%]
499 499

EST de Khénifra Estimation 80 / 92


Le tableau ci-dessous regroupe toutes les situations dans lesquelles on doit savoir fournir une
estimation ponctuelle ou par intervalle de confiance :

EST de Khénifra Estimation 81 / 92


Plan

1 Probabilités

2 Variables aléatoires

3 Échantillonnage

4 Estimation

5 Tests d’hypothèse

EST de Khénifra Tests d’hypothèse 82 / 92


Tests d’hypothèse

Motivation
Pour remplir des paquets de farine de 10 kg, on utilise une ensacheuse réglée avec précision,
mais on ne peut espérer que tous les paquets sortant de la machine pèsent exactement 10 kg.
On peut seulement exiger que l’espérance mathématique des masses de tous les paquets
produits soit de 10 kg.
Ainsi, une palette de 50 paquets pèsera par exemple 497 kg. Doit-on en conclure que la
machine est mal réglée ?
Si, après avoir réglé différemment la machine, une nouvelle palette de50 paquets pèse 502 kg,
peut-on en conclure que la machine est mieux réglée ?
Ce sont les tests de validité d’hypothèse qui permettent de prendre une décision. Ces
décisions seront prises avec un certain risque a priori.

EST de Khénifra Tests d’hypothèse 83 / 92


Tests d’hypothèse

Dans tout ce chapitre, les notions seront abordées grâce à des exemples.
Pour chaque test, on appliquera le cheminement suivant :
Construction du test de validité d’hypothèse.
Étape 1 : détermination de la variable aléatoire de décision et de ses paramètres,
Étape 2 : choix des deux hypothèses : l’hypothèse nulle Ho et l’hypothèse alternative Hl ,
Étape 3 : l’hypothèse nulle étant considérée comme vraie et compte tenu de l’hypothèse
alternative, détermination de la zone critique selon le niveau de risque α donné,
Étape 4 : rédaction d’une règle de décision.
Utilisation du test d’hypothèse.
Étape 5 : calcul des caractéristiques d’un échantillon particulier puis application de la
règle de décision.

EST de Khénifra Tests d’hypothèse 84 / 92


Test bilatéral relatif à une moyenne
Exemple 34
Une machine produit des rondelles dont l’épaisseur est une variable aléatoire X d’écart type
0, 3 mm. La machine a été réglée pour obtenir des épaisseurs de 5 mm.
Un contrôle portant sur un échantillon de 100 rondelles a donné 5, 07 mm comme moyenne
des épaisseurs de ces 100 rondelles. Peut-on affirmer que la machine est bien réglée au seuil
de risque de 5% ?
Variable aléatoire de décision.
Soit m l’espérance mathématique de X , c’est-à-dire la moyenne des épaisseurs de toutes
les rondelles produites par la machine ainsi réglée.
Considérons la variable aléatoire M qui, à chaque échantillon de taille 100, associe sa
moyenne.
La taille des échantillons étant suffisamment grande, on considère que M suit la loi
0, 3

N m; √ , c’est-à-dire N (m; 0, 03). M sera la variable aléatoire de décision.
100

EST de Khénifra Tests d’hypothèse 85 / 92


Choix des hypothèses.
On estime que la machine est bien réglée, si la moyenne de toutes les rondelles produites
par la machine est 5 mm. C’est donc l’hypothèse m = 5 que nous allons tester. On
l’appelle l’hypothèse nulle H0 .
Sinon, on choisit comme hypothèse alternative l’hypothèse H1 : « m 6= 5 ».
Recherchons comment la moyenne me , d’un échantillon de 100 rondelles peut confirmer
ou non l’hypothèse H0 .
Zone critique.
Dons le cas où l’hypothèse H0 est vraie, la variable aléatoire M suit la loi N (5; 0, 03).
On cherche alors le réel d tel que P(5 − d 6 M 6 5 + d) = 0, 95. (E)
M −5
la variable aléatoire T = suit la loi normale centrée réduite N (0, 1), on a alors :
0, 03
d d
 
(E) ⇐⇒ P(5 − d 6 0, 03T + 5 6 5 + d) = 0, 95 ⇐⇒ P − 6T 6 = 0, 95
0, 03 0, 03
d d d
   
(E) ⇐⇒ 2Π − 1 = 0, 95 ⇐⇒ Π = 0, 975 On trouve alors = 1, 96
0, 03 0, 03 0, 03
soit d = 0, 0588 ≈ 0, 06.
EST de Khénifra Tests d’hypothèse 86 / 92
L’intervalle de confiance est donc l’intervalle : [5 − 0, 06; 5 + 0, 06] = [4, 94; 5, 06].

La probabilité qu’un échantillon ait une moyenne située hors de cet intervalle étant 0, 05, on
peut considérer que cet événement est rare. Ainsi, la moyenne de notre échantillon me = 5, 07
nous amène à douter de la validité de l’hypothèse H0 .
Ne perdons pas de point de vue qu’il se peut, malgré tout, que la machine soit bien réglée et
que notre échantillon fasse partie des 5% de ceux ayant une moyenne hors de l’intervalle
trouvé. C’est pourquoi cette région est appelée zone critique.

EST de Khénifra Tests d’hypothèse 87 / 92


Règle de décision.
Si la moyenne de l’échantillon n’est pas située dans la zone critique, on accepte H0 ,
sinon, on refuse H0 et on accepte H1 .
Conclusion.
Puisque 5, 07 appartient à la zone critique, on décide de rejeter l’hypothèse H0 et
d’accepter l’hypothèse alternative Hl : m 6= 5 (la machine n’est pas bien réglée).
Dans un test de validité d’hypothèse, le seuil de risque α est la probabilité de rejeter H0 alors
qu’elle est vraie.

EST de Khénifra Tests d’hypothèse 88 / 92


Test unilatéral relatif à une moyenne
Exemple 35
La durée de vie (en heures) des ampoules électriques produites par une usine est une variable
aléatoire X d’écart type 120. Le fabricant annonce qu’en moyenne, les ampoules ont une
durée de vie de 1120 heures.
On demande de rédiger une règle de décision pour vérifier l’affirmation du fabriquant, au seuil
de risque de de 5%, en testant un échantillon de 36 ampoules.
Variable aléatoire de décision.
Soit m l’espérance mathématique de X, c’est-à-dire la moyenne des durée de vie de
toutes les ampoules produites par l’usine. Considérons la variable aléatoire M qui, à
chaque échantillon de 36 ampoules associe la moyenne de durée de vie des 36 ampoules.
La taille des échantillons étant suffisamment grande, on considère que M suit la loi
120
N m; √ , c’est-à-dire N (m; 20).
36

EST de Khénifra Tests d’hypothèse 89 / 92


Choix des hypothèses.
Soit l’hypothèse nulle H0 : m = 1120 (l’affirmation du fabricant est vraie).
Dans l’exemple précédent, les rondelles devaient avoir une épaisseur moyenne de 5 mm et
cette mesure ne supportait ni excès, ni déficit. Ici, l’acheteur ne se plaindra que si la
durée de vie des ampoules est inférieure à 1120 heures ; dans le cas où la moyenne me ,
de l’échantillon est supérieure à 1 120, l’hypothèse du fabricant se trouve immédiatement
confirmée.
L’hypothèse alternative Hl est donc m < 1120 (l’affirmation du fabricant est fausse).
Zone critique.
La zone critique se trouve donc d’un seul côté de la moyenne. On dit alors que le test est
unilatéral par opposition au test bilatéral effectué au paragraphe précédent.
Dans le cas où hypothèse H0 est vraie, la variable aléatoire M suit la loi N (1120; 20)
On cherche alors le réel d tel que P(M < 1120 − d) = 0, 05. (E)
M − 1120
la variable aléatoire T = suit la loi normale centrée réduite N (0, 1).
20

EST de Khénifra Tests d’hypothèse 90 / 92


On a alors :
d
 
(E) ⇐⇒ P(20T + 1120 < 1120 − d) = 0, 05 ⇐⇒ P T < − = 0, 05
20
d d d
     
(E) ⇐⇒ P T > = 0, 05 ⇐⇒ 1 − P T 6 = 0, 05 ⇐⇒ Π = 0, 95
20 20 20
d
On trouve alors = 1, 645 soit d = 32, 9 ≈ 33.
20
La zone critique est donc l’intervalle ] − ∞; 1120 − 33] =] − ∞; 1087].

5% seulement des échantillons de taille 36 ont en moyenne une durée de vie inférieure à 1087h
EST de Khénifra Tests d’hypothèse 91 / 92
Règle de décision.
Si la moyenne me de l’échantillon observé est inférieure à 1087, on rejette l’hypothèse H0
et on accepte l’hypothèse alternative H1 (l’affirmation du fabricant est fausse).
Si la moyenne me de l’échantillon observé est supérieure à 1087, on accepte l’hypothèse
H0 .

EST de Khénifra Tests d’hypothèse 92 / 92

Vous aimerez peut-être aussi