Proba GE+GME
Proba GE+GME
Proba GE+GME
EST de Khénifra 1 / 92
Plan
1 Probabilités
2 Variables aléatoires
3 Échantillonnage
4 Estimation
5 Tests d’hypothèse
EST de Khénifra 2 / 92
Plan
1 Probabilités
2 Variables aléatoires
3 Échantillonnage
4 Estimation
5 Tests d’hypothèse
Définition 1
On réalise une permutation si on écrit tous les éléments d’un ensemble dans un ordre
déterminé.
Exemple 1
On considère 4 pions de couleurs, respectivement verte (V ), rouge (R), bleue (B) et noire
(N). On souhaite aligner les pions les uns derrière les autres. De combien de manières
différentes (par l’ordre des couleurs) peut-on le faire ?
1 Pour la première position, il y a 4 couleurs possibles. Pour la seconde, il n’y en a plus que
3. Pour la troisième position, il ne reste plus que deux possibilités de couleurs, et pour la
dernière position, il ne restera qu’une couleur, la dernière. Un arbre permet de décrire
complètement ce schéma.
2 Il y a donc au total 4 × 3 × 2 × 1 = 24 possibilités d’ordonner les 4 pions de couleurs
différentes.
Exemple 2
1 3! = 1 × 2 × 3 = 6.
2 6! = 1 × 2 × · · · × 5 × 6 = 720.
3 8! = 1 × 2 × · · · × 7 × 8 = 40320.
Propriété 1
Le nombre de permutations de n éléments est n!.
Remarque 1
On dit aussi qu’il y a n! façons de ranger n objets dans n cases, de manière à placer tous les
objets dans une et une seule case.
Remarque 2
Si l’on s’intéresse à la constitution d’un groupe ordonné, on parle d’arrangement Apn , au lieu
de combinaison.
Exemple Calcul des combinaisons C50 ; C51 et des arrangements A25 , A35 .
5! 5! 5! 5!
1 C0 = = = 1 ; C51 = = = 5.
5
0!(5 − 0)! 0!5! 1!(5 − 1)! 1!4!
2 A2 = 5 × 4 = 20. ; A35 = 5 × 4 × 3 = 60.
5
Propriété 2
Soient n et p des entiers naturels tels que p 6 n, on a les propriétés suivantes :
1 Cn0 = Cnn = 1.
2 Symétrie : Cnp = Cnn−p .
3 Relation de Pascal : Cnp + Cnp+1 = Cn+1
p+1
.
Exemple
Développons (x + 2)4 :
4
On a (x + 2)4 = Cnk x k 24−k .
P
k=0
Donc (x + 2)4 = 1 × 24 × x 0 + 4 × 23 × x 1 + 6 × 22 × x 2 + 4 × 21 × x 3 + 1 × 20 × x 4
= 16 + 32x + 24x 2 + 8x 3 + x 4 .
Définition 4
1 Chaque résultat possible et prévisible d’une expérience aléatoire est appelé éventualité
liée à l’expérience aléatoire.
2 L’ensemble formé par les éventualités est appelé univers, il est très souvent noté Ω.
3 Un événement d’une expérience aléatoire est une partie quelconque de l’univers,
4 Un événement ne comprenant qu’une seule éventualité est un événement élémentaire.
5 L’événement qui ne contient aucune éventualité est l’événement impossible, noté ∅,
6 L’événement composé de toutes les éventualités est appelé événement certain.
7 Pour tout événement A il existe un événement noté A et appelé événement contraire de
A qui est composé des éléments de Ω qui ne sont pas dans A.
On a en particulier A ∪ A = Ω et A ∩ A = ∅.
Exemple 6
On considère l’ensemble des chiffres.
On note A l’événement "obtenir un chiffre pair" et B l’événement "obtenir un chiffre
strictement inférieur à six"
1 A ∩ B = "obtenir un chiffre pair et inférieure strictement à six" : A ∩ B = {2; 4},
2 A ∪ B = "obtenir un chiffre pair ou inférieur strictement à six" : A ∪ B = {1; 2; 3; 4; 5}.
Remarque 4
Dans un exercice, pour signifier qu’on est dans une situation d’équiprobabilité on a
généralement dans l’énoncé un expression du type :
on lance un dé non pipé,
dans une urne, il y a des boules indiscernables au toucher,
on rencontre au hasard une personne parmi . . .
Propriétés 7
Soit S un événement de probabilité non nulle, on a :
1 0 6 PS (A) 6 1 ;
2 PS (Ω) = 1 ;
3 PS (∅) = 0 ;
4 PS (Ā) = 1 − PS (A) ;
5 PS (A ∪ B) = PS (A) + PS (B) − PS (A ∩ B) ;
6 Si A et B sont des événements incompatibles, alors PS (A ∪ B) = PS (A) + PS (B) ;
7 PS (A ∩ B) = PS (A ∪ B) = 1 − PS (A ∪ B).
Exemple 9
Dans un atelier, deux machines M1 et M2 découpent des pièces métalliques identiques. M1
fournit 60% de la production (parmi lesquelles 6, 3% sont défectueuses), le reste étant fourni
par M2 (dont 4% de la production est défectueuse).
La production du jour est constituée des pièces produites par les deux machines, et on en tire
en fin de soirée une pièce au hasard (tous les prélèvements sont supposés équiprobables).
1 Quelle est la probabilité de prélever une pièce défectueuse, sachant qu’elle est produite
par M1 ?
2 Quelle est la probabilité de prélever une pièce défectueuse, sachant qu’elle est produite
par M2 ?
3 Quelle est la probabilité de prélever une pièce défectueuse ?
EST de Khénifra Probabilités 19 / 92
Définition 8 (Evénements indépendants)
On dit que A et B sont des événements indépendants si et seulement si
P(A ∩ B) = P(A).P(B).
Exemple 10
On considère le tirage au hasard d’une carte d’un jeu de 32 cartes.
A = "Tirer un as", B = "Tirer un coeur" et C = "Tirer un as rouge".
Indépendance de A et B :
4 1 8 1
1 P(A) = = et P(B) = = .
32 8 32 4
1
2 P(A ∩ B) = = P(A) × P(B), les événements A et B sont donc indépendants.
32
Indépendance de B et C :
1 2 1
1 P(B) = et P(C ) = = .
4 32 16
1
2 P(B ∩ C ) = 6= P(B) × P(C ), les événements B et C ne sont donc pas indépendants.
32
EST de Khénifra Probabilités 20 / 92
Remarque 5
Dans le cas où A et B sont des événements de probabilités non nulles, on a
P(A ∩ B) = P(B)PB (A) = P(A)PA (B) = P(A).P(B), d’où :
PB (A) = P(A) et PA (B) = P(B).
Propriétés 10
Si A et B sont des événements indépendants, alors : A et B ; A et B ; A et B sont également
des événements indépendants.
1 Probabilités
2 Variables aléatoires
3 Échantillonnage
4 Estimation
5 Tests d’hypothèse
Définition 9
Une grandeur numérique X prenant, lors d’une expérience aléatoire, des valeurs x1 , x2 , ..., xn
avec des probabilités p1 , p2 , ..., pn est une variable aléatoire discrète.
Exemple 11
Un jeu de hasard consiste à lancer un dé équilibré à 6 faces. Le lanceur gagne la somme
double de la valeur de la face obtenue si celle-ci est paire, sinon, il perd le double de la valeur
indiquée par le dé.
On appelle X le gain, positif ou négatif, du joueur après un lancer.
1 Ici, l’ensemble des issues possibles est Ω = {1; 2; 3; 4; 5; 6},
2 on a défini avec X une variable aléatoire réelle telle que :
X (1) = −2, X (2) = 4, X (3) = −6, X (4) = 8, X (5) = −10 et X (6) = 12.
Remarque 6
En général, on présente la loi d’une variable aléatoire X sous la forme d’un tableau, qui
récapitule les valeurs prises par X ainsi que les probabilités associées.
Définition 11
Soit X une variable aléatoire discrète, on appelle espérance de la variable aléatoire X le réel
noté E (X ) qui vaut :
n
X
E (X ) = p1 x1 + p2 x2 + ... + pn xn = pi xi .
i=1
Exemple 13
Calcul de la variance pour le jeu de cartes :
5 1 1 1 5 4 9 9
V (X ) = [0 − 1]2 + [1 − 1]2 + [3 − 1]2 + [4 − 1]2 = + 0 + + = = 2, 25.
8 8 r8 8 8 8 8 4
9 3
D’où l’écart-type : σ(X ) = σx = = σx = = 1, 5.
4 2
EST de Khénifra Variables aléatoires 27 / 92
Théorème 1
n
X
V (X ) = p1 x12 + p2 x22 + ... + pn xn2 − [E (X )]2 = pi xi2 − [E (X )]2 = E (X 2 ) − E 2 (X ).
i=1
Exemple 14
Autre méthode de calcul de la variance pour le jeu de cartes :
5 1 1 1
V (X ) = × 02 + × 12 + × 32 + × 42 − 12
8 8 8 8
1 9 16 9
V (X ) = 0 + + + − 1 = V (X ) = = 2, 25.
8 8 8 4
Remarque 7
1 La variance et l’écart-type d’une variable aléatoire réelle X sont des nombres positifs.
2 L’écart-type mesure la dispersion des valeurs d’une variable aléatoire par rapport à son
espérance.
Exemple 15
On considère la variable aléatoire X de loi :
E (X ) = ... E (Y ) = ...
V (X ) = ... V (Y ) = ...
σ(X ) = ... σ(Y ) = ...
On considère l’expérience aléatoire consistant à choisir l’un de ces points au hasard (tous les
choix de points dans B étant équiprobables). On définit la variable aléatoire discrète Z qui est
formée du couple de coordonnées du point choisi.
La variable aléatoire Z est appelée couple des variables aléatoires X et Y . On peut présenter
sa loi de manière à faire apparaître les rôles joués par X et Y plus clairement :
Exercice 1
Dans une fête foraine, on considère deux roues A et B définies ainsi :
pour la roue A : on a 20% de chance de tomber sur le nombre 10, 50% de chance de
tomber sur le nombre 20 et 30% de chance de tomber sur le nombre 30.
pour la roue B : on a 40% de chance de tomber sur le nombre 10 et 60% de chance de
tomber sur le nombre 20.
Propriété 11
Soit X une variable aléatoire suivant une loi de Bernouilli B(p), alors :
1 L’espérance de X vaut E (X ) = p.
2 La variance de X vaut V (X ) = pq.
1 5
Dans l’exemple précédent, on obtient E (X ) = et V (X ) = .
6 36
EST de Khénifra Variables aléatoires 40 / 92
Définition 15 (Loi binomiale)
La loi binomiale de paramètres n et p, notée B(n; p) est la loi de probabilité du nombre de
succès dans la répétition de n expériences de Bernouilli de paramètre p identiques et
indépendantes.
Elle est définie par :
Exemple 19
On lance 2 fois un dé bien équilibré. On s’intéresse à l’apparition de la face 6. Chaquelancer
1
est une expérience de Bernouilli de paramètre 61 . O.n obtient donc une loi binomiale B 2; .
6
λk
P(X = k) = e −λ , ∀k ∈ N.
k!
Exemple 20
On considère la variable aléatoire X mesurant le nimbre de clients se présentant au guichet 1
d’un bureau de poste par intervalle de temps de durée 10 minutes entre 14h30 et 16h30. On
suppose que X suit la loi de Poisson de paramètre λ = 5.
• Pour λ = 5, la table de la loi de poisson nous donne :
Propriété 13
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ, alors l’espérance et la
variance sont égales et valent E (X ) = V (X ) = λ.
Remarque
On admet que pour une variable aléatoire continue, pour tout a ∈ R : P(X = a) = 0. On a
donc :
P(a < X < b) = P(a < X 6 b) = P(a 6 X < b) = P(a 6 X 6 b),
P(a < X ) = P(a 6 X < b),
P(X > b) = P(X > b).
On appelle variance de X le réel, noté V (X ), qui, s’il existe, est défini par la relation
Z +∞
V (X ) = [ x − E (X ) ]2 f (x ) dx .
−∞
Propriété 17
On admet que si X est une variable aléatoire suivant la loi normale N (m; σ) alors
E (X ) = m et σ(X ) = σ.
Z b
1 1 x −m 2
Pour tous a et b réels tels que a 6 b on a P(a 6 X 6 b) = √ e− 2 ( σ ) dx .
σ 2π a
Propriété 19
X −m
Si une variable aléatoire X suit la loi normale N (m; σ), alors la variable aléatoire T =
σ
suit la loi normale centrée réduite N (0; 1). En particulier, on a E (T ) = 0 et σ(T ) = 1.
Exemple 23 √
Si X suit la loi N (1; 3) et Y suit la loi N (−1; 1), alors :
√
1 La variable aléatoire −2X + 5 suit la loi normale N (3; 2 3),
2 La variable aléatoire X + Y suit une loi normale N (0; 2),
3 La variable aléatoire X − Y suit une loi normale N (2; 2).
1 Probabilités
2 Variables aléatoires
3 Échantillonnage
4 Estimation
5 Tests d’hypothèse
On convient de faire cette approximation pour n > 50, p 6 50 et np(1 − p) > 10.
Exemple 25
On lance 300 fois une pièce de monnaie truquée ce qui constitue une partie. La probabilité
d’obtenir « face » est 23 .
On désigne par X la variable aléatoire qui à chaque partie associe le nombre de « face »
obtenus.
1 Justifier que X suit une loi binomiale, en préciser les paramètres.
2 Peut-on calculer simplement P(X > 210) ?
3 Montrer qu’une approximation de la loi binomiale par une loi normale se justifie.
4 Calculer P(X > 210) à l’aide de cette approximation.
Remarque 8
Concrètement, ce théorème signifie que plus n est grand plus la variable aléatoire Xn se
rapproche de l’espérance mathématique m.
Exemple 26
On lance un dé. Si on obtient 6, c’est gagné et on marque 1 point. Sinon, c’est perdu et on
marque 0 point.
Soit Xi la variable aléatoire correspondant au nombre de point obtenu lors du i − ime lancer.
5 1 1
On a donc : P(X = 0) = , P(X = 1) = et E (X ) = .
6 6 6
EST de Khénifra Échantillonnage 66 / 92
On répète n fois cette même expérience, les n variables aléatoires X1 , X2 , . . ., Xn ont la
même loi de probabilité.
Pour connaitre le nombre de succès, on étudie la variable aléatoire Xn : « Fréquence des
Nombre de succès X1 + X2 + · · · + Xn
succès »avec Xn = = .
Nombre d’expériences aléatoires n
1
Normalement, on devrait trouver Xn = .
6
1
Pour n = 3 par exemple, il y a peu de chance pour que l’on trouve X3 = .
6
1
Pour n = 30, la probabilité de trouver X30 = augmente sans être très forte.
6
1
Pour n = 1000, on se rapproche de cette valeur de .
6
1
Le théorème dit que plus n est grand, plus Xn se rapproche de la valeur théorique .
6
Étant donné une population de taille N et X une variable aléatoire telle que E (X ) = m et
σ(X ) = σ.
Pour prélever les échantillons de taille n, on a procédé à n épreuves indépendantes de
variables aléatoires X1 , X2 , . . ., Xn de même loi que X .
X1 + X2 + · · · + Xn
La variable aléatoire Xn = associe à tout échantillon de taille n sa
n
moyenne. D’après le théorème de la limite centrée, pour n assez grand, on a :
Exemple 27
Une machine fabrique des pièces en grande série. A chaque pièce tirée au hasard, on associe
sa longueur exprimée en millimètres ; on définit ainsi une variable aléatoire X .
On suppose que X suit la loi normal N (28, 20; 0, 027).
Soit Mn la variable aléatoire qui à tout échantillon aléatoire de taille n associe la moyenne des
longueurs des n pièces de l’échantillon.
σ
La propriété nous dit alors que pour n assez grand, Mn suit la loi normale N m, √ soit
n
0, 027
N 28, 20; √ . Supposons que les échantillons soient de taille 100, alors M100 suit la loi
n
N (28, 20; 0, 0027).
Remarque 9
On convient de dire que n est « assez grand » lorsque n > 50.
p
Ce résultat est un cas particulier du précédent en l’appliquant à m = p et σ = p(1 − p)
1 Probabilités
2 Variables aléatoires
3 Échantillonnage
4 Estimation
5 Tests d’hypothèse
Propriété 25 (Moyenne)
La valeur moyenne me d’un paramètre observé sur un échantillon de population, dont la taille
est fixée, fournit une estimation x de la moyenne réelle de ce paramètre sur la population
considérée.
Exemple 29
Une usine produit des vis cruciformes. On souhaite estimer la moyenne des longueurs des vis
dans la production de la journée qui s’élève à 10000 pièces.
On choisit un échantillon de 150 vis et on obtient une moyenne de me = 4, 57 cm.
On en déduit donc que la longueur moyenne des vis de la production journalière est x = 4, 57
cm.
Exemple 30
La mesure de la longueur des vis produites dans l’échantillon précédent de 150 pièces conduit
à relever un écart-type de 3 mm.
La meilleure estimation possible de l’écart-type de la production
rjournalière n’est pas de 3 mm
150
comme dans le cas précédent pour la moyenne, mais de σ = 3 ' 3, 01 mm.
149
Exemple 31
Dans l’exemple précédent, On prélève un échantillon de 150 vis et on relève 3 pièces
défectueuses.
On peut alors donner une estimation de la fréquence f de vis défectueuses dans la production
3
journalière : On a fe = = 0, 02 donc, f = 0, 02.
150
Remarque
Notons qu’il revient exactement au même d’estimer un pourcentage : dans l’exemple
précédent, on peut affirmer que 2% des vis ont une croix mal formée sur la tête.
Exemple 32
On suppose que la durée de vie, exprimée en heures, d’une ampoule électrique d’un certain
type, suit la loi normale de moyenne M inconnue et d’écart-type σ = 20.
Une étude sur un échantillon de 16 ampoules donne une moyenne de vie égale à 3000 heures.
On va déterminer un intervalle de confiance de M au seuil de risque de 10%.
On a : α = 10% d’où 2Π(t) − 1 = 0, 90 ⇐⇒ Π(t) = 0, 95 ⇐⇒ t = 1, 645.
Un intervalle de confiance de M est donc :
20 20
3000 − 1, 645 √ ; 3000 + 1, 645 √ = [2992, 3008]
16 16
A l’aide d’un échantillon, nous allons définir, avec un coefficient de confiance choisi à
l’avance, un intervalle de confiance de la fréquence p des éléments de la population possédant
une certaine propriété. s
p(1 − p
On se place dans le cas où on peut approximer la loi par la loi normale N p; .
n
Propriété 28 (Fréquence)
s s
f (1 − f ) f (1 − f )
L’intervalle f − t ;f + t est l’intervalle de confiance d’une fréquence
n−1 n−1
p de la population avec le coefficient de confiance 2Π(t) − 1 = 1 − α ayant pour centre la
fréquence f de l’échantillon considéré.
Exemple 33
Un sondage dans une commune révèle que sur les 500 personnes interrogées, 42% sont
mécontentes de l’organisation des transport. On veut déterminer, au seuil de risque 1%, un
intervalle de confiance du pourcentage p de personnes mécontentes dans la commune :
On a : f = 0, 42 ; n = 500 ; α = 1% donc t = 2, 575.
Un intervalle de confiance du pourcentage p est donc :
s s
0, 42 − 2, 58
0, 42 × 0, 58 0, 42 × 0, 58
; 0, 42 + 2, 575 = [0, 36; 0, 48] = [36%; 47%]
499 499
1 Probabilités
2 Variables aléatoires
3 Échantillonnage
4 Estimation
5 Tests d’hypothèse
Motivation
Pour remplir des paquets de farine de 10 kg, on utilise une ensacheuse réglée avec précision,
mais on ne peut espérer que tous les paquets sortant de la machine pèsent exactement 10 kg.
On peut seulement exiger que l’espérance mathématique des masses de tous les paquets
produits soit de 10 kg.
Ainsi, une palette de 50 paquets pèsera par exemple 497 kg. Doit-on en conclure que la
machine est mal réglée ?
Si, après avoir réglé différemment la machine, une nouvelle palette de50 paquets pèse 502 kg,
peut-on en conclure que la machine est mieux réglée ?
Ce sont les tests de validité d’hypothèse qui permettent de prendre une décision. Ces
décisions seront prises avec un certain risque a priori.
Dans tout ce chapitre, les notions seront abordées grâce à des exemples.
Pour chaque test, on appliquera le cheminement suivant :
Construction du test de validité d’hypothèse.
Étape 1 : détermination de la variable aléatoire de décision et de ses paramètres,
Étape 2 : choix des deux hypothèses : l’hypothèse nulle Ho et l’hypothèse alternative Hl ,
Étape 3 : l’hypothèse nulle étant considérée comme vraie et compte tenu de l’hypothèse
alternative, détermination de la zone critique selon le niveau de risque α donné,
Étape 4 : rédaction d’une règle de décision.
Utilisation du test d’hypothèse.
Étape 5 : calcul des caractéristiques d’un échantillon particulier puis application de la
règle de décision.
La probabilité qu’un échantillon ait une moyenne située hors de cet intervalle étant 0, 05, on
peut considérer que cet événement est rare. Ainsi, la moyenne de notre échantillon me = 5, 07
nous amène à douter de la validité de l’hypothèse H0 .
Ne perdons pas de point de vue qu’il se peut, malgré tout, que la machine soit bien réglée et
que notre échantillon fasse partie des 5% de ceux ayant une moyenne hors de l’intervalle
trouvé. C’est pourquoi cette région est appelée zone critique.
5% seulement des échantillons de taille 36 ont en moyenne une durée de vie inférieure à 1087h
EST de Khénifra Tests d’hypothèse 91 / 92
Règle de décision.
Si la moyenne me de l’échantillon observé est inférieure à 1087, on rejette l’hypothèse H0
et on accepte l’hypothèse alternative H1 (l’affirmation du fabricant est fausse).
Si la moyenne me de l’échantillon observé est supérieure à 1087, on accepte l’hypothèse
H0 .