Cours Prob 1 Etud
Cours Prob 1 Etud
Cours Prob 1 Etud
Polycopié de cours
Probabilités 1
Deuxième années mathématiques
I. Laroussi
Introduction iii
1 Les Probabilités 1
1.1 L’analyse combinatoire . . . . . . . . . . . . . . . . . . . . . 1
1.2 Expériences et événements aléatoires . . . . . . . . . . . . . 4
1.3 Les Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
i
Table des matières
4 Vecteurs aléatoires 69
4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . 69
4.2 La fonction de répartition . . . . . . . . . . . . . . . . . . . 73
4.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.4 Loi conditionnelle et indépendance . . . . . . . . . . . . . . 77
4.5 Calcul de loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.6 Vecteur Gaussien . . . . . . . . . . . . . . . . . . . . . . . . 83
4.7 Fonction caractéristique d’un couple . . . . . . . . . . . . . . 86
4.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5 Convergence en loi 91
5.1 Fonction caractéristique et somme de variables . . . . . . . . 91
5.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . 93
5.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
ii
Introduction
iii
Introduction
iv
1 Les Probabilités
1
1. Les Probabilités
Ω2 = {(A, B); (A, C); (A, D); (B, C); (B, D); (C, D)}.
Nous allons mieux expliqué l’idée d’ordre. Ici on dit que le couple (A, B)
est une disposition et dans le premier cas, on obtient 12 dispositions alors
que dans le deuxième, on obtient 6 dispositions. Dans les parties qui vont
suivre, nous allons voir est nommé cette différence ainsi qu’apprendre à
calculer card(Ω) sans avoir à la définir ou à définir ses éléments.
Arrangement
n!
Akn = , (1.1)
(n − k)!
2
1.1. L’analyse combinatoire
Combinaison
Akn n!
Cnk = = .
k! k!(n − k)!
!
n
La notation Cnk est parfois remplacer par . Elles sont aussi appelé
k
les coefficients binomiaux.
3
1. Les Probabilités
1. Cn0 = Cnn = 1.
Cnk = Cnn−k .
— La formule de Pascal
Si 0 ≤ k ≤ n − 1 alors,
k−1 k
Cn−1 + Cn−1 = Cnk .
4
1.2. Expériences et événements aléatoires
5
1. Les Probabilités
P : (Ω, A) −→ [0; 1]
A 7−→ P(A)
6
1.3. Les Probabilités
De ces trois axiomes on aboutie à quelques propriétés qui sont donnés par
(A3)
1. P(∅) = 0, on a ∅ = Ω ∩ ∅ =⇒ P(Ω) = P(Ω ∪ ∅) = P(Ω) + P(∅),
d’après A1) on a P(Ω) = 1 et P(Ω) + P(∅) = 1 + P(∅) =⇒ 1 =
1 + P(∅) =⇒ P(∅) = 0.
2. ∀A ∈ A : P(A) = 1 − P(Ā). on a
(A3)
A ∪ Ā = Ω et A ∩ Ā = ∅, donc P(A ∪ Ā) = P(A) + P(Ā)
(A3)
=⇒ P(Ω) = P(A)+P(Ā) =⇒ 1 = P(A)+P(Ā) =⇒ P(A) = 1−P(Ā).
7
1. Les Probabilités
Et
n n
X X 1
P(ωi ) = p = np =⇒ np = 1 =⇒ p = .
i=1 i=1
n
k
! k k
[ X X 1 k
P(A) = P ωti = P(ωti ) = = .
i=1 i=1 i=1
n n
Ainsi
card(A)
P(A) = .
card(Ω)
Suivant se raisonnement on obtient d’autres propriétés des probabilités.
8
1.3. Les Probabilités
Exemple 1 Dans une population, 45% des individus sont vaccinés contre
la fièvre jaune, 60% sont vaccinés contre la diphtérie et 30% sont vaccinés
contre les deux maladies.
Quelle est la probabilité, pour un individu choisi au hasard, de n’être vacciné
contre aucune de ces maladies ?
Pour traité cet exemple, nous allons d’abord nommé les événements et on a
F :“ L’individu est vacciné contre la fièvre jaune”.
D :“ L’individu est vacciné contre la diphtérie”.
Nous avons aussi
45 60 30
P(F ) = = 0.45, P(D) = = 0.6 et P(F ∩ D) = = 0, 3.
100 100 100
La question est de calculer P(F̄ ∩ D̄) donc
et on a
P(F̄ ∩ D̄) = 1 − [0.45 + 0.60 − .30] = 0.25.
La seconde propriété que nous allons voir est utilisé dans le cas ou nos
événements sont compatible et en plus nous connaissons la probabilité de
l’un des événements ainsi que la probabilité qu’ils se produisent au même
temps. Cette probabilité est dite probabilité conditionnelle. Elle est
donnée par
P(A ∩ B)
P(A|B) = , (1.4)
P(B)
9
1. Les Probabilités
et
P(F̄ ) = 1 − P(F ) = 1 − 0.56 = 0.44.
10
1.3. Les Probabilités
Propriétés
Généralisation
11
1. Les Probabilités
Formule de Bayes
n
X
P(B) = P(Ai ) × P(B|Ai ). (1.7)
i=1
P(B) =P (B ∩ Ω)
n
!!
[
=P B ∩ Ai
i=1
n
!
[
=P (B ∩ Ai )
i=1
n
X
= P (B ∩ Ai )
i=1
Xn
= P(Ai ) × P(B|Ai ).
i=1
12
1.3. Les Probabilités
13
1. Les Probabilités
14
1.3. Les Probabilités
Il faut savoir décortiqué se genre d’exemple pour pouvoir répondre aux ques-
tions. La première chose à faire est de désigné Ω ou bien calculer son car-
dinal sans la désigner. Ici Ω = {(O, A, B), . . .}, donc elle représente l’en-
semble des triplets du genre (O, A, B) et on voit bien que nous ne pouvons
l’écrire complètement. Il ne reste qu’a calculer son cardinal en utilisant
l’analyse combinatoire.
Remarquer que pour choisir les événement du genre (O, A, B), nous avons
pas précisé l’emplacement de chacun. Donc nous avons pas d’ordre, ce qui
revient à utiliser une combinaison et ainsi, on obtient que
3
card(Ω) = C18 = 816.
La deuxième étape est de nommer les événements que nous voulons utilisé.
Soient
— C :“Les trois flacons appartiennent au groupe O”.
— D :“Les trois flacons appartiennent au groupe A”.
— E :“ Les trois flacons appartiennent au groupe B”.
— F :“Les trois flacons appartiennent au groupe AB”.
a) Reste à calculer leurs probabilités. On a
card(C) C 31 165
P(C) = = 13 = .
card(Ω) C18 816
card(D) C3 4
P(D) = = 34 = .
card(Ω) C18 816
card(E) C3 0
P(E) = = 32 = = 0.
card(Ω) C18 816
card(F ) C3 0
P(F ) = = 31 = = 0.
card(Ω) C18 816
b) Les trois flacons appartiennent au même groupe,veut dire que les trois
W
flacons proviennent (du groupe O du groupe A). Ils ne peuvent provenir
du groupe B et AB du fait qu’il y a moins de trois flacons. Donc nous allons
calculer P(C ∪ E). On obtient P(C ∪ E) = P(C) + P(E) et cela du fait que
C et E sont deux événements incompatibles (C ∩ E) = ∅. Ainsi
165 4 169
P(C ∪ E) = P(C) + P(E) = + = .
816 816 816
15
1. Les Probabilités
Avec
card(R1 )
2
C41 × C(18−4) 364
P(R1 ) = = 3
= .
card(Ω) C18 816
card(R2 )
1
C42 × C(18−4) 6
P(R2 ) = = 3
= .
card(Ω) C18 816
card(R3 ) 4
P(R3 ) = = P(E) = .
card(Ω) 816
Au final, on obtient
364 6 4
P(R1 ∪ R2 ∪ R3 ) = + + .
816 816 816
d) H :“Les trois flacons appartiennent à 3 groupes différents”, équivaut
_ _ _
[O, A, B] [O, A, AB] [O, B, AB] [A, B, AB],
donc
C41 × C11 1 × C21 C41 × C11 1 × C11 C11 × C11 1 × C21 C41 × C21 × C11 162
P(H) = + + + = .
816 816 816 816 816
Les chapitres suivants représentent une ouverture vers les variables aléatoires
usuelles dans le cas discret et continu.
16
1.4. Exercices
1.4 Exercices
Exercice 1 Soient (Ω, A) un espace probabilisable, A, B deux événements
de A. Donner pour chaque assertion son écriture en symboles (∪, ∩, complémentaire).
1. A se réalise.
2. L’événement contraire de A se réalise.
3. A et B se réalisent.
4. A et B ne se réalisent pas.
5. A et le contraire de B se réalisent.
6. un seul événement des deux se réalise.
7. Au moins l’un des deux se réalise.
Exercice 3 Dans une population, 45% des individus sont vaccinés contre
la fièvre jaune, 60% sont vaccinés contre la diphtérie et 30% sont vaccinés
contre les deux maladies. Quelle est la probabilité, pour un individu choisi
au hasard, de n’être vacciné contre aucune de ces maladies ?
17
1. Les Probabilités
1. A et B indépendants.
2. A et B̄ indépendants.
3. Ā et B indépendants.
4. Ā et B̄ indépendants.
18
1.4. Exercices
19
2 Les variables aléatoires discrètes et leur
lois usuelles
Remarque 4
1. X −1 (] − ∞, x]) = {ω ∈ Ω| X(ω) ∈] − ∞, x]} = {ω ∈ Ω| X(ω) ≤ x}.
21
2. Les variables aléatoires discrètes et leur lois usuelles
22
2.2. Variable aléatoire discrète
23
2. Les variables aléatoires discrètes et leur lois usuelles
24
2.4. Les moments
25
2. Les variables aléatoires discrètes et leur lois usuelles
2. Aussi, pour a, b ∈ R, on a
E(aX + b) = aE(X) + b.
3. Pour a ∈ R, on a E(a) = a.
4. Le moment centré d’ordre k ∈ N∗ de la v. a. X est donné par
E((X − E(X))k ).
p
7. L’écart-type de X est donné par σX = Var(X).
26
2.5. Fonctions génératrices des moments
27
2. Les variables aléatoires discrètes et leur lois usuelles
La loi de probabilité
28
2.6. Quelques lois discrètes usuelles
La fonction de répartition
Les moments p = 1, 2
1. X = {0, 1},
29
2. Les variables aléatoires discrètes et leur lois usuelles
La loi de probabilité
Avec
(
0 si succès à la ieme épreuve avec une probabilité p
Xi = .
1 si échec à la ieme épreuve avec une probabilité 1 − p
Cette écriture simplifiera le calcul de l’espérance et la variance. Aussi pour
avoir la loi de la v. a. on doit comprendre que
— Il n’y a qu’un seul cas qui correspondant à 0 succès parmi n épreuves :
(Échec, Échec, . . . , Échec).
— Il n’y a qu’un seul cas qui correspondant à n succès parmi n épreuves :
(Succès, Succès, . . . , Succès).
— Il y a n cas qui correspondant à 1 succès parmi n épreuves : (Succès,
Échec, Échec, . . . , Échec) ou (Échec, Succès, Échec, . . . , Échec)
ou (Échec, Échec, Succès, . . . , Échec). . . (Échec, Échec, Échec, . . . ,
Succès).
— Il y a Cnk cas qui correspond à k succès et (n − k) échec parmi n
épreuves.
— La probabilité de l’événement qui correspond à k succès et (n − k)
échec parmi n épreuve est
30
2.6. Quelques lois discrètes usuelles
= pk (1 − p)(n−k) .
Donc, on obtient au final la loi de probabilité donné par
La fonction de répartition
Les moments p = 1, 2
n
X n!
= k pk (1 − p)(n−k)
k=0
k!(n − k)!
n
X (n − 1)!
= np p(k−1) (1 − p)(n−k) .
k=1
(k − 1)!(n − k)!
En utilisant le changement de variable suivant k 0 = k − 1 ⇔ k = k 0 + 1, on
obtient
n−1
X (n − 1)! 0 0
E(Sn ) = np 0 0
pk (1 − p)(n−k −1) .
k0 =0
k !(n − k − 1)!
31
2. Les variables aléatoires discrètes et leur lois usuelles
= np.
La deuxième méthode
n
! n
E linéaire
X X
E(Sn ) = E Xk = E(Xk ) = np.
| {z }
k=1 k=1 =p
n
X n!
= k2 pk (1 − p)(n−k) − (np)2 .
k=0
k!(n − k)!
De la même manière, on obtient
n−1
X (n − 1)! 0 0
Var(Sn ) = np (k 0 + 1) 0 0
pk (1 − p)(n−k −1) − (np)2
k0 =0
k !(n − k − 1)!
n−1
X (n − 1)! 0 0
= np pk (1 − p)(n−k −1)
k0 =0
k 0 !(n 0
− k − 1)!
| {z }
=1
n−1
X (n − 1)! 0 0
+np k0 pk (1 − p)(n−k −1) − (np)2
k0 =0
k 0 !(n − k 0 − 1)!
| {z }
=p(n−1)
32
2.6. Quelques lois discrètes usuelles
n
Var semi linéaire
X
= Var(Xk )
k=1
= np(1 − p).
En résumé Sn ' B(n, p) ⇔
1. k ∈ {0, 1, . . . , n},
2. P[Sn = k] = Cnk pk (1 − p)(n−k) , avec k = 0, 1, . . . , n,
3. E(Sn ) = np,
4. Var(Sn ) = np(1 − p).
La loi binomiale est utilisée que si les expériences sont non exhaustives,
c’est la loi du tirage avec remise et les événements considérés doivent être
indépendants.
33
2. Les variables aléatoires discrètes et leur lois usuelles
Cette loi est représentée par une fonction de répartition similaire à celle
de la loi binomiale avec les sauts pk . L’espérance est la même que celle de
la loi binomiale, à savoir E(X) = np. En revanche, la variance est un peu
inférieure puisqu’à chaque tirage on retire une observation de l’échantillon,
donc
N −n
Var(X) = np(1 − p).
N −1
1 − (1 − p)n
P[X ≤ n] = p = 1 − (1 − p)n .
1 − (1 − p)
34
2.6. Quelques lois discrètes usuelles
Donc, pour un nombre réel positif λ > 0. On dit que la variable aléatoire
X suit une loi de Poisson de paramètre λ, si X est une variable aléatoire
discrète prenant la valeur entière n avec la probabilité
exp−λ λn
P(X = n) = = pn ; si n = 0; 1; 2; . . . .
n!
La fonction de répartition F (n) est définie par
Γ ([n + 1], λ)
F (n) = P[X ≤ n] = , n ≥ 0,
[n]!
où Γ (x, y) est la fonction gamma incomplète et où [x] est la partie entière
de x.
L’espérance de cette variable est E(X) = λ et sa variance est Var(X) = λ.
On a
X X exp−λ λn
E(X) = nP[X = n] = n .
n≥0 n≥0
n!
35
2. Les variables aléatoires discrètes et leur lois usuelles
On sait que
X λn λ2 λ3
λ λ2
X λn
n = λ + 2 + 3 + ... = λ 1 + + + ... = λ = λ expλ .
n≥0
n! 2! 3! 1! 2! n≥0
n!
Aussi
−λ
λn λ2 λ3 λ2
2 exp λ
X
−λ −λ
n = exp λ + 2 + 3 + . . . = λ exp 1 + 2 + 3 + ...
n≥0
n! 1! 2! 1! 2!
λn
X n X n
−λ
X
−λ
λ λ = λ2 + λ.
= λ exp (n + 1) = λ exp n +
n≥0
n! n≥0 n! n≥0 |{z}
n!
| {z } =expλ
=λ expλ
Donc Var(X) = λ2 + λ − λ2 = λ.
36
2.7. Approximation entre variables aléatoires discrètes
M! (N −M )!
k!(M −k)! (n−k)!(N −M −n+k)!
= N!
n!(N −n)!
M
Comme p = N
reste constant pour N → +∞, on a ∀k = 0, . . . , n
1
= n(n − 1) . . . (n − k + 1)pk (1 − p)(n−k)
k!
nk
1 2 (k − 1) k
= 1− 1− ... 1 − p (1 − p)(n−k) .
k! n n n
37
2. Les variables aléatoires discrètes et leur lois usuelles
λ
Aussi, on a p = n
et n → ∞ ⇔ p → 0, donc
n
λk 1 − nλ
1 2 (k − 1)
P(X = k) = 1− 1− ... 1 − k .
k! n n n 1 − nλ
Comme n
λ
1− −→ exp−λ ,
n n→+∞
donc
exp−λ λk
P(X = k) −→ ,
n→+∞ k!
qui est la loi d’une v.a. r. de Poisson de paramètre λ = np.
En pratique, cette approximation s’applique dès que n > 50 et p < 0.10.
38
2.8. Exercices
2.8 Exercices
Exercice 10 Soient X une application de Ω dans R, A, B deux sous-
ensembles de R et Ai ⊂ R, ∀i ∈ I ⊂ N, alors
1. X −1 (∅) = ∅.
2. X −1 (R) = Ω.
3. X −1 (CR B) = CΩ X −1 (B).
4. X −1 (∩i∈I Ai) = ∩i∈I X −1 (Ai).
5. X −1 (∪i∈I Ai) = ∪i∈I X −1 (Ai).
Exercice 11 Soient (Ω, A, P) e.p., X une v.a.r. Soit PX définie sur (R, B(R))
par
∀A ∈ B(R); PX (A) = P[ω ∈ Ω : X(ω) ∈ A] = P[X −1 (A)].
L’application PX est une probabilité sur (R, B(R)).
où C est une constante positive. Déterminer C de sorte que pk soit une loi
de probabilités sur {1, . . . , 8}.
39
2. Les variables aléatoires discrètes et leur lois usuelles
E(aX + b) = aE(X) + b.
On pose U1 = X + Y et U2 = XY.
1. Déterminer les lois de U1 et de U2 .
2. Calculer E[U1 ], Var[U1 ], E[U2 ] et Var[U2 ].
Exercice 17
Soient X une v. a. r. et I ∈ R. En utilisant les définitions montrer ce qui
suit
1. La définition d’une v. a. P(X ∈ I) = E(1I (X)).
2. La fonction de répartition P(X ≤ x) = E(1]−∞, x] (X)).
3. La fonction poids P(X = k) = E(1X (k)).
Exercice 18
Soit X une v. a. à valeurs dans N. gX vérifie les propriétés suivantes
40
2.8. Exercices
41
2. Les variables aléatoires discrètes et leur lois usuelles
42
3 Variables aléatoires absolument
continues
Dans ce chapitre, les v.a.r continues sont abordés d’une manière très
explicite. La fonction de répartition ainsi que la densité avec les moments
sont exposés. Deux nouvelles fonctions sont introduites, celle qui génère les
moments et la caractéristique. Enfin, la présentation des lois de probabilité
absolument continues usuelles achèvera cette partie.
43
3. Variables aléatoires absolument continues
Définition 5 Densité
Une fonction f : R −→ [0; 1[, intégrable selon Riemann, s’appelle une den-
sité si Z
f (t)dt = 1.
R
44
3.2. Fonction de répartition
Preuve 1 1. Directement.
45
3. Variables aléatoires absolument continues
Rb Rb Ra
2. Des propriétés de l’intégrale on a a
fX (t)dt = −∞
f X (t)dt− f (t)dt =
−∞ X
FX (b) − FX (a).
?
3. ⇒) Supposons que P(X = a) = 0 et montrons que FX est continue
en a. Comme FX est continue à droite par définition, donc reste a
démontrer la continuité à gauche. On a
lim FX (x) = lim P(X ≤ x) = P(X ≤ a−) = P(X ≤ a−)+P(X = a) = P(X ≤ a).
< <
x → a x → a | {z }
=0
?
⇐) Supposons que FX converge à gauche et on démontre que P(X =
a) = 0. D’après la continuité de FX en a,
et comme
lim FX (x) = P(X ≤ a−).
<
x → a
Donc
Comme dans le cas discret, les moments d’ordre un et deux serons in-
troduit dans la suite.
46
3.3. Les moments
2. Aussi, pour a, b ∈ R, on a
E(aX + b) = aE(X) + b.
3. Pour a ∈ R, on a E(a) = a.
4. Le moment centré d’ordre k ∈ N∗ de la v. a. r. continue X est donné
par
E((X − E(X))k ).
47
3. Variables aléatoires absolument continues
E[X]
P(X ≥ a) ≤ .
a
Preuve 2 On a
Z Z Z
E[X] = xdPX (x) = xdPX (x) + xdPX (x).
R+ [0;a[ [a;+∞[
D’où
Z Z
E[X] ≥ xdPX (x) ≥ a dPX (x) = P(X ≥ a).
[a;+∞[ [a;+∞[
Var[X]
P(|X − E[X]| > a) ≤ .
a2
ϕX (t) = E(eitX ), ∀t ∈ R.
48
3.4. Fonction caractéristique
On a ∀t ∈ R,
∞
X ∞
X
itxj
|ϕX (t)| ≤ |e |P[X = xj ] = P[X = xj ] = 1. (3.1)
j=1 j=1
Aussi, on a ∀t ∈ R
Z +∞ Z +∞
itx
|ϕX (t)| ≤ |e |fX (x)dx = fX (x)dx = 1. (3.2)
−∞ −∞
49
3. Variables aléatoires absolument continues
Preuve 4 1. Cette propriété est bien démontrer par les relations (3.1)
et (3.2).
2. ϕX (0) = E(ei0X ) = E(1) = 1.
3. ϕX (−t) = E(e−itX ) = ϕX (t).
4. ϕaX+b (t) = E(eit(aX+b) ) = E(eitb eit(aX) ) = eitb ϕX (at).
5. La continuité de cette fonction est un résultat directe de la continuité
des fonctions somme et intégrale.
Pn Q
n
6. ϕSn (t) = E eitSn = E eit j=1 Xj = E
itXj
j=1 e
n n
indépendance
Y Y
= E eitXj = ϕXj (t).
j=1 j=1
50
3.5. Lois de probabilités absolument continues usuelles
(k)
ϕX (t) = E (iX)k eitX .
En particulier, pour t = 0,
(k)
ϕX (0) = E(ik X k e0 ) = ik E(X k ).
Dans certains cas où les calculs directs sont complexes, cette proposition
permet d’obtenir rapidement E(X) et E(X 2 ) par
Dans ce qui suit, on présente les lois de probabilités continues les plus
utiliser dans la pratique. Ainsi que leur fonctions de répartition et les deux
moments.
a+b (b − a)2
E(X) = et Var(X) = .
2 12
Sa fonction de répartition est
0
si x ≤ a
x−a
FX (x) = b−a
si a ≤ x ≤ b .
1 si x > b
51
3. Variables aléatoires absolument continues
(
0 si x < 0
FX (x) = .
1 − λe[−λx] si x ≥ 0
52
3.5. Lois de probabilités absolument continues usuelles
variance de X sont
a a
E(X) = et Var(X) = 2 .
λ λ
La fonction de répartition n’est pas facile à calculer mes par simulation sa
représentation graphique est donnée par la figure (3.6).
Lorsque a = 1, on constate que la loi Γ(a; λ) est la loi exponentielle de
paramètre λ.
53
3. Variables aléatoires absolument continues
par (
xα−1
B(α, β)
(1 − x)β−1 si x ∈]0, 1[
fX (x) = .
0 sinon
Cette mesure est identifiée par la notation Beta (α, β). (Voir figure (3.7)).
Le facteur de normalisation B(α, β) apparaissant dans la formule précédente
est la valeur en a et b de la fonction B d’Euler est donnée par
Z 1
Γ(α)Γ(β)
B(α, β) = xα−1 (1 − x)β−1 dx = .
0 Γ(α + β)
Sa fonction de répartition de cette loi est donnée par
Beta(α, β)
FX (x) = .
B(α, β)
54
3.5. Lois de probabilités absolument continues usuelles
55
3. Variables aléatoires absolument continues
1 2 +∞
h i R +∞ 1 2
car −σe− 2 t = 0 et √1
2π −∞
e− 2 t dt = 1, d’où
−∞
E (X) = µ.
E (X − E (X))2 = E (X − µ)2
Var (X) =
Z +∞ Z +∞
1 1 x−µ 2
= 2
(x − µ) f (x) dx = √ (x − µ)2 e− 2 ( σ ) dx
−∞ σ 2π −∞
2 Z +∞ 2
σ x−µ 1 x−µ 2
= √ e− 2 ( σ ) dx
σ 2π −∞ σ
2 Z +∞
y= x−µ σ 1 2
=σ
√ y 2 e− 2 y σdy .
σ 2π −∞
| {z }
intégration par partie
56
3.5. Lois de probabilités absolument continues usuelles
F : R −→ [0, 1]
Z x
x −→ FX (x) = fX (t) dt.
−∞
Cette fonction est très difficile à calculer, donc il est judicieux de trouver
une autre méthode pour la calculer. Aussi avant dont parler on introduit la
partie si dessous.
On dit que la variable aléatoire Z suit une loi normale centrée réduite
(standard) si sa densité de probabilité a pour expression
1 1 2
fZ (z) = √ e− 2 z , ∀z ∈ R.
2π
57
3. Variables aléatoires absolument continues
1
h i+∞ Z +∞
1
Z +∞
− 21 z 2 − 12 z 2 1 2
2
e− 2 z dz = 1,
E Z =√ −z e + e dz = √
2π −∞ −∞ 2π −∞
1 2 +∞
h i R +∞ 1 2
puisque −z e− 2 z = 0 et √12π −∞ e− 2 z dz = 1. Donc Var (Z) = 1.
−∞
La fonction de répartition de la v.a Z définie par
Z t
1 1 2
FZ (t) = P (Z ≤ t) = √ e− 2 z dz,
2π −∞
admet des propriétés assez pratique cité si dessous.
Propriété 5 1. FZ (0) = 12 .
2. ∀t ∈ R, FZ (t) + FZ (−t) = 1 =⇒ FZ (−t) = 1 − FZ (t) .
3. ∀t ∈ R, FZ (t) − FZ (−t) = 2FZ (t) − 1.
4. P (Z ≤ −t) = P (Z > t) de la symétrie de fZ .
58
3.5. Lois de probabilités absolument continues usuelles
X−µ
Remarque 8 Si la v.a X ' N (µ, σ 2 ) alors la v.a Z = σ
suit la loi
normale centrée réduite (Z ' N (0, 1)) .
FX (a) = P (X ≤ a)
X −µ a−µ
= P ≤
σ σ
a−µ a−µ
= P Z≤ = FZ où Z ' N (0, 1) .
σ σ
X−3 0−3
Z'N (0,1)
2. P (X > 0) = P 3
> 3
= P (Z > −1)
59
3. Variables aléatoires absolument continues
60
3.5. Lois de probabilités absolument continues usuelles
d y−b 1 y−b
fY (y) = 1 − FZ = − fZ
dy a a a
1 1 − 12 ( y−b 2
a ) .
= − √ e
a 2π
Donc pour a 6= 0 on obtient
1 1 y−b 2
fY (y) = √ e− 2 ( a ) , ∀y ∈ R
|a| 2π
=⇒ Y ' N b, a2 .
y−b y−b y−b
FY (y) = P X ≥ = 1−P X < = 1−FX
a a a
d y−b 1 y−b
fY (y) = 1 − FX = − fX
dy a a a
y−b
2
a −m
1 − 12 1 1 y−b−aµ 2
= − √ e σ
=− √ e− 2 ( a σ ).
a σ 2π a σ 2π
61
3. Variables aléatoires absolument continues
En résumé, on a pour a 6= 0
1 1 y−(b+aµ) 2
fY (y) = √ e− 2 ( a σ )
|a| σ 2π
=⇒ Y ' N aµ + b, a2 σ 2 .
Par ailleurs
E (Y ) = E (aX + b) = aE (X) + b = a µ + b
La loi du χ2 est une loi très classique en statistique. Elle est lié au test
du χ2 qui permet, par exemple, de savoir si un échantillon donné est en
adéquation avec une loi de probabilité définie a priori. Ou bien dans le
cadre de la comparaison de proportions ou le test d’indépendance de deux
caractères qualitatifs.
Soient X1 , X2 , . . . , Xn , n v. a. normales centrées réduites indépendantes.
On appelle χ2 la v. a. définie par
Xn
2
χn = Xi2 .
i=1
On dit que que χ2n suit une loi de Pearson à n degrés de liberté noté (n d.
d. l.). Sa fonction de densité est donnée par
x2
( n
C(n)x 2 −1 e− 2 si x ∈ R∗
fX (x) = ,
0 sinon
avec C(1) = √12π . L’espérance de la v. a. du χ2n est E(X) = n et de variance
Var(X) = 2n.
Il existe une table de la loi du χ2 qui englobe les valeurs de la fonction de
répartition, les valeurs de n et le seuil α.
D’après la figure (3.5.6), on remarque que cette loi est dissymétrique et
tend à devenir symétrique pour n assez grand et aussi se rapproche de la
répartition normale lorsque n > 30.
62
3.5. Lois de probabilités absolument continues usuelles
Loi Student
Soient X une v.a normale standard (X ' N (0; 1)) et Y une v.a indépendantes
de X ayant la loi de khi-deux à n degrés de liberté (Y ' χ2n ). La v.a T définie
par
X
T =q ,
Y
n
Loi Fisher
63
3. Variables aléatoires absolument continues
64
3.6. Approximation par une loi normale
Soit X une v.a telle que X ' B (n, p) ; alors pour tout a < b (a, b ∈ R)
on peut écrire
!
X − np
P a≤ p ≤b −→ FZ (b) − FZ (a) .
np (1 − p) n−→+∞
En règle générale, cette approximation est tout à fait satisfaisante dès que
n p (1 − p) > 10.
20 40−20
20 1 1
P (X = 20) = C40 = 0.1254( la valeur exacte ).
2 2
On recalcule cette probabilité par approximation normale
19.5 − 20 X − 20 20.5 − 20
P (X = 20) = P (19.5 < X < 20.5) = P √ < √ < √
10 10 10
X − 20
= P −0.16 < √ < 0.16 = FZ (0.16) − FZ (−0.16) .
10
X−20
Comme Z = √
10
' N (0, 1), on a
65
3. Variables aléatoires absolument continues
λ > 15.
Soit FX la fonction de répartition de la N (λ, λ), et FZ la fonction de
répartition de la loi normale standard N (0, 1) on a
x−λ
FX (x) = FZ √ .
λ
P(X = k) ' P(k − 0.5 ≤ X ≤ k + 0.5) = FX (k + 0.5) − FX (k − 0.5)
k + 0.5 − λ k − 0.5 − λ
= FZ √ − FZ √ ,
λ λ
de même, pour que
X+∞
P(X = k) = 1,
k=0
x−λ
on a P(X = 0) ' FZ √
λ
.
66
3.7. Exercices
3.7 Exercices
Exercice 24 Soit X une variable aléatoire suivant une loi U([a, b]). pour
k ∈ N, calculer E[X k ].
Exercice 26 Soit X une variable aléatoire réelle de loi uniforme sur l’in-
tervalle [0, 4]. On définit la variable aléatoire Y par Y = X 2 − 4X + 3.
1. Déterminer fY la densité de la loi de Y.
2. Montrer qu’on a P(Y ≤ 0) = P(Y ≥ 0).
3. Pour θ ∈ R, on définit la variable aléatoire Z par
(
θ si ; Y ≤ 0
Z= .
Y sinon
67
4 Vecteurs aléatoires
69
4. Vecteurs aléatoires
X
∀j ∈ N∗ ; PY [{yj }] = P(X = xi , Y = yj ).
i∈N∗
Preuve 7 On a ∀i ∈ N∗
70
4.1. Définitions et propriétés
X↓\Y → 0 1 2 3 loi de X ↓
2 1 2 5
0 21 21 21
0 21
3 2 1 6
1 0 21 21 21 21
2 1 3 4 10
2 21 21 21 21 21
4 5 7 5 21
loi de Y → 21 21 21 21 21
=1
X 0 1 2 somme
5 6 10 21
P[X = xi ] 21 21 21 21
=1
Y 0 1 2 3 somme
4 5 7 5 21
P[Y = yj ] 21 21 21 21 21
=1
On a obtenu
4
X
P[X = 2] = P[X = 2, Y = yj ]
j=1
10
= P[X = 2, Y = 0]+P[X = 2, Y = 1]+P[X = 2, Y = 2]+P[X = 2, Y = 3] = .
21
Comme dans le cas de v. a., il existe des vecteurs aléatoires de loi usuelle.
Par exemple, la loi hypergéométrique multiple et la loi multinomiale.
1. La loi hypergéométrique multiple
Une urne contient n ≥ 2 couleurs différentes et on considère N1 de
la première couleur,..., Nn de la nième couleur. On tire d boules de
cette urne et on note Xi le nombre de boules de couleur i tirées.
Pn
Donc Xi ' H(Ni , N − Ni , d) et N = i=1 Ni . Pour tout n-uplet
n
Pn
(x1 , . . . , xn ) ∈ N tel que i=1 xi = d et xi ≤ Ni , on a
2. La loi multinomiale
Ni
Dans le même contexte, si ∀i = 1, . . . , n : −→
N N →∞
pi , alors la loi
i
71
4. Vecteurs aléatoires
d!
P[X1 = x1 , . . . , Xn = xn ] = px1 . . . pxnn .
x1 ! . . . xn ! 1
72
4.2. La fonction de répartition
Solution
1. Pour que f(X, Y ) soit une densité il faut que
— f(X, Y ) ≥ 0 ⇒ α ≥ 0.
R R1 R2
— R2 f(X, Y ) (x, y) = α 0 −1 dy dx = 1
Z 2 Z 1
⇒α dy dx = 1
−1 0
1
⇒ α(y |2−1 )(x |10 ) = α(3)(1) = 1 ⇒ α = .
3
1
Donc f(X, Y ) = 3 1[0, 1]×[−1, 2] (x, y).
2. Densité de X
Z Z 2
1 1
fX (x) = f(X, Y ) (x, y)dy = 1[0, 1] (x) dy = 1[0, 1] (x)(3) = 1[0, 1] (x).
R 3 −1 3
Densité de Y
Z Z 1
1 1 1
fY (y) = f(X, Y ) (x, y)dx = 1[−1, 2] (y) dx = 1[−1, 2] (y)(1) = 1[−1, 2] (y).
R 3 0 3 3
73
4. Vecteurs aléatoires
74
4.3. Les moments
∂ 2 F(X, Y ) (x, y)
f(X, Y ) (x, y) =
∂x∂y
∂ 2 −αx−βy
= e − e−αx − e−βy + 1
∂x∂y
∂2
= −αe−αx−βy + αe−αx
∂y
= αβe−αx−βy .
Donc (
αβe−αx−βy si x, y > 0
f(X, Y ) (x, y) = .
0 sinon
75
4. Vecteurs aléatoires
E(Y ) = AE(X) + B.
Cov(Xi , Xj )
ρ(Xi , Xj ) = p p ∈ [−1, 1].
Var(Xi) Var(Xj)
Σi;j = Cov(Xi ; Xj ).
76
4.4. Loi conditionnelle et indépendance
!
Var(X) Cov(X; Y )
= ,
Cov(X; Y ) Var(Y )
ses termes diagonaux sont les variances des composantes du couple.
Remarque 9
P[X = xi , Y = yj ] pij
P[X = xi |Y = yj ] = = .
P[Y = yj ] pj
77
4. Vecteurs aléatoires
78
4.4. Loi conditionnelle et indépendance
P(X ∈ I, Y ∈ J) = P (X ∈ I) × P (Y ∈ J).
2. Si (X; Y ) continu, on a
E(XY ) = E(X)E(Y ).
Cov(X, Y ) = 0,
79
4. Vecteurs aléatoires
Cas discret
FY (y) = P (ϕ(X) ∈] − ∞; y1 ] × · · · ×] − ∞; yp ])
Z
= 1ϕ(x)∈]−∞;y1 ]×···×]−∞;yp ] dPX (x1 ; . . . ; xn ).
∂FY
fY (y) = (y1 , . . . , yp ).
∂y1 . . . ∂yp
80
4.5. Calcul de loi
et Z Z
f (x)dλ(x) = f (ϕ−1 (y))|det(J ϕ−1 (y) )|dλ(y),
U V
∂ϕ1 ∂ϕ1
∂x1
(x) ··· ∂x1
(x)
.. .. ..
Jϕ(x) = . .
. .
∂ϕn ∂ϕn
∂xn
(x) · · · ∂xn
(x)
fY (y) = 1U (ϕ−1 (y))|det(Jϕ−1 (y) )|1V (y) = 10<y1 −y2 <1 10<y2 <1 .
81
4. Vecteurs aléatoires
Par identification, une telle fonction g est une densité de Y. Cette fonction
s’obtient généralement par un changement de variable.
f ∗ g = g ∗ f et (f ∗ g) ∗ h = f ∗ (g ∗ h)λ − pp.
82
4.6. Vecteur Gaussien
Les lois marginales des v.a X et Y sont données par la densité de la normale
comme suit
(x − µX )2
1
fX (x) = p exp − ,
2πVar(X) 2Var(X)
et
(y − µY )2
1
fY (y) = p exp − .
2πVar(Y ) 2Var(Y )
83
4. Vecteurs aléatoires
FY (u) = P(Y ≤ u)
1
P(Z = 0) = P((1 + ε)X = 0) = P(ε = −1) = .
2
Or si Z est une v.a.r. gaussienne on a P(Z = 0) = 0 (ou 1 dans le cas
d’une v.a.r. centrée dégénérée).
84
4.6. Vecteur Gaussien
Proposition 19 (Densité)
Soit X = (X1 , . . . , Xn ) ' N (µX , ΣX ), X admet une densité fX si et
seulement si det(ΣX ) 6= 0. On a alors
1 1 0 −1
fX (x) = √ p exp (x − µX ) ΣX (x − µX ) ,
( 2π)n det(ΣX ) 2
où x = (x1 ; . . . ; xn ).
85
4. Vecteurs aléatoires
fX (x) = fY Σ−1
X (x − µX )|detJϕ(x) | .
−1/2
ϕ étant une application affine, sa matrice jacobienne vaut ΣX , d’où le
résultat.
ϕ(T ) = ϕX (T ) = E(ei<T,X> ), ∀T ∈ R2 ,
< T, X >= t1 X1 + t2 X2 .
86
4.7. Fonction caractéristique d’un couple
∂ϕ ∂ϕ
E(X1 ) = −i (0, 0) et E(X2 ) = −i (0, 0).
∂t1 ∂t2
2. Si X1 et X2 admettent un moment d’ordre 2, alors les dérivées par-
tielles d’ordre 2 de ϕ existent et
∂ 2ϕ ∂ 2ϕ ∂ 2ϕ
E(X1 X2 ) = −i (0, 0); E(X12 ) = −i 2 (0, 0); E(X22 ) = −i 2 (0, 0).
∂t1 ∂t2 ∂t1 ∂t2
Proposition 23
Soit X = (X1 , X2 ) un couple de variables aléatoires de fonction caractéristique
ϕ. Les variables X1 et X2 sont indépendantes si et seulement si, pour tout
T ∈ R2 ,
ϕ(T ) = ϕX1 (t1 )ϕX2 (t2 ).
87
4. Vecteurs aléatoires
Alors : Z
exp [i(t1 x1 + t2 x2 )] fX (x1 , x2 )dx1 dx2
R2
Z Z
= exp[it1 X1 ]fX1 (x1 )dx1 exp[it2 x2 ]fX2 (x2 )dx2
R R
Z
= exp[i(t1 x1 + t2 x2 )]fX1 (x1 )fX2 (x2 )dx1 dx2 .
R2
Donc X a la même fonction caractéristique que le couple de loi
fX1 fX2 , et puisque la fonction caractéristique caractérise la loi, la
densité du couple est le produit des densités marginales, et donc X1
et X2 sont indépendantes.
88
4.8. Exercices
4.8 Exercices
Exercice 29 Un poisson pond des œufs au fond du torrent. Leur nombre
N suit une loi de Poisson de paramètre λ > 0. Chaque œuf survit avec une
probabilité p ∈]0, 1[, indépendamment des autres.
1. Soit M le nombre d’œufs qui survivent. Donner la loi conjointe du
couple (N, M ). Donner la loi marginale et l’espérance de M.
2. M et N − M sont-elles indépendantes ?
Exercice 32 Soit X une variable aléatoire réelle de loi uniforme sur [0, 1].
1. Déterminer la loi de U = sup{X, 1 − X}.
2. Déterminer la loi de V = inf{X, 1 − X}.
89
4. Vecteurs aléatoires
2. X suit la loi uniforme sur [0, 1] et Y suit la loi uniforme sur [−3, 2].
Exercice 34 Soit U une variable aléatoire réelle de loi uniforme sur l’in-
tervalle [0, 1]. On définit la variable aléatoire X par
q
1−U
U
si ; U ≤ 21
X= q .
U
1−U
si ; 21 < x ≤ 1
90
5 Convergence en loi
Preuve 10
Pn
it Xj
ϕSn (t) = ϕX1 +···+Xn (t) = E exp j=1
91
5. Convergence en loi
Pn
= E exp j=1 itXj
n
!
Y
=E expitXj .
j=1
X + Y ' P(λ + λ0 ).
92
5.2. Convergence en loi
Z Z
itx
= fX (x)e dx fY (v)eitv dv.
R R
Remarquer que lorsque Fn converge vers une fonction F, il faut vérifier que
F est bien une fonction de répartition. Ce n’est pas forcément le cas.
Par contre, la condition suivante permet de définir la convergence en
loi pour les variables aléatoires à valeurs dans un espace métrique quel-
conque composé avec une fonction continue bornée. En général, dans les
espaces métriques, on prend donc la relation qui suit pour définition de la
convergence en loi.
h i
L
Théorème 12 La convergence en loi Xn → X est équivalente à avoir
pour toute fonction g : R → R continue bornée.
93
5. Convergence en loi
94
5.2. Convergence en loi
X n −µ
grand, la loi de Z = √σ
peut être approchée par la loi normale standard
n
N (0, 1). C’est-à-dire
!
Xn − µ
P ≤x ' P (Z ≤ x) .
√σ
n
t2
ϕY (t) = 1 − + o(t2 ), t → 0.
2
Si Y vaut Xiσ−µ , il est facile de voir que la moyenne centrée réduite des
observations X1 , . . . , Xn est simplement
n
Xn − µ 1 X
Zn = =√ Yi .
√σ n i=1
n
n 2 n
t2
t t 2
ϕY √ = 1− +o −→ e−t /2 , lorsque n → ∞.
n 2n n
95
5. Convergence en loi
5.3 Exercices
Exercice 38 On considère deux suites de v.a. réelles (Xn )n≥1 et (Yn )n≥1 .
Donner un exemple dans lequel (Xn ) converge en loi vers une v.a. X, (Yn )
converge en loi vers une v.a. Y, mais (Xn + Yn ) ne converge pas en loi.
(Indication : Xn = X de loi N (0, 1), et Yn = (−1)n X).
Exercice 39 Soit (Xn )n≥1 une suite de variables aléatoires réelles définies
sur un espace (Ω, A, P), et f une application continue de R dans R. Montrer
que si Xn converge en loi vers X, alors f (Xn ) converge en loi vers f (X).
Exercice 40 Soit (Yn )n≥1 une suite de variables aléatoires. On suppose que
E[Yn ] → 1 et que E[(Yn )2 ] → 1. Montrer que Yn converge en loi vers 1.
X0 X1 + Y0 X2 + Y1 Xn + Yn−1
Y0 = , Y1 = , Y2= , . . . , Yn = .
2 2 2 2
1. . Calculer la fonction caractéristique ϕn de Yn en fonction de ϕ, la
fonction caractéristique de X1 , et de n.
2. On suppose que la loi commune aux variables Xn est la loi normale
centrée N (0, σ 2 ). Quelle est la loi de Yn ? Quelle est la loi limite de
(Yn ) lorsque n tend vers l’infini ?
3. Si les variables Xn suivent la loi de Cauchy de densité [π(1+x2 )]−1 , x ∈
R, montrer que (Yn ) converge en loi lorsque n tend vers l’infini. Préciser
la limite.
Indication : la fonction caractéristique de la loi de Cauchy est donnée par
ϕ(t) = e−|t| .
96