Chapitre 4-Vecteur Aléatoire - Toufik Chaayra
Chapitre 4-Vecteur Aléatoire - Toufik Chaayra
Chapitre 4-Vecteur Aléatoire - Toufik Chaayra
Toufik Chaayra
Département : Mathématiques
Filière : SMA - S6
Module : M33
Année universitaire : 2021/2022
12 Mai, 2022
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 1 / 34
Variable aléatoire vectorielle
Définition
Soit (Ω, F) un espace mesurable. Une application X : Ω → Rd est dite
variable
aléatoire
vectorielle si X est mesurable de (Ω, F) dans
Rd , B Rd .
Remarque
Soient X1 , X2 , . . . , Xd des variables aléatoires : Xi : Ω → R alors
X = (X ., Xd ) est une variable aléatoire vectorielle de (Ω, F)
1 , X2, . . .
dans Rd , B Rd appelé vecteur aléatoire.
Remarque
Si X est un vecteur aléatoire à valeurs dans Rd
Z
P (X ∈ A) = E (1A (X)) = 1A (X(ω))dP (ω)
Z Ω
PX (] − ∞, x1 ] × . . . ×] − ∞, xd ]) = P (X1 ≤ x1 , . . . , Xd ≤ xd )
1
ϕ (X1 , . . . , Xd ) ∈ L (Ω, A, P ) si et
Si ϕ est à valeurs quelconques,
seulement si ϕ ∈ L1 Rd , B Rd , P(X1 ,...,Xd ) .
Dans ce cas, l’égalité précédente a lieu.
Proposition
La loi marginale PXi s’obtient par la formule : Pour tout A ∈ B(R),
Z
PXi (A) = 1A (xi ) dP(X1 ,X2 ,...,Xd ) (x1 , . . . , xd )
Preuve :
Il suffit de remarquer que pour tout A ∈ B(R)
Définition
Un vecteur aléatoire (X1 , X2 , . . . , Xd ) sur l’espace probabilisé
(Ω, F, P ), à valeurs dans Rd , est dit discret si elle existe des parties
Di ⊂ R, 1 ≤ i ≤ d au plus dénombrable telle que
X
P(X1 ,X2 ,...,Xd ) = p(x1 ,...,xd ) δ(x1 ,...,xd )
(x1 ,...,xd )∈D1 ×...×Dd
où X
p(x1 ,...,xd ) = 1 et p(x1 ,...,xd ) > 0
(x1 ,...,xd )∈D1 ×...×Dd
en particulier
X
PXi = p(x1 ,...,xd ) δxi
(x1 ,...,xd )∈D1 ×...×Dd
Exemple
Supposons que X = (X1 , X2 ) suit de loi discrète dans R2 concentrée en
les points (−1, 0), (0, 1), (0, −1), (1, 0) tous de probabilité 1/4.
Autrement dit,
1 1 1 1
PX = δ(−1,0) + δ(0,1) + δ(0,−1) + δ(1,0)
4 4 4 4
Les lois marginales PX1 et PX2 de PX sont égales, et données par
1 1 1
PX1 = PX2 = δ−1 + δ0 + δ1 .
4 2 4
On pourra noter que l’on obtient les lois marginales PX1 et PX2 en
sommant les probabilités respectivement sur les lignes et les colonnes
de la table.
Remarque
Si (X1 , X2 , . . . , Xd ) est un vecteur aléatoire discret alors les espérances
sont caractérisées par : si ϕ est positive ou intégrable alors pour k ≤ d
et i1 < i2 < . . . < ik
X
E (ϕ (Xi1 , Xi2 , . . . , Xik )) = p(x1 ,..,xd ) ϕ (xi1 , xi2 , . . . , xik )
(x1 ,...,xd )∈D1 ×...×Dd
en particulier
X
E (ϕ (Xi )) = p(x1 ,...,xd ) ϕ (xi )
(x1 ,...,xd )∈D1 ×...×Dd
Définition
Soit une variable aléatoire X sur l’espace probabilisé(Ω,F, P ), à
valeurs dans Rd muni de la tribu borélienne réelle B Rd .
La loi de la variable aléatoire X, PX , est dite absolument continue si
elle est absolument continue par rapport à la mesure de Lebesgue sur
Rd , dλRd = dx1 . . . dxd , i.e
PX << λRd
Théorème (Radon-Nikodym)
Si la loi de la variable aléatoire X, PX , est absolument continue par
rapport à la mesure de Lebesgue sur Rd , alors il existe une fonction
intégrable f : Rd −→ R+ , appelée densité, telle que
Z +∞ Z +∞
··· f (x1 , . . . , xn ) dx1 . . . dxd = 1
−∞ −∞
et
P (X1 ≤ x1 , . . . , Xd ≤ xd ) = PX (] − ∞, x1 ] × . . . ×] − ∞, xd ])
Z x1 Z xd
= ... f (x1 , . . . , xn ) dx1 . . . dxd
−∞ −∞
Proposition
Soient k ≤ d et i1 < i2 < . . . < ik . La densité marginale du vecteur
(Xi1 , Xi2 , . . . , Xik ) notée f(Xi ,Xi ,...,Xi ) s’obtient par la formule :
1 2 k
∀ (xi1 , . . . , xik ) ∈ Rk
Remarque
Un vecteur aléatoire X = (X1 , X2 , · · · , Xd ) est dit gaussien lorsque
toute combinaison linéaire a1 X1 + · · · + ad Xd de ses composantes Xi
suit une même loi normale N (µ, σ).
1 x2 +...+x2
Z
− 1 d Y
= e 2 dxi
(2π)d/2 Rd−k i∈{i
/ 1 ,i2 ,...,ik }
x2 +x2 +...+x2
!
1 i
− 1
i2 ik 1
= k e
2
d−k
(2π) 2 (2π) 2
X
x2i
Z i∈{i
/ 1 ,i2 ,...,ik }
−
Y
× e 2 dxi
Rd−k
i∈{i
/ 1 ,i2 ,...,ik }
!d−k
x2 +x2 +···+x2
!
1 1 2
i i2 ik
Z
− 1 − x2
= k e e dx
2
1
(2π) 2 (2π) 2 R
x2 +x2 +···+x2
1 i
− 1
i2 ik
= k e 2 .
(2π) 2
Définition
Soient X1 , X2 , . . . , Xd des variables aléatoires : Xi : Ω → R. On appelle
fonction de répartition de X = (X1 , X2 , . . . .Xd ), ou de la loi de X, la
fonction définie pour t = (t1 , . . . , td ) ∈ Rd par
Proposition
Soient k ≤ d et i1 < i2 < . . . < ik .
La fonction de répartition marginale du vecteur (Xi1 , Xi2 , . . . , Xik ),
notée F(Xi ,Xi ,...,Xi ) s’obtient par la formule :
1 2 k
∀ (ti1 , . . . , tik ) ∈ Rk
et
Z t2 Z +∞ Z +∞
FY (t2 ) = f (x, y)dxdy, fY (y) = f (x, y)dx
−∞ −∞ −∞
Théorème
Soit X un vecteur aléatoire à valeurs dans Rd de densité fX et soit g :
Rd −→ Rd un difféomorphisme de Rd (bijection continûment
différentiable ainsi que son inverse).
Alors Y = g(X) est une variable aléatoire à valeurs dans Rd qui admet
pour densité la fonction
−1
fY (y) = fX g (y) Jac g −1 (y) ; y ∈ Rd
où
g −1 (y)
!
d
Jac g −1 (y) = det i
, 1 ≤ i, j ≤ d
dyj
est le jacobien de g −1 .
Preuve :
Il suffit d’écrire
FY (y1 , . . . , yd ) = P ((g(X))1 ≤ y1 , . . . , (g(X))d ≤ yd )
Z
= fX (x1 , . . . , xd ) dx1 . . . dxd
g −1 (]−∞,y 1 ]×...×]−∞,yd ])
Nous avons également une méthode assez générale, valable même dans
le cas où g n’est pas difféomorphisme, pour déterminer la loi d’une
transformée d’un vecteur aléatoire, basée sur la caractérisation
suivante.
Théorème
Soit Y un vecteur aléatoire à valeurs dans Rd .
Pour que sa loi PY , absolument continue, soit de densité fY il faut et il
suffit que pour toute fonction borélienne bornée ϕ : Rd → R telle que
ϕ(Y ) soit intégrable ou positive, on ait :
Z
E(ϕ(Y )) = ϕ(y)f (y)dx
Rd
Définition
Soient X1 , X2 , . . . , Xd des variables aléatoire sur un espace probabilisé :
Xi : Ω → R positives ou de carré intégrable.
L’espérance du vecteur X = (X1 , X2 , . . . , Xd ) est le vecteur
et X
E (Xi Xj ) = xi xj p(x1 ,...,xd )
(x1 ,...,xd )∈D1 ×...×Dd
V (X2 ) =E X22
=(0)2 × p(−1,0) + 12 × p(0,1) + (−1)2 × p(0,−1) + 02 × p(1,0)
1 1 1
= + =
4 4 2
Exemple
Considèrons le vecteur aléatoire gaussien X = (X1 , X2 , . . . , Xd ) dont la
densité par rapport à la mesure de Lebesgue sur Rd est donnée par
2 2
1 x +...+x
− 1 2 d
fX (x1 , . . . , xd ) = e
(2π)d/2
alors
1 x2 2
1 +...+xd
Z
−
E (Xi ) = xi e 2 dx1 . . . dxd
(2π)d/2 Rd
Z +∞ ! Z +∞ !d−1
1 − x2
2 1 − x2
2
= 1 xe dx 1 e dx
(2π) 2 −∞ (2π) 2 −∞
=0
1 x2 +...+x2
Z
− 1 d
V (Xi ) = x2i e 2 dx1 . . . dxd
(2π)d/2 Rd
Z +∞ ! Z +∞ !d−1
1 − x2
2 1 − x2
2
= 1 x2 e dx 1 e dx
(2π) 2 −∞ (2π) 2 −∞
= 1,
et pour i ̸= j,
1 x2 +...+x2
Z
− 1 d
Cov (Xi , Xj ) = xi xj e 2 dx1 . . . dxd
(2π)d/2 Rd
Z +∞ !2 Z +∞ !d−2
1 − x2
2 1 − x2
2
= 1 xe dx 1 e dx
(2π) 2 −∞ (2π) 2 −∞
= 0.
n!
P (X1 = n1 , . . . , Xm = nm ) = pn1 1 . . . pnmm
n1 ! . . . nm !
Proposition
Soit X ∼ B (n, p1 , . . . , pm ) alors chacune des variables reste une
variable binomiale et on a
E (Xi ) = npi V (Xi ) = npi (1 − pi )
Cov (Xi , Xj ) = −npi pj
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 33 / 34
Loi normale multidimensionnelle X ∼ N (µ, Σ)
Définition
Soit X = (X1 , X2 , . . . , Xd ) un vecteur aléatoire de loi PX . X est dit de
loi normale multidimensionnelle de paramètres µ ∈ Rd et Σ ∈ Md (R),
PX << λRd de densité définie par pour tout x ∈ Rd
1 1 ⊤ Σ−1 (x−µ).
fµ,Σ (x) = d/2 1/2
e− 2 (x−µ)
(2π) |Σ|
Remarque
Si µ = (0, . . . , 0), Σ = Id , alors X = (X1 , X2 , . . . , Xd ) est dit de loi
normale multidimensionnelle centrée réduite dont la densité est définie
par pour tout x ∈ Rd
2 2
1 x +...+x
− 1 2 d
fN (0,Id ) (x) = e .
(2π)d/2