Prob Av
Prob Av
Prob Av
DÉPARTEMENT INFORMATIQUE
L3 SYSTÈME INFORMATIQUE
PROBABILITÉS ET STATISTIQUES
SOUS LA SUPERVISION DU Dr. MENNI
RÉALISÉ PAR :
RABIAI MEHDI AYOUB
HADJ MESSAOUD SOUMIA TINHINANE
KHEMAR KENZA
OUHACHI FARES MOHAMED AMINE
BARÇA AHMED FATEH
ZAHAF NADJIB
1 . 1 FONCTION GÉNÉRATRICE :
a) Fonction génératrice des probabilités d’une variable aléatoire :
- Introduction:
- Définition : Soit X une v.a. entière. On appelle fonction génératrice des probabilités
(fgp) de X, et on note 𝐺x la fonction :
𝐺 (𝑡): = 𝐸(𝑡 ) = ∑ 𝑃 (𝑛)𝑡 toujours avec 𝑃 (𝑛): = 𝑃({𝑋 = 𝑛})
- propriété :
𝐺 (𝑡) = 𝐺 (𝑡). 𝐺 (𝑡)
𝐺′ (𝑡) = 𝑚1 = 𝐸(𝑥)
𝐺" (𝑡) = 𝑚2 − 𝑚1 tel que : 𝑚 = 𝐸[𝑋 ]
- lois usuelle :
➤si X est est une loi de Bernoulli de paramètres p, alors
𝐺𝑥(𝑡) = (1 − 𝑝) + 𝑝𝑡
𝐺𝑥(𝑡) =
𝐺𝑥(𝑡) = 𝑒 𝑒
- Exemple:
⫸Fonction génératrice des probabilités d’une v.a. de Poisson X↝ P(λ) :
On a: P{X = k} = 𝑒 !
donc :
( ) ( )
𝐺𝑥(𝑠) = 𝐸𝑠 = ∑ 𝑒 !
𝑠 = 𝑒 ∑
!
= 𝑒 𝑒 =𝑒
( )
Donc : 𝐸[𝑋(𝑋 − 1). . . (𝑋 − 𝑟 + 1)] = 𝐺 (1) = 𝜆
d'où : 𝐸𝑋 = ( )
+ =( )
Et 𝑉𝑎𝑟 𝑋 = 𝐸𝑋 − (𝐸𝑋) = ( )
−( )
=( )
On sait que la loi binomiale est la loi de la somme de n v.a de Bernoulli indépendantes :
Ceci explique que la fgp d’une v.a. binomiale 𝐺(𝑠) = ((1 − 𝑝) + 𝑝𝑠) , est la puissance
n-ième de la fgp (1 − 𝑝) + 𝑝𝑠 d’une v.a. de Bernoulli.
Propriétés:
𝐺𝑥 (0) = 𝐸 (1) = 1.
∙ Le moment non centré d’ordre r ∈𝑁 ∗ d’une v.a. X est
( )
𝑚 (𝑋) = 𝐸(𝑋 ) = 𝐺 (0)
La fonction génératrice des moments d’une v.a. discrète X est donné par :
Exemple :
∙ La fonction génératrice des moments d’une v.a. 𝑋 ↝ 𝐵(𝑝) ∶
=∑ 𝑒 𝑃(1 − 𝑝)
= ∑ ((1 − 𝑝)𝑒 )
= ( ) ( ( ) )
Exemple :
∙ La fonction génératrice des moments d’une v.a. 𝑥 ↝ 𝑢[ , ] 𝑒𝑠𝑡 ∶
𝐺 (𝑡) = 𝐸(𝑒 )
= ∫ 𝑒 𝑑𝑥
= ∫ 𝑒 𝑑𝑥
= [ 𝑒 ]
= ( )
=∫ 𝑒 𝜆𝑒 𝑑𝑦
= ∫ 𝜆𝑒 ( )
𝑑𝑦
= [𝑒 ( )
]
= pour 𝑡 < 𝜆
1. 2 . FONCTION CARACTÉRISTIQUE:
On appelle fonction caractéristique de la variable aléatoire X la fonction 𝜑(𝑋) de la
variable réel à la variable complex 𝜑(𝑋) : B
définie par:
𝜑 (𝑡) = 𝐸(𝑒 )
Si x est discret :
𝜑 (𝑡) = ∑ ∈ 𝑒 𝑃(𝑋 = 𝑡)
𝜑 (𝑡) = ∫ 𝑒 𝑓 (𝑥)𝑑𝑥
Proposition:
𝜑′ (𝑡) = 𝑖𝐸[𝑋𝑒 ]
● si x a un moment d' ordre p alors 𝜑 (𝑡) p fois dérivable (et même de classe 𝐶 ) ,
avec: 𝜑′ (𝑡) = 𝑖 𝐸[𝑋 𝑒 ]
lois usuelles:
⫸ loi de bernoulli : On dit qu’une variable aléatoire réelle suit la loi de Bernoulli de
paramètre 𝑝 si l’on a P𝑋 = = (1 − 𝑝)𝛿0 + 𝑝𝛿1. La fonction caractéristique associée
est donc : 𝜑 (𝑡) = 𝐸[𝑒 ] = (1 − 𝑝)𝑒 + 𝑝𝑒 = (1 − 𝑝) + 𝑝𝑒
𝜑𝑥(𝑡) = ∑ ( )𝑝 (1 − 𝑝) 𝑒 = ((1 − 𝑝) + 𝑝𝑒 )
⫸ loi poisson: si X est est une loi de poisson de paramètre 𝜆 > 0, alors :
𝑖𝑡 −1)
𝜑𝑥(𝑡) = 𝑒𝜆(𝑒
⫸ loi géométrique :
⫸ loi uniforme discrète: X est une variable aléatoire qui suit la loi uniforme sur l’intervalle [a;
b] (a < b) donc :
𝑒𝑖𝑎𝑡
𝜑𝑥(𝑡) = 𝑏 −𝑎 +1 ∑𝑏−𝑎
𝑘=0 𝑒𝑖𝑘𝑡
⫸ loi uniforme continue: X est une variable aléatoire qui suit la loi uniforme sur l’intervalle
[a; b] :
𝜑𝑥(𝑡) = ( )
⫸ loi exponentielle: la variable aléatoire X suit la loi exponentielle de paramètre λ > 0 :
∞ 𝜆
𝜑𝑥(𝑡) = 𝜆 ∫0 𝑒𝑖𝑡𝑥 𝑒−𝜆𝑥 𝑑𝑥 = 𝜆 − 𝑖𝑡
𝜑𝑥(𝑡) = 𝑒
Exercice 1 :
déterminer une condition nécessaire et suffisante pour que les réels a et k sont tels que la
suite (Pn) définie pour 𝑛 ≥ 0 , 𝑝𝑎𝑟 𝑃𝑛 = ( ) 𝑘 𝑠𝑜𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é d' une
variable aléatoire a valeur dans N
donnez alors la fonction génératrice d'une telle variable aléatoire
Corrigé exercice 1 :
il faut et il suffit que 𝑃𝑛 ≥ 0 pour tout entier n et que ∑ 𝑃𝑛 = 1. implicitement on
remarque qu’il faut avoir a, Sinon la suite (𝑃𝑛) n’est pas définie . on remarque d’abord
qu’on ne peut pas avoir 𝑘 = 0, sinon 𝑃𝑛 = 0 pour tout 𝑛 ≥ 0 et la deuxième condition ne
peut pas être satisfaite . le cas a=0 entraine k=1, si a ≠ 0, la première condition appliquée
pour 𝑛 = 2 impose 𝑘 > 0, de plus pour que la série ∑ 𝑃𝑛 converge, on doit avoir :
<1 ⇔ −1 <1
⇔ −1 < −1<1
⇔0< <2
⇔ 𝑎+1 >
⇔𝑎>−
∑ 𝑃𝑛 = = 𝑘(𝑎 + 1)
et donc on a k= . finalement, puisque 𝑘 > 0 et 𝑃1 > 0, on doit donc avoir > 0 ce qui
implique 𝑎 > 0 puisqu'on sait déjà que 𝑎 + 1 > 0
Réciproquement sont vérifiées et donc que (Pn) est une distribution de probabilité. la
fonction génératrice est alors donnée par
𝑘 1
𝐺(𝑡) = 𝑃𝑛𝑡 = 𝑎𝑡 = 𝑎 + 1 − 𝑎𝑡
1−𝑎+1
Exercice 2:
Soient X1, X2, . . . des variables aléatoires indépendantes de même loi de Bernoulli 𝐵(𝑝) sur
{0, 1} de paramètre p ∈ ]0, 1[, et soit N une variable aléatoire, indépendante des 𝑋 ; k ≥ 1,
de loi de Poisson P(𝜃) de paramètre 𝜃 > 0
a) Calculer les fonctions génératrices des moments de 𝑋 et N
et 𝐺 (𝑠) = 𝐸(𝑠 ) = 𝑒 ∑ 𝑠 !
= 𝑒 ( )
b) Avec l’outil de la fonction génératrice, pour s > 0, par indépendance entre N et les 𝑋 , k
≥1
=𝑒 ∑
!
[ 1 + 𝑝(𝑠 − 1) ]
=𝑒 ( )
Soient X,Y deux variables aléatoires réelles indépendantes de même loi. On suppose qu'elles
possèdent un moment d'ordre 2 et on note 𝜎 leur variance commune. On suppose de plus
que
Corrigé exercice 3 :
𝜑𝑥 /
= 𝜑𝑥(𝑡)
or : 𝜑 /√
(𝑡) ∫ 𝑒 ( )/√
𝑑𝑃(𝑤) = 𝜑 ( )
√
On en déduit le résultat 𝜑𝑥 /
= 𝜑𝑥(𝑡)
−𝜎² 𝑡² 1
𝜑𝑥(𝑡) = 𝑒𝑥𝑝 (2 𝑙𝑛(1 + 2
× 2𝑛 + 𝑜 (2𝑛 )))
−𝜎² 𝑡
𝜑𝑥(𝑡) = exp( 2
+ 𝑜(1))
5. Soit (Xi) une suite de variables aléatoires réelles indépendantes et de même loi
que X Alors, on prouve aisément par récurrence que :
...
𝑠 = /
a même loi que X Or, le théorème limite central garantit que 𝑠 converge en loi
vers N(0,σ²) Donc X a pour loi N(0,σ²)
On lance n fois une pièce de monnaie, et on convient que l'on gagne 1 euro si l'on
obtient pile, que l'on perd 1 euro si l'on obtient face. On note 𝑆𝑛 l'argent gagné, ou perdu,
après 𝑛 parties. Quelle est la loi de probabilité de 𝑆𝑛? Intuitivement, il est clair qu'il y a plus
de chances que Sn soit proche de 0 plutôt que Sn soit grand. Mais peut-on aller plus loin, et
donner l'allure de la loi de probabilité de Sn? Le théorème suivant, dit théorème limite
central, affirme que c'est effectivement le cas
Cadre d'utilisation:
la variable aléatoire (v.a) peut être discrète ou continue, seules les situations
particulièrement tordues échappent au théorème ( du type loi de Cauchy )
c’est parce que le TCL n’exige pas d’hypothèse sur la loi de probabilité suivie par chaque v.a
hormis celle d’une variance finie qu’il se révèle si indispensable aux statistiques. Du coup, il
s’applique à des lois de probabilité qu’il n’est même pas utile d’identifier …
théorème:
soit (𝑋 )une suite de variables indépendantes identiquement distribuées
admettant un moment d'ordre 2. On pose :
𝜇 = 𝐸(𝑋 ), 𝜎 = 𝑉𝑎𝑟(𝑋 )
𝑆 = 𝑋 +. . . . . . . . +𝑋 𝑌 = = /√
√
Alors la suite (𝑌 ) converge en loi vers une variable aléatoire de loi 𝑁(0,1)( la loi
normale centrée réduite en d’autre terme pour tout 𝑥𝜖ℜ
/
𝑃(𝑌 ≤ 𝑥) → ∫ 𝑒 𝑑𝑢
√
Exemple d’application:
la loi Binomial:
Si 𝑋 suit une loi binomiale B(n, p), alors, quand n est grand,
≈𝑍
( )
≈𝑍
√
Usage
En pratique, les statisticiens observent les règles d'usage suivantes.
1. Si a > 10, on peut approcher la loi de Poisson P(a) par la loi gaussienne N (a, a).
2. Si np > 10 et n(1−p) > 10, on peut approcher la loi binomiale B(n, p) par la loi
gaussienne N (np, np(1 − p)).
CONVERGENCE:
Théorème 1.1 (Loi forte des grands nombres) :
Soit (𝑋 )𝑛 ≥ 1 une suite de variables aléatoires indépendantes et de même
loi admettant une espérance 𝑚.
On note :
𝑆𝑛 ∶= 𝑋 +· · · +𝑋 .
Alors il existe un événement A de probabilité 1 tel que pour tout
ω ∈ A, 𝑆 (ω)/n → 𝑚.
On dit que : 𝑆 /𝑛 converge vers 𝑚 .
Loi faible des grands nombres :
Sous les mêmes hypothèses, pour tout t strictement positif,
𝑝(𝑛𝑚 − 𝑛𝑡 ≤ 𝑆 ≤ 𝑛𝑚 + 𝑛𝑡) → 1
On dit que 𝑆 /𝑛 converge vers 𝑚 en probabilité.
Convergence en loi:
Pour ce type de convergence, les variables aléatoires peuvent être définies
sur des espaces de probabilité différents.
DÉFINITION :
Une suite de v.a.r. (𝑋 )𝑛∈N converge en loi vers une v.a.r. X si, pour toute
fonction f : R −→ R, continue et bornée,
𝐸[𝑓(𝑋 )] → 𝐸[𝑓(𝑋)] , quand 𝑛 → +∞
Exemple :
un joueur lance une pièce équilibrée : lorsqu’il obtient pile, il gagne 100 Euros, lorsqu’il
obtient face, il perd 100 Euros. Estimer le nombre maximal de lancers à effectuer pour que
ce joueur ait plus de 95 chances sur 100 de perdre au plus 2000 euros .
notons 𝑛 le nombre de lancers effectués, la V,a. 𝑆 égale au nombre de piles obtenus sur les
n premiers lancers suit une loi 𝛽(𝑛, 1/2) 𝑒𝑡 𝑙𝑒 𝑔𝑎𝑖𝑛 (𝑎𝑙𝑔é𝑏𝑟𝑖𝑞𝑢𝑒) 𝑣𝑎𝑢𝑡 ∶
𝐺 = 100 x 𝑆 − 100 x (𝑛 − 𝑆 ) = 200𝑆 − 100𝑛
on cherche alors n tel que 𝑃(𝐺 ≥ −2000) ≥ 0,95 𝑜𝑟 {𝐺 ≥ −2000} = {𝑆 − 𝑛/2 ≥
−10}
comme 𝑆 𝓝(0,1) 𝓝(0,1) de loi binomiale, peut être vue comme une somme 𝑆 =
𝜖 +. . . +𝜖 de V.a. de loi 𝑏(1/2), d'après le TCL
/
𝑆∗ = → 𝓝(0,1)
/
si bien qu’on approxime la loi de 𝑆 ∗ par 𝓝(0,1) et donc celle de 𝑆 par la loi normal
𝓝( , ).
chercher n tel que 𝑃(𝐺 ≥ −2000) = 𝑃(𝑆 − 𝑛/2 ≥ −10) ≥ 0,95 revient à estimer 𝑛 tel
que:
Loi de probabilité de X :
2) Vecteur aléatoire
Définition : Dans un espace probabilisé (Ω, A, ℙ), on appelle X = (X1, . . . , Xn) un vecteur
aléatoire s’il est une application mesurable de (Ω, A) dans (ℝn, Bℝn ).
∀ (x1, . . . , xn) ∈ ℝn
FX(x1, . . . , xn) = P ([X1 ≤ x1] ∩ . . . ∩ [Xn ≤ xn])
3) Variables Gaussiennes
Définition : Une variable aléatoire réelle X suit la loi Gaussienne d’espérance m et de
variance σ2, notée N(m, σ2), si elle admet la densité de probabilité
(𝑥−𝑚)2
f𝑋 : 𝑥 → √
2𝜎2
Définition : On dit d’un vecteur aléatoire X = t(X1, . . . , Xn) dans ℝn que c’est un vecteur
Gaussien, si pour tout a = t(a1, . . . , an) ∈ ℝn , la variable aléatoire réelle
〈a, Xi〉= a1X1 +. . .+ anXn est Gaussienne (suit la loi normale).
Ce qui veut dire que si l’on considère des variables aléatoires Xi ⇝ N (mi , σ2i )
indépendantes, alors X = t(X1, . . . , Xn) est un vecteur Gaussien.
Remarques :
- Tout vecteur gaussien de dimension 1 est une variable aléatoire gaussienne réelle,
éventuellement dégénérée.
- Si X⇝N(m,Γ), alors 𝔼(𝑋) = 𝑚 et 𝕍(𝑋) = 𝛤 (𝛤 matrice de covariance) . En
particulier, un vecteur gaussien admet un moment d’ordre 2 et, de manière plus
générale, des moments de tout ordre.
- Toutes les composantes de X sont aussi des variables aléatoires gaussiennes
réelles (car elles suivent toutes une loi normale).
- Attention: la réciproque n’est pas forcément vraie! … Il se peut que X1, · · · , Xn
soient des v.a. réelles gaussiennes sans pour autant que le vecteur (X1,· · ·,Xn)t soit
gaussien.
Exemple 1 : Soit X1 ⇝N(m1 , σ21 ) et X2 ⇝N(m2 , σ22 ) deux variables indépendantes. Alors
X=(X1,X2) est un vecteur aléatoir gaussien, car pour tout (a1,a2)∈ ℝ2
N (𝑎 𝑚 + 𝑎 𝑚 , 𝑎 𝜎 + 𝑎 𝜎 )
Exemple 2 : Soit X un vecteur aléatoire de ℝn dont les composantes X i sont
indépendantes et de loi N(mi , σ2i ). Le vecteur X est alors un vecteur gaussien. En effet
toute combinaison linéaire de ses composantes s’écrit a1X1 +. . .+ anXn ,dont la loi est par
indépendance des variables
N (𝑎 𝑚 + · · · + 𝑎 𝑚 , 𝑎 𝜎 + · · · + 𝑎 𝜎 )
1
Exemple 3 : soient X1 ⇝ N1(0, 1) et X2 = εX1, et de loi définie par ℙ(ε = ±1)= .
2
Alors, X2 ⇝ N1(0, 1) mais la fonction caractéristique du vecteur (X1, X2)t n’est pas une
fonction caractéristique gaussienne.
L’Espérance : Soit X=t(X1, . . . , Xn) un vecteur Gaussien. Son espérance est le vecteur
définie par ∀(i, j)∈{1,. . .,n}2 Cov(Xi , Xj)=𝔼([Xi −𝔼(Xi)] [Xj − 𝔼(Xj )]) = 𝔼(Xi Xj )−𝔼(Xi)𝔼(Xj )
〈 , 〉 〈 , 〉
φX : u → 𝑒
avec :
m = (mj) j∈[1,n] est le vecteur d'espérance de X et
Γ= (Γj,k) (j,k)∈[1,n]×[1,n] est la matrice de covariances de X.
On pourrait l'écrire d’une manière plus détaillée qui nous donnera
𝑖∑ ∑𝑛 ∑𝑛
𝑗=1 𝑢𝑘𝛤𝑗,𝑘𝑢𝑘
φX(𝑢 , . . . , 𝑢 ) = 𝑒 𝑘=1
(∑𝑛𝑘=1 𝑢𝑘 𝑚𝑘 ) 𝑡+ (∑𝑛
1
∑𝑛 𝑢𝑘𝛤𝑗,𝑘𝑢𝑘)𝑡2
φY(t)= 𝑒 2 𝑘=1 𝑗=1
Théorème 1:
Soit X un vecteur aléatoire de ℝn . Les assertions suivantes sont équivalentes :
1. Le vecteur X est un vecteur gaussien de moyenne m et de matrice de covariance Γ.
2. La fonction caractéristique de X est donnée par :
〈𝑢,𝑋〉 〈𝑢,𝑚〉
ΦX(u) = 𝔼 (𝑒 )=𝑒 ,∀u ∈ ℝn
Et on note X⇝Nn(m,Γ).
La loi d’un vecteur gaussien est caractérisée par son vecteur moyenne 𝑚 et sa matrice de
covariance Γ. Elle est appelée loi gaussienne sur ℝn et est notée N (𝑚, Γ). La loi N (0,In) est
appelée loi gaussienne standard sur ℝn . Un vecteur gaussien ayant cette loi est appelé
vecteur aléatoire gaussien standard.
Remarque :
Cette définition inclut notamment le cas où X suit une loi de Dirac en m (cas Γ=0).
Théorème 2:
Soit X = (X1, ...,Xn) un vecteur gaussien.Les Xi sont indépendants si et seulement si la
matrice Γ de covariance de X est diagonale.
Cela est très facile car on sait que l’indépendance entraîne la non-corrélation.
〈 , 〉 〈 , 〉
φX : u → 𝑒
𝑖∑ ∑𝑛 ∑𝑛 𝑢𝑘 𝛤𝑗,𝑘 𝑢𝑘
donc φX(𝑢 , … , 𝑢 ) = 𝑒 𝑘=1 𝑗=1
∑𝑛 𝛤𝑘,𝑘 𝑢2𝑘
𝑒𝑖
∑
autrement dit φX(𝑢 , … , 𝑢 ) = 𝑘=1
𝑖 𝑢𝑘 𝑚𝑘 −12 𝛤 2
φX(𝑢 , … , 𝑢 ) = ∏𝑛𝑘=1 𝑒 𝑘,𝑘 𝑢𝑘
Récapitulatif :
- Pour les variables aléatoires quelconques
Indépendance ⇒ Covariance nulle
Indépendance ⇍ Covariance nulle
- Pour les variables aléatoires d’un vecteur Gaussien
Indépendance ⇔ Covariance nulle
Ce qui nous ramène naturellement à la proposition suivante :
Proposition :
1. est inversible
2. La loi N (m, ) est absolument continue par rapport à la mesure de Lebesgue. La densité
est alors ℝ → ℝ
1 〈 , ( )〉
𝑓(𝑥) = 𝑒
(2𝜋) 𝑑𝑒𝑡𝛤
Exemple : Considérons n variables aléatoires X1,..., Xn indépendantes et de loi,
respectivement N(m1 , σ21 ),...,N(mn , σ2n )
1
𝑓(𝑥) = 𝑒
(2𝜋)𝜎
Puisque les variables aléatoires Xi sont indépendantes, la densité conjointe du vecteur
X1,..., Xn est :
1 𝑥−𝑚𝑖 2
−2 ∑𝑛𝑖=1 𝜎𝑖
𝑓 ,..., (𝑥 , . . . , 𝑥 ) =
( ) ∏ 𝜎𝑖
Théorème Central Limite Vectoriel :
Soient X1, . . . , Xn des vecteurs aléatoires indépendants et de même loi
dans ℝ supposés indépendants et de même loi de carré intégrable. Alors, lorsque n
→ ∞, on a :
√𝑛 𝑋 − 𝑚 𝑁 (0, 𝛤)
𝑋1 +𝑋2 + ...+𝑋𝑛
avec 𝑋𝑛 = 𝑛
∀u ∈ ℝ 𝜙𝑍 (𝑢) = 𝔼 (𝑒 )
On a par le Théorème Central Limite que 𝑍 𝑁 (0, 𝑢𝛤𝑢)
∀u ∈ ℝ 𝜙𝑍 (𝑢) 𝑒
Exemple : Si on prend une pièce de monnaie et qu’on la jette on prenons pile =0 et face =1
on remarquera la fréquence de la somme des valeurs des tirages a une courbe qui se
rapproche d'une courbe en cloche symétrique(caractéristique de la densité de probabilité de la
loi normale) plus le nombre de tirage est grand .
EXERCICES :
Exercice 1 : Soient X et Y deux variables aléatoires indépendantes.
-Donnez une condition nécessaire et suffisante pour que X+Y et X-Y soient aussi
indépendantes.
2 1 0
𝛤 X= 1 1 0
0 0 1
-Donnez la loi de Y=3X1+2X2-X3
Corrigé :
Y=(3,2,-1)X
Y suit une loi normale N(Am,A𝛤XAt)
Donc la moyenne de Y appelée mY =Am
mY =(3,2,-1) t(3,-5,10)
mY =9 -10 -10
mY = -11
et la variance 𝜎2 =A𝛤XAt
𝜎2 =(8, 5, -1) t(3, 2, -1)
𝜎2 =24+10+1=35
Y⇝N(-11,35) C.Q.F.D
Pour tout θ ∈ ℝ, il en va de même du couple Z(θ) = (X(θ), X’ (θ)) car toute combinaison
linéaire des coordonnées de Z(θ) est une combinaison linéaire des coordonnées de (X,Y)
Par indépendance, la matrice de covariance de Z dans ℝ2n est une matrice à blocs de la
forme
𝛤 0
0 𝛤
où 𝛤 est la matrice de covariance n × n commune à X et Y (et 0 la matrice n × n nulle). La
suite de la démonstration va consister à montrer que, pour tout θ ∈ ℝ, la matrice de
covariance de Z(θ) est la même que celle-ci, ce qui démontrera à la fois l’indépendance de
X(θ) et X’ (θ) et le fait qu’ils ont tous deux la même loi que X et Y . Par centrage, il revient à
examiner𝔼(𝑍(𝜃)𝑘 𝑍(𝜃)𝑙 ) pour 𝑘, 𝑙 = 1, . . . , 2𝑛. Trois cas sont à étudier.
Pour 𝑘, 𝑙 = 1, . . . , 𝑛 :
Comme X et Y ont la même loi, il s’ensuit que 𝔼(𝑍(𝜃)𝑘 𝑍(𝜃)𝑙 ) = 𝛤𝑘,𝑙 pour tout 𝑘, 𝑙 =
1, . . . , 𝑛
qui est toujours nul car X et Y sont de même loi. ll en va de même pour𝔼(𝑍(𝜃)𝑛+𝑘 𝑍(𝜃)𝑙 ).
Ainsi Z(θ) a même matrice de covariance que Z, ce qui conclut la démonstration
Corrigé :
1) Y=AX
Y1 1 -1 0 0
Y2 = 0 4 1 0 (X1,X2,X3,X4)T
Y3 0 -1 0 1
mY=Am
1 -1 0 0
= 0 4 1 0 (3,-2,1,4)T
0 -1 0 1
=(5,-7,6)T
Pour ce qui est de 𝛤y
𝛤y= A𝛤XAt
1 -1 0 0 2 1 0 1 1 0 0
= 0 4 1 0 1 1 0 1 -1 4 -1
0 -1 0 1 0 0 1 0 0 1 0
1 1 0 2 0 0 1
1 0 0
= 0 17 0
0 0 1
5 1 0 0
Donc Y=(Y1,Y2,Y3)=(X1-X2 , 4X2+X3 , X4-X2)⇝N -7 , 0 17 0
6 0 0 1