Esperance Conditionnelle Master
Esperance Conditionnelle Master
Esperance Conditionnelle Master
Exercice 3.3
Soit (Ω, F, P ) un espace probabilisé, et F1 une sous-tribu de F. Pour tout A ∈ F, on
pose P (A|F1 ) = E (1A |F1 ). Montrer l’inégalité de Bienaymé–Chebyshev
1
P {|X| > a} F1 6 2 E (X 2 |F1 ) .
a
Exercice 3.4
Soient X, Y des variables aléatoires réelles intégrables telles que XY soit également inté-
grable. Montrer les implications :
X, Y indépendantes ⇒ E (Y |X) = E (Y ) ⇒ E (XY ) = E (X)E (Y ).
Indication : Commencer par considérer des fonctions indicatrices.
Soit X = 1A et Y = 1B .
• Si X et Y sont indépendantes, alors P (A ∩ B) = E (XY ) = E (X)E (Y ) = P (A)P (B).
Or
Z Z Z
Y dP = dP = P (A ∩ B) = P (A)P (B) = P (A)E (Y ) = E (Y ) dP .
A A∩B A
On vérifie facilement des relations analogues avec A remplaçé par Ac , par ∅ et par Ω.
Comme σ(X) = {∅, A, Ac , Ω} et E (Y ) ⊆ F0 ⊂ σ(X), on a bien que E (Y |X) = E (Y ).
• Supposons que E (Y |X) = E (Y ). Comme A ∈ σ(X) on a
Z Z Z
E (XY ) = Y dP = E (Y |X) dP = E (Y ) dP = E (Y )P (A) = E (Y )E (X) .
A A A
2
Exercice 3.5
Soient X et Y des variables aléatoires à valeurs dans {−1, 0, 1}. Exprimer les trois
conditions de l’exercice 3.4 à l’aide de la loi conjointe de X et Y . Donner des contre-
exemples aux implications inverses.
Indication : On peut supposer E (Y ) = 0.
Notons la loi conjointe
pxy = P {X = x, Y = y} ,
et ses marginales
X X
px• = P {X = x} = pxy , p•y = P {Y = y} = pxy .
y x
Y \X −1 0 1
−1 1/10 0 2/10 3/10
0 0 4/10 0 4/10
1 1/10 0 2/10 3/10
2/10 4/10 4/10
Y \X −1 0 1
−1 1/10 2/10 1/10 4/10
0 0 2/10 0 2/10
1 2/10 0 2/10 4/10
3/10 4/10 3/10
3
Exercice 3.6
Soit (Ω, F, P ) un espace probabilisé, et F1 ⊂ F2 des sous-tribus de F.
1. Montrer que
E [X − X1 ]2 = E (X 2 ) − E (X12 ) .
E [X − X2 ]2 = E (X 2 ) − E (X22 ) ,
On peut procéder par un calcul direct. Une autre méthode est de commencer par
observer que
Var(X|F1 ) = E [X − E (X|F1 )]2 F1 .
Var(X) = σ 2 E (N ) + µ2 Var(N ) .
Var(X|N ) = σ 2 N .
4
Exercice 3.7
Soit (Ω, F, P ) un espace probabilisé, et G une sous-tribu de F. On considère deux variables
aléatoires X et Y telles que
E (Y |G) = X et E (X 2 ) = E (Y 2 )
Par conséquent,
Var(Y − X|G) = E (Y 2 |G) − X 2 .
2. En déduire Var(Y − X).
Var(Y − X) = E Var(Y − X|G) + Var E (Y − X|G)
= E E (Y 2 |G) − E (X 2 )
= E (Y 2 ) − E (X 2 )
=0.
Exercice 3.8
Un processus ponctuel de Poisson d’intensité λ > 0 est un processus {Nt }t>0 tel que
i. N0 = 0;
ii. pour t > s > 0, Nt − Ns est indépendant de Ns ;
iii. pour t > s > 0, Nt − Ns suit une loi de Poisson de paramètre λ(t − s):
(λ(t − s))k
P {Nt − Ns = k} = e−λ(t−s) , k∈N .
k!
On se donne des variables aléatoires i.i.d. {ξk }k∈N à valeurs dans N et de carré inté-
grables. Soit
Nt
X
Xt = ξk .
k=1
et donc
E (Xt ) = E E (Xt |Nt ) = E (Nt )E (ξ0 ) = λt E (ξ0 ) .
5
2. Calculer Var(Xt ).
La variance étant une forme quadratique, on a
Par conséquent,
d’où il suit
E Var(Xt |Nt ) = E (Nt ) Var(ξ0 ) = λt Var(ξ0 ) .
En appliquant l’Exercice 3.6, on conclut que