Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% ont trouvé ce document utile (0 vote)
373 vues6 pages

Esperance Conditionnelle Master

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 6

Université d’Orléans – Master 2 Recherche de Mathématiques 2009-10 1

TD Master 2 – Martingales et calcul stochastique


Corrigé des exercices du chapitre 3 – Espérance conditionnelle
Exercice 3.1
Dans une expérience consistant à jeter deux tétraèdres parfaitement symétriques, dont les
faces sont numérotées de 1 à 4, on considère les variables aléatoires X, égale à la somme
des points, et Y , égale à leur différence (en valeur absolue).
1. Spécifier un espace probabilisé permettant de décrire cette expérience.
Il suffit de prendre Ω = {1, 2, 3, 4}2 avec la probabilité uniforme.
2. Déterminer la loi conjointe de X et Y ainsi que leurs espérances.
Les lois de X(ω) = ω1 + ω2 et Y (ω) = |ω1 − ω2 | sont données dans les tableaux
suivants :
X 1 2 3 4 Y 1 2 3 4
1 2 3 4 5 1 0 1 2 3
2 3 4 5 6 2 1 0 1 2
3 4 5 6 7 3 2 1 0 1
4 5 6 7 8 4 3 2 1 0
Par simple dénombrement, on obtient leur loi conjointe et les marginales :
Y \X 2 3 4 5 6 7 8
0 1/16 0 1/16 0 1/16 0 1/16 4/16
1 0 2/16 0 2/16 0 2/16 0 6/16
2 0 0 2/16 0 2/16 0 0 4/16
3 0 0 0 2/16 0 0 0 2/16
1/16 2/16 3/16 4/16 3/16 2/16 1/16
On en déduit les espérances
8 3
X X 5
E (X) = xP {X = x} = 5 , E (Y ) = yP {Y = y} = .
4
x=2 y=0

3. Calculer E (X|Y ) et E (Y |X).


Notons E (X|Y = y) la valeur constante de E (Y |X) sur l’ensemble {Y = y}. Il suit
de la relation (3.2.11) du cours que
E (X1{Y =y} ) X P {X = x, Y = y} X
E (X|Y = y) = = x = xP {X = x|Y = y} .
P {Y = y} x
P {Y = y} x

En appliquant à notre cas, on obtient


E (X|Y = y) = 5 ∀y ∈ {0, 1, 2, 3} ,
ce qui traduit le fait que la distribution de X est symétrique autour de 5 pour tout Y .
De manière similaire, on trouve
E (Y |X = 2) = E (Y |X = 8) = 0 ,
E (Y |X = 3) = E (Y |X = 7) = 1 ,
4
E (Y |X = 4) = E (Y |X = 6) = 3 ,
E (Y |X = 5) = 2 .
Cela permet en particulier de vérifier que E (E (Y |X)) = E (Y ).
Exercice 3.2
On jette un dé symétrique, puis on jette une pièce de monnaie autant de fois que le dé
indique de points. Soit X le nombre de Pile obtenus. Déterminer E (X).
Un choix possible d’espace probabilisé est Ω = {1, . . . , 6} × {0, 1}6 , avec la probabilité
uniforme et
Xω1
N (ω) = ω1 , X(ω) = ωi+1 .
i=1

Avant de calculer E (X), commençons par calculer E (X|N ). Conditionnellement à N = n,


X suit une loi binomiale de paramètres n et 1/2, d’où
N
E (X|N ) = .
2
Il suffit alors de prendre l’espérance pour conclure :
1 1 7 7
E (X) = E (E (X|N )) = E (N ) = · = .
2 2 2 4

Exercice 3.3
Soit (Ω, F, P ) un espace probabilisé, et F1 une sous-tribu de F. Pour tout A ∈ F, on
pose P (A|F1 ) = E (1A |F1 ). Montrer l’inégalité de Bienaymé–Chebyshev
1
P {|X| > a} F1 6 2 E (X 2 |F1 ) .

a

La monotonie de l’espérance conditionnelle nous permet d’écrire

E (X 2 |F1 ) > E X 2 1{X 2 >a2 } F1 > E a2 1{X 2 >a2 } F1 = a2 P {|X| > a} F1 .


  

Exercice 3.4
Soient X, Y des variables aléatoires réelles intégrables telles que XY soit également inté-
grable. Montrer les implications :
X, Y indépendantes ⇒ E (Y |X) = E (Y ) ⇒ E (XY ) = E (X)E (Y ).
Indication : Commencer par considérer des fonctions indicatrices.
Soit X = 1A et Y = 1B .
• Si X et Y sont indépendantes, alors P (A ∩ B) = E (XY ) = E (X)E (Y ) = P (A)P (B).
Or
Z Z Z
Y dP = dP = P (A ∩ B) = P (A)P (B) = P (A)E (Y ) = E (Y ) dP .
A A∩B A

On vérifie facilement des relations analogues avec A remplaçé par Ac , par ∅ et par Ω.
Comme σ(X) = {∅, A, Ac , Ω} et E (Y ) ⊆ F0 ⊂ σ(X), on a bien que E (Y |X) = E (Y ).
• Supposons que E (Y |X) = E (Y ). Comme A ∈ σ(X) on a
Z Z Z
E (XY ) = Y dP = E (Y |X) dP = E (Y ) dP = E (Y )P (A) = E (Y )E (X) .
A A A

Le résultat s’étend à des variables aléatoires quelconques de la manière habituelle, en


les décomposant en partie positive et négative et en approchant chaque partie par des
fonctions étagées.

2
Exercice 3.5
Soient X et Y des variables aléatoires à valeurs dans {−1, 0, 1}. Exprimer les trois
conditions de l’exercice 3.4 à l’aide de la loi conjointe de X et Y . Donner des contre-
exemples aux implications inverses.
Indication : On peut supposer E (Y ) = 0.
Notons la loi conjointe
pxy = P {X = x, Y = y} ,
et ses marginales
X X
px• = P {X = x} = pxy , p•y = P {Y = y} = pxy .
y x

Les variables X et Y sont indépendantes si et seulement si

pxy = px• p•y ∀x, y .

Les espérances conditionnelles sont données par


1 X
E (Y |X = x) = ypxy ,
px• y

donc on aura E (Y |X) = E (Y ) si et seulement si


X X
ypxy = ypx• p•y ∀x .
y y

Enfin la condition E (XY ) = E (X)E (Y ) s’écrit


X X
xypxy = xypx• p•y .
xy xy

Si X et Y prennent leurs valeurs dans {−1, 0, 1} et E (Y ) = 0, on aura nécessairement


p•− = p•+ . Si de plus on veut avoir E (Y |X) = E (Y ), alors il faut que px− = px+ pour
tout x.
Il est alors facile de construire des contre-exemples aux implications inverses. Le
tableau suivant donne un exemple de loi conjointe pour laquelle E (Y |X) = E (Y ) = 0,
mais X et Y ne sont pas indépendantes :

Y \X −1 0 1
−1 1/10 0 2/10 3/10
0 0 4/10 0 4/10
1 1/10 0 2/10 3/10
2/10 4/10 4/10

Et voici un exemple où E (XY ) = E (X)E (Y ) = 0, mais E (Y |X) 6= E (Y ) = 0 :

Y \X −1 0 1
−1 1/10 2/10 1/10 4/10
0 0 2/10 0 2/10
1 2/10 0 2/10 4/10
3/10 4/10 3/10

3
Exercice 3.6
Soit (Ω, F, P ) un espace probabilisé, et F1 ⊂ F2 des sous-tribus de F.
1. Montrer que

E [X − E (X|F2 )]2 + E [E (X|F2 ) − E (X|F1 )]2 = E [X − E (X|F1 )]2


  

Notons X2 = E (X|F2 ) et X1 = E (X|F1 ) = E (X2 |F1 ). On a

E (XX1 ) = E E (XX1 |F1 ) = E X1 E (X|F1 ) = E (X12 ) .


 

Par conséquent, en développant le carré on obtient

E [X − X1 ]2 = E (X 2 ) − E (X12 ) .


De manière similaire, on montre que E (XX2 ) = E (X22 ) et E (X1 X2 ) = E (X12 ), d’où

E [X − X2 ]2 = E (X 2 ) − E (X22 ) ,


E [X2 − X1 ]2 = E (X22 ) − E (X12 ) .




Ceci implique le résultat (qui est équivalent au théorème de Pythagore appliqué à X,


X1 et X2 , considérés comme des vecteurs de L2 (F)).
2. On pose Var(X|F1 ) = E (X 2 |F1 ) − E (X|F1 )2 . Montrer que
 
Var(X) = E Var(X|F1 ) + Var E (X|F1 ) .

On peut procéder par un calcul direct. Une autre méthode est de commencer par
observer que
Var(X|F1 ) = E [X − E (X|F1 )]2 F1 .


Appliquons alors l’égalité montrée en 1. avec F1 remplaçé par F0 , et F2 remplaçé


par F1 . Comme E (X|F0 ) = E (X), le premier terme du membre de gauche est égal à
E (Var(X|F1 )), le second à Var(E (X|F1 )), alors que le membre de droite vaut Var(X).
3. Soit Y1 , Y2 , . . . une suite de variables aléatoires i.i.d. d’espérance µ et de variance σ 2 .
Soit N une variable aléatoire à valeurs dans N , indépendante de tous les Yi . Soit
finalement X = Y1 + Y2 + · · · + YN . Montrer que

Var(X) = σ 2 E (N ) + µ2 Var(N ) .

Appliquons le résultat précédent avec F1 = σ(N ). On a E (X|N ) = µN et en


développant la somme on trouve E (X 2 |N ) = σ 2 N + µ2 N 2 . Il suit que

Var(X|N ) = σ 2 N .

Comme d’autre part on a Var(E (X|N )) = Var(µN ) = µ2 Var(N ), le résultat est


montré.
4. Déterminer la variance de la variable aléatoire X de l’exercice 3.2.
C’est une application du résultat précédent, avec µ = 1/2, σ 2 = 1/4 et Var(N ) =
35/12. On trouve donc Var(X) = 77/48.

4
Exercice 3.7
Soit (Ω, F, P ) un espace probabilisé, et G une sous-tribu de F. On considère deux variables
aléatoires X et Y telles que

E (Y |G) = X et E (X 2 ) = E (Y 2 )

1. Calculer Var(Y − X|G).


On a E (Y − X|G) = X − E (X|G) = 0, et

E (Y − X)2 G = E (Y 2 |G) − E (X 2 |G) = E (Y 2 |G) − X 2 .




Par conséquent,
Var(Y − X|G) = E (Y 2 |G) − X 2 .
2. En déduire Var(Y − X).
 
Var(Y − X) = E Var(Y − X|G) + Var E (Y − X|G)
= E E (Y 2 |G) − E (X 2 )


= E (Y 2 ) − E (X 2 )
=0.

3. Que peut-on en déduire sur la relation entre X et Y ?


Elles sont égales presque sûrement.

Exercice 3.8
Un processus ponctuel de Poisson d’intensité λ > 0 est un processus {Nt }t>0 tel que
i. N0 = 0;
ii. pour t > s > 0, Nt − Ns est indépendant de Ns ;
iii. pour t > s > 0, Nt − Ns suit une loi de Poisson de paramètre λ(t − s):

(λ(t − s))k
P {Nt − Ns = k} = e−λ(t−s) , k∈N .
k!
On se donne des variables aléatoires i.i.d. {ξk }k∈N à valeurs dans N et de carré inté-
grables. Soit
Nt
X
Xt = ξk .
k=1

Le processus Xt est appelé un processus de Poisson composé.


1. Calculer E (Xt ).
Les ξk étant indépendants, on a

E (Xt |Nt ) = Nt E (ξ0 )

et donc 
E (Xt ) = E E (Xt |Nt ) = E (Nt )E (ξ0 ) = λt E (ξ0 ) .

5
2. Calculer Var(Xt ).
La variance étant une forme quadratique, on a

Var E (Xt |Nt ) = Var(Nt ) E (ξ0 )2 = λt E (ξ0 )2 .




Afin de déterminer Var(Xt |Nt ), on commence par calculer


Nt
X
E (Xt2 |Nt ) = E (ξk ξl ) = Nt E (ξ02 ) + (Nt2 − Nt ) E (ξ0 )2 = Nt Var(ξ0 ) + Nt2 E (ξ0 )2 .
k,l=1

Par conséquent,

Var(Xt |Nt ) = E (Xt2 |Nt ) − E (Xt |Nt )2 = Nt Var(ξ0 ) ,

d’où il suit 
E Var(Xt |Nt ) = E (Nt ) Var(ξ0 ) = λt Var(ξ0 ) .
En appliquant l’Exercice 3.6, on conclut que

Var(Xt ) = Var E (Xt |Nt ) + E Var(Xt |Nt ) = λt E (ξ02 ) .


 

Vous aimerez peut-être aussi