Td6 Processus Corrige
Td6 Processus Corrige
Td6 Processus Corrige
Mercredi 17 Octobre
1
Presque sûrement, ceci est vrai pour tout a rationnel positif, donc presque sûrement il n’existe pas
de a rationnel tel que X ≤ a < Y , d’où X ≥ Y p.s.. On a de même l’inégalité inverse, d’où X = Y
p.s..
converge dans L2 .
T
2. Montrer que si F∞ = n≥0 Fn , on a
Solution de l’exercice 2
1. On calcule, pour m < n :
= 0,
ce qui montre que la famille (E[X|Fn ] − E[X|Fn+1 ])n≥0 est orthogonale. De plus, pour m = n, on
a h i
2
E (E[X|Fn+1 ] − E[X|Fn ]) = E E[X|Fn ]2 − E[X|Fn+1 ]2 ,
P h 2
i h
2
i
donc par téléscopage E (E(X|Fn+1 ) − E(X|Fn )) ≤ E E [X|F0 ] = E X 2 < +∞, d’où la
convergence de la série dans L2 , par critère de Cauchy dans L2 .
2. On déduit de la question précédente que E [X|Fn ] converge, on note Y la variable aléatoire limite. On
n’a plus qu’à montrer que Y = E [X|F∞ ]. Soit Z une variable F∞ -mesurable bornée. En particulier,
pour tout n, elle est Fn -mesurable donc
E [E [X|Fn ] Z] = E [XZ] .
Quand n tend vers +∞, le membre de gauche tend vers E[Y Z] (en utilisant la convergence de
E [X|Fn ] et l’inégalité de Cauchy-Schwarz), d’où E[Y Z] = E[XZ], d’où Y = E [X|F∞ ].
Remarque Il est aussi possible de résoudre entièrement l’exercice en utilisant seulement le fait que
L2 est un espace de Hilbert. On vérifie facilement que le sous-espace des variables F∞ -mesurables est
l’intersection décroissantes des sous-espaces des variables Fn -mesurables. Il suffit donc de montrer que
dans un espace de Hilbert, les projections orthogonales sur une suite décroissante de sous-espaces fermés
convergent vers la projection orthogonale sur l’intersection de ces sous-espaces.
2 Lois conditionnelles
Exercice 3 (Un calcul de loi conditionnelle) Pn
Soient X1 , . . . , Xn des variables i.i.d. exponentielles de paramètre 1, et S = i=1 Xi . Déterminer la loi
conditionnelle de X1 sachant S.
2
Solution de l’exercice 3 Soient f et g deux fonctions mesurables bornées. On cherche à calculer E [g(X1 )|S].
Pour cela, on calcule
Z
E [g(X1 )f (S)] = g(x1 )f (x1 + · · · + xn )λn e−λx1 . . . e−λxn dx1 . . . dxn .
Rn
+
On a donc
S
(S − x)n−2
Z
E [g(X1 )|S] = g(x)(n − 1) dx.
0 S n−1
Ceci est vrai pour toute fonction g mesurable bornée, donc la loi conditionnelle de X1 sachant S a pour
densité
(S − x)n−2
(n − 1)
S n−1
par rapport à la mesure de Lebesgue. Notons qu’en particulier, pour n = 2, cette densité est constante.
Ainsi, conditionnellement à X1 + X2 , la variable X1 est uniforme sur [0, X1 + X2 ].
Exercice 4 (Lois conditionnelles et indépendance)
Soient X et Y deux variables aléatoires telles que la loi conditionnelle de X sachant Y existe. Montrer
que cette loi conditionnelle est déterministe si et seulement X et Y sont indépendantes.
Solution de l’exercice 4 Notons tout d’abord que ce résultat est intuitif : dire que la loi de X sachant Y
est déterministe revient à dire que connaître Y ne donne aucune information sur X, ce qui est plus ou
moins la définition de l’indépendance.
Plus précisément, supposons que X est indépendante de Y , et notons ν la loi de Y . On veut montrer
que la loi conditionnelle de X sachant Y est ν (qui est, en particulier, déterministe). Pour cela, par
définition des lois conditionnelles, il suffit de montrer que pour toute fonction f mesurable positive, on a
Z
E [f (X)|Y ] = f dν.
Par définition de l’espérance conditionnelle, il suffit donc de montrer que pour fonction g mesurable
positive, on a Z
E [g(Y )f (X)] = E g(Y ) f dν .
3
Or, en utilisant l’indépendance puis le fait que ν est la loi de X, on a
Z Z
E [g(Y )f (X)] = E[g(Y )]E[f (X)] = E[g(Y )] f dν = E g(Y ) f dν ,
R
En particulier, en prenant g = 1, on obtient E[f (X)] = f dν, donc ν est aussi la loi de X, donc
finalement
E [g(Y )f (X)] = E[g(Y )]E[f (X)]
pour toutes f et g mesurables positives. Par conséquent, X et Y sont bien indépendantes.
3 Temps d’arrêt
Exercice 5 (Vrai ou faux)
Soit (Sn ) une marche aléatoire simple symétrique sur Z et Fn = σ(S0 , S1 , . . . , Sn ). Lesquelles des variables
suivantes sont des temps d’arrêt pour (Fn ) ?
1. T1 = min{n ≥ 0|Sn = 2018},
2. T2 = min{n ≥ 2018|Sn = Sn−2018 },
3. T3 = min{n ≥ 0|Sn = Sn+2018 },
4. T4 = min{n ≥ T1 |Sn = 0},
5. T5 = max{n ∈ [[0, 2018]]|Sn = 0},
6. T6 = min{n ∈ [[0, 2018]]|∀m ∈ [[0, 2018]], Sm ≤ Sn }.
Solution de l’exercice 5 Les temps T1 , T2 et T4 sont des temps d’arrêts, car à chaque fois l’événement
{T ≤ n} ne dépend que de (S0 , S1 , . . . , Sn ). En revanche, T3 , T5 et T6 n’en sont pas puisque les événements
{T3 = 0}, {T5 = 0} et {T6 = 0} ne sont pas F0 -mesurables.
Exercice 6 (Ce qui peut arriver, arrivera)
Soit T un temps d’arrêt pour une filtration (Fn )n≥0 . On suppose qu’il existe ε > 0 et n0 ∈ N∗ tels que
pour tout n ≥ 0, on a p.s.
P(T ≤ n + n0 |Fn ) > ε.
Montrer que T est fini presque sûrement et que E[T ] < +∞.
Solution de l’exercice 6 On montre par récurrence sur k que pour tout k ≥ 0 :
1T ≥kn0 1T ≥(k+1)n0
P(T ≥ (k + 1)n0 ) = E
= E [1T ≥kn0 P (T ≥ kn0 + n0 | Fkn0 )]
≤ E [1T ≥kn0 (1 − ε)]
≤ (1 − ε)k+1 ,
par hypothèse de récurrence. On en déduit aisément que E[T ] < +∞ et en particulier que T est presque
sûrement fini.
4
4 Martingales et marches aléatoires
Exercice 7 (À la pêche aux martingales)
Soit (Sn ) une marche aléatoire simple symétrique sur Z, et Fn = σ(S1 , · · · Sn ).
1. Montrer que (Sn ) est une martingale pour la filtration (Fn ).
2. Montrer que (Sn2 − n) est une martingale pour la filtration (Fn ).
3. Montrer que (Sn3 − 3nSn ) est une martingale pour la filtration (Fn ).
4. Soit P (X, Y ) un polynôme à deux variables. Montrer que (P (Sn , n)) est une martingale pour la
filtration (Fn ) si pour tous s, n ∈ Z, on a
P (s + 1, n + 1) − 2P (s, n) + P (s − 1, n + 1) = 0.
5. Soit α ∈ R. Trouver β ∈ R tel que exp(αSn − βn) est une martingale pour (Fn ).
Solution de l’exercice 7 On note Xn = Sn − Sn−1 les pas de la marche aléatoire. Tous les processus
considérés dans la suite sont des fonctions mesurables de n et de Sn , donc sont (Fn )-adaptés. De plus,
au temps n, ils sont toujours bornés par une fonction de n (n pour le premier, n2 + n pour le second...),
donc intégrables.
1. On a
E[Sn+1 |Fn ] = E[Sn + Xn+1 |Fn ] = Sn + E[Xn+1 ] = Sn
par indépendance des accroissements.
2. On a 2
|Fn = E Sn2 |Fn + 2Sn E [Xn+1 |Fn ] + E Xn+1
2
|Fn = Sn2 + 1.
E Sn+1
2
On a donc E Sn+1 − (n + 1)|Fn = Sn2 − n, donc on a bien une martingale.
3. Le calcul est similaire :
E (Sn+1 )3 − 3(n + 1)Sn+1 |Fn = Sn3 + 3Sn2 E [Xn+1 |Fn ] + 3Sn E Xn+1
2 3
|Fn + E Xn+1 |Fn
− 3(n + 1)E [Sn+1 |Fn ]
= Sn3 + 3Sn − 3(n + 1)Sn
= Sn3 − 3nSn .
4. On calcule
1 1
E [P (Sn+1 , n + 1)|Fn ] = P (Sn + 1, n + 1) + P (Sn − 1, n + 1).
2 2
Il suffit donc de P (X + 1, n + 1) − 2P (X, n) + P (X − 1, n + 1) = 0.
5. On calcule
eα + e−α αSn
= e .
2
Il faut donc choisir β = ln (ch(α)).
T = min{n ∈ N, Sn = −a ou Sn = b}.
On pourra admettre dans un premier temps que T < +∞ p.s. (c’est une conséquence de l’exercice 6).
5
1. En utilisant la première martingale de l’exercice précédent et le théorème d’arrêt, montrer que
a
P (ST = b) = .
a+b
2. En utilisant la seconde martingale de l’exercice précédent et le théorème d’arrêt, montrer que
E[T ] = ab.
Solution de l’exercice 8
1. Soit t > 0. Alors T ∧ t est un temps d’arrêt borné, auquel on peut appliquer le théorème d’arrêt :
E[ST ∧t ] = E[S0 ] = 0.
De plus, T < +∞ p.s. donc ST ∧t converge p.s. vers ST , et on a −a ≤ ST ∧t ≤ b pour tout t. Par
convergence dominée, on a donc
E[T ∧ t] = E[ST2 ∧t ].
Comme dans la première question, en utilisant T < +∞ p.s., le membre de gauche converge vers
E[T ] par convergence monotone et le membre de droite vers E[ST2 ] par convergence dominée. On a
donc, en utilisant la première question :
E[T ] = E[ST2 ]
b a 2
= (−a)2 + b
a+b a+b
= ab.
Remarque Si vous n’êtes pas fatigués par les calculs : en utilisant la troisième martingale de l’exercice
précédent (ainsi que les deux questions précédentes), on peut calculer
1
2ab + b2 .
E[T |ST = b] =
3
Exercice 9 (Martingales et marche biaisée)
Soit p 6= 12 et (Sn )n≥0 une marche aléatoire biaisée sur Z, i.e. Sn = X1 + · · · + Xn avec Xi i.i.d. et
P(Xi = 1) = p et P(Xi = −1) = 1 − p.
1. Trouver α tel que αSn soit une martingale.
2. Soient a, b et T comme dans l’exercice précédent. Calculer P(ST = b).
Solution de l’exercice 9
1. On a E[αSn+1 |Fn ] = αSn E[αXn+1 ] = αSn pα + (1 − p)α−1 . Le processus (αSn ) est donc une
martingale ssi
pα + (1 − p)α−1 = 1,
ce qui est une équation de degré 2 en α. En la résolvant, on obtient α = 1 (ce qui n’est pas très
intéressant) ou α = 1−p
p .
6
2. En reprenant exactement le raisonnement de l’exercice précédent (question 1), on trouve
1 − αa
P(ST = b) =
1 − αa+b
1−p
avec α = p .
Notons que si par exemple p > 12 , alors α < 1 donc, en faisant tendre b vers +∞, on obtient
a
1−p
P (T−a < +∞) = 1 − αa = 1 −
p
pour a ≥ 0, où T−a = min{n ≥ 0|Sn = −a}. On en déduit que − min{Sn |n ≥ 0} suit une loi
géométrique de paramètre α = 1−p
p .
7
5 Deux images intéressantes
Exercice 12
Solution de l’exercice 12
1. La première image ne ressemble pas à une martingale, car le processus observé a tendance à continuer
à augmenter s’il vient d’augmenter, et à diminuer s’il vient de diminuer. Une martingale devrait en
moyenne autant augmenter que diminuer si elle vient d’augmenter.
Pour la seconde, c’est difficile à dire : le processus semble progresser par grands sauts. Comme on
n’observe qu’un petit nombre de ces sauts, on ne peut pas vraiment se faire une idée de leur loi.
2. La première image vient du site du New York Times, la nuit des dernières élections présidentielles
américaines. À chaque instant t, un algorithme donnait en direct, en fonction des résultats par-
tiels disponibles à l’instant t, la probabilité que chacun des deux candidats remporte l’élection
présidentielle.
Si on note Ft la tribu engendré par les résultats partiels disponibles à l’instant t, alors (Ft ) est une
filtration, et le processus à l’instant t devrait être égal à la probabilité, conditionnellement à Ft ,
qu’un certain candidat remporte l’élection. Or, si (Ft ) est une filtration et X une variable aléatoire,
on sait que (E [X|Ft ])t≥0 est une martingale.
La seconde image vient du site Five Thirty Eight. Elle a été obtenue en suivant la même idée,
mais en cherchant à prédire le résultat final d’un match de foot. Les sauts correspondent aux buts
marqués par une des deux équipes, le sens d’un saut indiquant l’équipe qui vient de marquer.
8
3. On peut en conclure que l’algorithme utilisé par le New York Times n’est probablement pas tout
à fait au point : au moment où les courbes se sont croisées, le candidat rouge avait en fait déjà de
fortes chances de remporter l’élection. Pour l’algorithme de Five Thirty Eight, il est plus difficile
de se prononcer (d’autant que le match étudié a été choisi exprès pour la forme "intéressante" de
la courbe).