Cours Processus Et Calcul Stochastique
Cours Processus Et Calcul Stochastique
Cours Processus Et Calcul Stochastique
Youssef Ouknine
MFE
Africa Business School
23 février 2022
Table des matières
2 Espérance conditionnelle 8
2.1 Martingales à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Quelques propriétés élémentaires des martingales . . . . . . . . . . . . . . . . . 12
2.2 Application en finance : pricing des options . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Le modèle de Cox, Ross et Rubinstein . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Calcul des prix des options européennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Algorithme du pricing des options européennes pour le modèle CRR . . . . . . . 15
2.4 Calcul des prix des options américaines . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1 Notion de temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.2 Martingales, sous–martingales et surmartingales en temps continu . . . . . . . . 19
2.5 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Temps d’arrêt en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1
2
Xt : Ω −→ Rn
ω 7−→ Xt (ω).
Soit (ξi )i∈N une suite de v.a. i.i.d. On pose pour t ≥ 0, Xt = ξ[t] où [t] désigne la partie entière de
t. On définit aussi
[nt]
X X
t
Sn = ξi , Xt = ξi
i=1 i≤t
3
4
k √1 ξk+1 ,
Pour tk = N
on aura BtN0 = 0, BtNk+1 = BtNk + N
ainsi pour s < t
1 X
BtN − BsN = √ ξk
N sN <k≤N t
√
t−s X
= p ξk
N (t − s) sN <k≤N t
Si les ξk suivent la loi normale centrée réduite (N (0, 1)), le théorème limite centrale entraı̂ne que
BtN − BsN converge en loi lorsque N tend vers l’infini vers une variable aléatoire ξs,t qui suit une loi
normale N (0, t − s).
Définition 1.1.1 (Modification) Soient X et Y deux processus stochastiques, définis sur le même
espace de probabilité. On dira que X est une modification de Y si
∀ t≥0 P [Xt = Yt ] = 1.
Exemple 1.1.1 Considérons une v.a. positive T de distribution de probabilité continue. Prenons
0 sur {T 6= t}
Xt ≡ 0 et soit Yt =
1 sur {T = t}.
Alors Y est une modification de X, car pour tout t ≥ 0 on a P[Xt = Yt ] = P [T 6= t] = 1, mais d’autre
part P [Xt = Yt ∀ t ≥ 0] = 0.
Exemple 1.1.2 On prend pour (Ω, F, P ) l’espace de probabilité ([0, 1], B([0, 1], dx) où dx la mesure
de Lebesgue sur [0, 1]. Soit {Xt , t ≥ 0} le processus défini par : (ω, t) ∈ [0, 1] × R+ Xt (ω) = ω + at, i.e.
les trajectoires de {Xt , t ≥ 0} sont des demi–droites de pente a et d’ordonnée ω à l’origine.
Soit {Yt , t ≥ 0} le processus défini sur le même espace par : (ω, t) ∈ [0, 1] × R+ , Yt (ω) = ω + at si t = ω
et Yt (ω) = 0 si t 6= ω. Dans ce cas les trajectoires de {Yt , t ≥ 0} sont des demi–droites identiques de
pente 1 + a passant par 0 si t = ω et nulles ailleurs.
Y est une modification de X mais il n’est pas indistinguable de X.
Dans toute la suite, on travaille sur une base stochastique satisfaisant les conditions habituelles,
modulo la relation d’équivalence :
X R Y ⇐⇒ X et Y sont indistinguables.
5
Définition 1.2.1 Soit X = (Xt )0≤t≤T un processus stochastique indexé par T sur à valeurs dans
(E, E).
1. X est continu en probabilité sur T si ∀ t ∈ T ε > 0 lims→t,s∈T P (d(Xt , Xs ) > ε) = 0.
2. X est continu en moyenne d’ordre p ≥ 1 si ∀ t ∈ T E[|Xt |p ] est fini et l’application t 7→ Xt est
continue de T dans l’espace normé Lp (Ω, F, P ) i.e. lims→t,s∈T E[|Xt − Xs |p ] = 0
3. X est presque sûrement à trajectoires continues s’il existe N négligeable tel que ∀ ω ∈
/ N
l’application t 7→ Xt (ω) soit continue.
4. X est dit continu à droite et limité à gauche (càdlàg) s’il existe N négligeable tel que ∀ ω ∈
/N
l’application t 7→ Xt (ω) soit continue à droite et limitée à gauche. i.e.
Théorème 1.2.1 Si X et Y sont càdlàg et X est une modification de Y alors X et Y sont indistin-
guables .
Preuve. Soient NX l’ensemble des ω tel que X· (ω) ne soit pas continue à droite et NY l’ensemble des
ω tel que Y· (ω) ne soit pas continue à droite.
Soit M = {ω ∈ Ω : ∃ q ∈ Q tel que Xq (ω) 6= Yq (ω)} = ∪q∈Q {ω ∈ Ω : Xq (ω) 6= Yq (ω)}.
On pose N = NX ∪ NY ∪ M, c’est un négligeable.
Soient t ≥ 0 et ω ∈/ N alors Xr (ω) = Yr (ω) pour tout r ∈ Q, faisant tendre r ∈ Q tel (r > t) vers t,
et par la continuité à droite Xt (ω) = Yt (ω), d’où X et Y sont indistinguables.
Remarque 1.2.1 Deux processus indistinguables ont les mêmes trajectoires p.s., en revanche on peut
construire deux processus qui sont une modification l’un de l’autre et telles que les trajectoires du
premier soient continues et celles du second soient discontinues.
Exemple 1.2.1 Soit (Xt : t ∈ [0, 1]) un processus continu défini sur (Ω, F). On pose :
Yt := Xt + 1{U } (t)
où U est une variable aléatoire uniforme sur [0, 1] et définie sur le même espace de probabilité. Comme
{Yt = Xt } = {U 6= t} et que P(U = t) = 0, on en déduit que Y est une modification de X, pourtant
toutes les trajectoires de Y sont discontinues.
Définition 1.2.2 On dit qu’un processus X est progressivement mesurable pour la filtration (Ft , t ≥ 0)
si ∀ t ≥ 0, ∀ A ∈ B(R)
est mesurable.
6
Proposition 1.2.1 [Meyer (1966), p. 68] Si X est un processus mesurable adapté, alors il admet une
modification progressivement mesurable.
Proposition 1.2.2 Si X est un processus mesurable adapté et admet des trajectoires càd ou càg, alors
il est progressivement mesurable.
Preuve : On définit
k k+1
Xsn (ω) = X(k)t2−n (ω) pour s ∈ n t, n t ; X0n (ω) = X0 (ω), k = 0, · · · , 2n − 1
2 2
Il est clair que l’application (ω, s) 7−→ Xsn (ω) est Ft ⊗ B([0, t])–mesurable. Par continuité à gauche,
la suite Xsn (ω) converge vers Xs (ω) pour tout (ω, s) et donc la limite est aussi Ft ⊗ B([0, t])–mesurable.
X: Ω −→ E I
ω 7−→ (Xt (ω))t∈I
où E I désignant l’ensemble des applications de I dans E peut-être muni de la tribu produit E I := ⊗t∈I E,
tribu engendrée par le système C des cylindres :
( )
Y
C= C= Ct : ∀ t ∈ I, Ct ∈ E et Ct = E sauf pour un nombre fini de t
t∈I
Lemme 1.3.1 Soit (Xt )t∈I un processus stochastique défini sur (Ω, F, P ) et à valeurs dans (E, E).
Alors l’application X : ω 7−→ (Xt (ω))t∈I est mesurable de (Ω, F) dans (E I , E I ).
Preuve. Avec les notations précédentes comme E I = σ(C), il suffit de montrer que pour tout C ∈ C,
X −1 (C) ∈ F. Q
Soit donc C = t∈I Ct : ∀ t ∈ I, Ct ∈ E et Ct = E sauf pour un nombre fini de t. On peut noter
t1 < t2 < . . . < tn les indices t pour lesquels Ct 6= E. Alors,
et ce dernier ensemble est bien dans F comme intersection d’élements de F, puisque par définition
d’un processus, chaque ω 7−→ Xti (ω) est mesurable.
Définition 1.3.2 Soit (Xt )t∈I un processus stochastique défini sur (Ω, F, P ) et à valeurs dans (E, E).
On appelle loi du processus aléatoire X, la mesure image PX de P par X, mesure sur l’espace produit
(E I , E I ), i.e.
∀ A ∈ E I , PX (A) = P (X ∈ A)
Proposition 1.3.1 Soit (Xt )t∈I un processus stochastique défini sur (Ω, F, P ) et à valeurs dans
(E, E). La loi de X est entièrement déterminée par la famille constituée par les lois de tout sous–vecteur
aléatoire fini (Xt1 , Xt2 , . . . , Xtn ), i.e. par les P(Xt1 ,Xt2 ,...,Xtn ) (·) pour tout n ∈ N et (t1 , t2 , . . . , tn ) ∈ I n .
7
Proposition 1.3.2 (i) La tribu P est engendrée par les processus X adaptés et continus
(ii) La tribu P est engendrée par {1A 1]s,t] : A ∈ Fs s < t}
Définition 1.3.4 Un processus réel X est dit prévisible si l’application (ω, t) 7→ Xt (ω) définie de
Ω × R+ est mesurable par rapport à P.
Chapitre 2
Espérance conditionnelle
Soit (Ω, F, P ) un Respace de probabilité complet et G une sous tribu de F et soit X une v.a. positive
intégrable (E [X] := Ω XdP < +∞). R
Nous savons que l’application A ∈ G 7→ µ(A) := A XdP = E[X1A ] est une mesure positive absolu-
ment continue par rapport à P i.e. µ P .
Par le théorème de Radon–Nikodym il existe une v.a. E[X | G], G–mesurable unique, E[X | G] ∈ L1 (G)
telle que Z
∀ A ∈ G µ(A) := E[X | G]dP.
A
c’est à dire Z Z
∀ A∈G XdP = E[X | G]dP.
A A
Définition 2.0.1 Soit G une sous tribu de F, l’espérance conditionnelle d’une v.a. intégrable X sa-
chant G est la v.a. E[X | G] (à une classe d’équivalence près) définie par les deux propriétés suivantes :
i) E[X | G] est G–mesurable,
R R
ii) Pour tout A ∈ G, A XdP = A E[X | G]dP .
8
9
j. (Inégalité de Jensen) Soit Φ une fonction convexe et X une v.a. intégrable telle que Φ(X) soit
intégrable, alors on a
Φ(E [X | G]) ≤ E [Φ(X) | G] .
On peut définir la probabilité conditionnelle d’un événement A ∈ F sachant une tribu B comme
suit
P (A | B ] = E[1A | B ].
Si la σ–algèbre B est engendrée par les variables aléatoires Y1 , . . . , Ym , alors, l’espérance condition-
nelle est représenté par E[X | Y1 , . . . , Ym ) et est une certaine fonction mesurable g(Y1 , . . . , Ym ) de ces
variables. En particulier, si les variables X, Y1 , . . . , Ym ont une loi conjointe absolument continue avec
une densité f (x, y1 , . . . , ym ), alors, l’espérance conditionnelle peut se calculer comme l’espérance par
rapport à la densité conditionnelle :
f (x, y1 , . . . , ym )
f (x | y1 , . . . , ym ) = R
R
f (z, y1 , . . . , ym )dz
c’est à dire Z
E[X | Y1 , · · · , Ym ] = xf (x | Y1 , · · · , Ym )dx.
R
Proposition 2.0.1 Supposons que X est une variable aléatoire de la forme X = f (Y, Z), où f est une
fonction bornée, Y une variable aléatoire indépendante de la σ–algèbre B et Z une variable aléatoire
B–mesurable. Alors l’espérance conditionnelle de X par rapport à la σ–algèbre B est donné par
Z
E[X | B] = E[f (Y, z) | B)|z=Z = f (y, Z)PY (dy),
R
Comme conséquence, E[X | B ] est une variable aléatoire dans L2 (Ω, B, P ) qui minimise l’erreur
moyenne quadratique :
et cela veut dire que l’espérance conditionnelle est l’estimateur optimal ,au sens des moindres carres ,
de X sachant la tribu B.
E[Mn ] = E[M0 ]
pour tout n. D’autre part, la condition (ii) peut s’écrire sous la forme équivalente
E[4Mn | Fn−1 ] = 0.
pour n = 1, . . . , N et où 4Mn = Mn − Mn−1 . Si M est une martingale, alors pour tout n = 0, 1, . . . , N ,
E[MN | Fn ] = Mn .
En effet,
Exemple 2.1.1 (1) Si M0 = 0 et Mn = ξ1 + . . . + ξn où les ξj sont des variables aléatoires centrées
et indépendantes. Soit de Fn la tribu engendrée par (ξ1 , . . . , ξn ). Nous avons
Lemme 2.1.1 Supposons que {Mn , n ≥ 0} est une martingale par rapport à la filtration Gn . Soit
Fn = σ(M0 , . . . , Mn ) ⊂ Gn . Alors {Mn , n ≥ 0} est une martingale par rapport à la filtration Fn .
Il est facile de voir que si les variables aléatoires Yn , n = 1, . . . , N sont bornées alors Xn est aussi une
martingale. En effet nous avons
Ce résultat reste valable en supposant seulement que E[XN− ) < +∞ où x− = max(−x, 0).
Sous cette hypothèse la démonstration est assez facile. C’est le contenu de la proposition suivante :
Preuve. Pour chaque entier naturelle k, on définit la variable aléatoire τ qui prend ses valeurs dans
l’ensemble {0, 1, . . . , N } de la manière suivante :
i) pour n = 1, . . . , N − 1, τk = n si |Yi | ≤ k pour i = 1, . . . , n et |Yn+1 | > k.
ii) τk = 0 si |Y1 | > k
iii) τk = N si |Yi | ≤ k pour i = 1, . . . , N .
La suite arrêtée Xnτk définie par
n
X
Xn∧τk = Y0 M0 + Yj 1{τk ≥j} 4 Mj .
j=1
12
est une martingale car les variables aléatoires Yj 1{τk ≥j} sont bornées par k et sont Fj−1 –mesurables.
Ceci est du au fait que {τk ≥ j} = {|Y1 | ≤ k, . . . , |Yj | ≤ k} ∈ Fj−1 .
La propriété de martingale nous dit que
E[X(n+1)∧τk | Fn ] = Xn∧τk .
En faisant tendre k vers l’infini et le fait que limk→+∞ τk = N , nous déduisons que
E[Xn+1 | Fn ] = Xn
du moment que les variables Xn sont intégrables. Pour démontrer l’intégrabilité de ces variables on
voit de manière recursive que E[Xn− ) < +∞ et E[Xn+ ) < +∞, où x+ = max(x, 0).
1. En utilisant l’inégalité de Jensen on obtient
Par conséquent
−
E[Xn− 1{τk ≥n+1} ) ≤ E[X(n+1)∧τ k
1{τk ≥n+1} ),
faisant tendre k vers l’infini on obtient
E[Xn− ) ≤ E[Xn+1
−
) ≤ E[XN− ) < +∞.
2. Lemme de Fatou.
E[Mm | Fn ] = Mn .
En effet,
3. Si {Mn } est une martingale et ϕ est une fonction convexe telle que E[|ϕ(Mn )|) < ∞ pour tout
n ≥ 0, alors {ϕ(Mn )} est une sous–martingale. En effet, par l’inégalité de Jensen de l’espérance
conditionnelle nous avons
En particulier, si {Mn } est une martingale telle que E[|Mn |p ] est finie pour tout n ≥ 0 pour un
certain p ≥ 1, alors {|Mn |p } est une sous–martingale.
4. Si {Mn } est une sous–martingale et ϕ est une fonction convexe croissante telle que E[|ϕ(Mn )|)
soit finie pour tout n ≥ 0, alors {ϕ(Mn )} est une sous–martingale. L’inégalité de Jensen et la
croissance de ϕ donne
En particulier, si {Mn } est une sous–martingale, alors {Mn+ } et {Mn ∨ a} sont des sous–
martingales.
pour n = 0, 1, . . . , N − 1, ou bien
Ven+1 (φ) − Ven (φ) = φn+1 · Sen+1 − Sen .
pour n = 1, . . . , N .
Observons que Ve0 (φ) = V0 (φ).
Si {Sen : 0 ≤ n ≤ N } est une martingale alors {Ven (φ) : 0 ≤ n ≤ N } est une aussi une martingale.
On fait les hypothèses suivantes sur l’évolution du cours de l’actif risqué : entre deux périodes
consécutives, la variation relative des cours est soit d, soit u, avec −1 < d < u :
Sn (1 + d)
Sn+1 =
Sn (1 + u).
Le cours initial S0 est donné. L’espace naturel des résultats possibles est donc Ω = {1 + d, 1 +
u}N , chaque N –uple représentant les valeurs successives de Sn+1 /Sn , n = 0, 1, . . . , N − 1. On prend
naturellement : F0 = {∅, Ω}, et F = P(Ω). La tribu Fn sera, pour n = 1, . . . , N , la tribu σ(S1 , . . . , Sn )
engendrée par les variables aléatoires S1 , . . . , Sn . L’hypothèse définissant P à une équivalence près est
que tous les singletons de Ω ont une probabilité non nulle.
D’après les propriétés de l’espérance conditionnelle, Proposition 2.0.1 nous avons Cn = f (n, Sn ) avec
!+
YN
f (n, x) = (1 + r)n−N EQ x Ti − K
i=n+1
N −n
X (N − n)! +
= (1 + r) n−N
q j (1 − q)N −n−j x(1 + d)j (1 + u)N −n−j − K .
j=0
j!(N − n − j)!
Alors qu’une option de vente de prix d’exercice K a pour payoff (K − SN )+ , et son prix Pn à l’instant
n est donné par
Pn = (1 + r)n−N EQ (K − SN )+ | Fn .
= (1 + r)n−N EQ [(SN − K) | Fn ]
= Sn − K(1 + r)n−N .
On peut également déterminer un portefeuille qui duplique l’option d’achat. De plus il est unique dans
ce cas. Un tel portefeuille doit vérifier
αn Bn + βn Sn = f (n, Sn ).
et par suite
f (n, Sn−1 (1 + u)) − f (n, Sn−1 (1 + d))
βn =
Sn−1 (u − d)
f (n, Sn−1 (1 + d)) − βn Sn−1 (1 + d)
αn =
(1 + r)n
Définition 2.4.2 Une variable aléatoire τ , à valeurs dans {0, 1, 2, . . . , N } est un temps d’arrêt si,
pour tout n ∈ {0, 1, . . . , N }, {τ = n} ∈ Fn .
Proposition 2.4.1 Une variable aléatoire τ est un temps d’arrêt si et seulement si, pour tout n ∈
{0, 1, . . . , N }, {τ ≤ n} ∈ Fn .
Preuve. Facile
Introduisons maintenant la notion de “suite arrêtée à un temps d’arrêt”. Soit {Xn }0≤n≤N une suite
adaptée à la filtration {Fn }0≤n≤N et soit τ un temps d’arrêt. La suite arrêtée à l’instant τ est définie
par :
Xnτ (ω) = Xn∧τ (ω) (ω).
c’est à dire que, sur l’ensemble {τ = j} on a :
τ Xj si j ≤ n
Xn =
Xn si j > n,
On se donne une suite {Zn }0≤n≤N adaptée, et on se propose d’étudier la suite {Un }0≤n≤N définie par
les relations :
UN = ZN
(2.4.2)
Un = max (Zn , E (Un+1 | Fn )) ∀ n ≤ N − 1.
La suite {Un }0≤n≤N est appelée enveloppe de Snell de la suite {Zn }0≤n≤N .
Proposition 2.4.2 La suite {Un }0≤n≤N est la plus petite sur–martingale majorant la suite {Zn }0≤n≤N .
17
Preuve. Pour tout n nous avons Un ≥ Zn et Un ≥ E[Un+1 | Fn ) d’où {Un }0≤n≤N est une Fn –sur–
martingale.
Soit {Vn }0≤n≤N une Fn –surmartingale telle que Vn ≥ Zn pour tout n. En particulier VN ≥ ZN = UN .
Si maintenant un n fixé on Vn ≥ Un alors Vn−1 ≥ E[Vn | Fn−1 ) ≥ E[Un | Fn−1 ). Or V domine Z d’où
Vn−1 ≥ Zn−1 = E[Zn−1 | Fn−1 ) par conséquent
τ0 = inf{n ≥ 0 : Un = Zn }
est un temps d’arrêt et que la suite arrêtée {Unτ0 }0≤n≤N est une martingale.
En effet n
X
Unτ0 = Un∧τ0 = U0 + 1{j≤τ0 } (Uj − Uj−1 ).
j=1
et
τ0
Unτ0 − Un−1 = 1{n≤τ0 } (Un − Un−1 ).
Or {n ≤ τ0 } est le complémentaire de {τ0 < n} = {τ0 ≤ n − 1} qui appartient à Fn−1 il en résulte que
pour tout n ≤ N , 1{n≤τ0 } est Fn−1 –mesurable par suite
τ0
E[Unτ0 − Un−1 | Fn−1 ] = 1{n≤τ0 } E[Un − Un−1 | Fn−1 ] = 0
car sur {n ≤ τ0 } nous avons Un−1 > Zn−1 de sorte que Un−1 = E[Un | Fn−1 ].
La propriété de martingale de la suite {Unτ0 }0≤n≤N permet de montrer le résultat suivant, qui fait
le lien entre enveloppe de Snell et le problème d’arrêt optimal.
puisque U domine Z.
Si Zn s’interprète comme la somme des gains d’un joueur après n parties d’un jeu de hasard, on
voit que s’arrêter de jouer à l’instant τ0 permet de maximiser le gain moyen sachant F0 .
Dans la suite, nous noterons Tn,N , l’ensemble des temps d’arrêt qui prennent leurs valeurs dans
{n, n + 1, . . . , N }.
18
Remarque 2.4.1 Plus généralement si Un est défini par la relation (2.4.2) nous avons
Un = E[Zτn | Fn ] = sup E[Zτ | Fn ]
τ ∈Tn,N
où τn = inf{k ≥ n : Uk = Zk }.
Si F0 est la tribu triviale alors la relation (2.4.3) devient
U0 = E[Zτ0 ] = sup E[Zτ ].
τ ∈T0,N
Définition 2.4.3 On appelle temps d’arrêt optimal pour la suite {Zn }0≤n≤N tout temps d’arrêt τ ∗ tel
que
E[Zτ ∗ ] = sup E[Zτ ].
τ ∈T0,N
car U domine Z. Or {Unσ }0≤n≤N est une sur–martingale d’où E[Uτ ] ≤ E[U0 ] = U0 , ce qui implique
E[Zτ ] = E[Uτ ], par suite Uτ = Zτ .
Il reste à montrer {Unτ }0≤n≤N est une martingale. La propriété de surmartingale de {Unτ }0≤n≤N
donne
E[Uτ ] ≤ E[Uτ ∧n ] ≤ E[U0 ] = E[Zτ ] = E[Uτ ]
ainsi E[Uτ ∧n ] = E[Uτ ] i.e. E[Uτ ∧n − Uτ ] = 0 de plus
E[Uτ | Fn ] ≤ Uτ ∧n
d’où
E [Uτ ∧n − E[Uτ | Fn )] = E [Uτ ∧n ] − E[Uτ ] = 0,
E[Uτ | Fn ] = Uτ ∧n , c’est bien la propriété de martingale de {Unτ }0≤n≤N .
La valeur {Un }0≤n≤N d’une option américaine décrite par une suite {Zn }0≤n≤N est définie par les
relations :
UN = ZN
0 Un+1
Un = max Zn , Sn EQ 0
Fn ∀ n ≤ N − 1.
Sn+1
Nous allons exprimer la suite {U en }0≤n≤N définie par Uen = Un0 (valeur actualisée de l’option) à l’aide
Sn
de l’enveloppe de Snell sous Q de la suite {Zen }0≤n≤N .
Par conséquent h i
Un = sup EQ Zeτ
e Fn .
τ ∈Tn,N
19
Martingale sous–martingale
M est dite martingale si M est dite sous–martingale si :
i) M est adaptée à Ft , i’) M est adaptée à Ft ,
ii) ∀ 0 ≤ s < t, E[Mt | Fs ] = Ms . ii’) ∀ 0 ≤ s < t, E[Mt | Fs ] ≥ Ms .
Exemple 2.4.1 Soit Y une v.a. intégrable. On pose Mt = E[Y | Ft ], {Mt , t ≥ 0} est une Ft –
martingale.
Exemple 2.4.2 Soient Φ une fonction convexe, croissante, (Mt , Ft ) est une sous–martingale telle que
Φ(Mt ) soit intégrale pour tout t ≥ 0. Alors (Φ(Mt ), Ft ) est une sous–martingale.
Remarque 2.4.2 Si {Xt , t ≥ 0} est une martingale alors t 7→ E[Xt ] = E[X0 ], par conséquent X est
càdlàg.
1
{τ ≤ t} = ∩n>0 {τ < t + } ∈ ∩n>0 Ft+ 1 = Ft
n n
par suite
1 1
{τ = t} = ∩n>0 t − < τ ≤ t + ∈ ∩n>0 ∈ Ft+ 1 = Ft
n n n
{τ < t} = {τ ≤ t}\{τ = t} ∈ Ft
d’où le résultat.
Exemple 2.5.1 Soit X un processus continu, adapté à Ft , soit D un ouvert de R, on pose τ = inf{t >
0 : Xt ∈ D} c’est le temps d’entrée dans D. Alors τ est un (t.a.)
Théorème 2.5.1 Soit X un processus càdlàg et adapté à Ft , soit D un fermé de R, si τ = inf{t >
0 : Xt ∈ D ou Xt− ∈ D}, où Xt− = lims%t Xs , alors τ est un temps d’arrêt.
Théorème 2.5.2 Si τ1 et τ2 sont deux temps d’arrêt alors τ1 ∨ τ2 , τ1 ∧ τ2 , ατ1 , pour α > 1 et τ1 + τ2
sont des temps d’arrêt.
{τ1 + τ2 > t} = {τ1 = 0, τ2 > t} ∪ {τ2 > t, τ1 = 0} ∪ {τ2 ≥ t, τ1 > 0} ∪ {0 < τ2 < t, τ1 + τ2 > t}
les trois premiers événements de cette décomposition sont dans Ft , le quatrième événement peut
s’écrire
{0 < τ2 < t, τ1 + τ2 > t} = ∪r∈Q+ ,0<r<t {r < τ2 < t, τ1 > t − r}
or pour tout r < t, {r < τ2 < t, τ1 > t − r} ∈ Ft .
En particulier si τ est un temps d’arrêt alors τ ∧ t est un temps d’arrêt.
21
Définition 2.5.2 On associe à un temps d’arrêt τ la tribu Fτ dite des événements antérieurs à τ ,
définie par
Fτ = {A ∈ F : A ∩ 1{τ ≤t} ∈ Ft ∀ t ≥ 0}.
Définition 2.5.3 Une famille de v.a. {Uα , α ∈ I} est dite uniformément intégrable si
Z
lim sup |Uα |dP = 0,
n→+∞ α∈I {|Uα |≥n}
Définition 2.5.4 Un processus adapté à trajectoires continues M = {Mt , t ≥ 0} tel que M0 = 0 p.s.
est une martingale locale continue s’il existe une suite croissante de temps d’arrêt {τn , n ∈ N} telle
que τn croit p.s. vers +∞ et pour tout n le processus arrêté M τn est une martingale uniformément
intégrable.
2.5.2 Propriétés
i. Une martingale à trajectoires continues est une martingale locale (τn = n).
ii. Si M est une martingale locale alors pour tout temps d’arrêt τ , M τ est une martingale locale.
iii. L’espace des martingales locales est un espace vectoriel.
Théorème 2.5.3 Soit M une martingale locale continue nulle en zéro i.e. M0 = 0. Alors si M est
un processus à variation finie, M est indistingable de 0 i.e. Mt = 0 pour tout t P –p.s.
Ce résultat s’étend à tous les temps d’arrêt si la martingale est uniformément intégrable.
Si M est uniformément intégrable, on peut montrer que Mt converge p.s. et dans L1 vers M+∞
quand t → +∞ et que Mτ = E[M+∞ | Fτ ].
Proposition 2.6.1 Si pour tout temps d’arrêt borné τ , E[Xτ ] = E[X0 ], alors le processus X est une
martingale.
Remarque 2.6.1 Attention, si E[Xt ] = E[XR0 ] pour tout t, le processus X n’est pas nécessairement
t
une martingale. Un contre exemple est Xt = 0 Mu du où M est une martingale d’espérance nulle.
22
Si M est une sur–martingale positive et τ un temps d’arrêt, E[Mτ ] ≤ E[M0 ] où on pose M+∞ = 0.
Une martingale locale positive est une sur–martingale. Une martingale locale uniformément intégrable
est une martingale.
La plus part des propriétés des martingales discrètes restent valables en temps continu. En parti-
culier la version continue de l’inégalité maximale de Doob :
Proposition 2.6.2 Soit {Mt , 0 ≤ t ≤ T } une martingale à trajectoires continues. Alors pour tout
p ≥ 1 et λ > 0 nous avons
E [|MT |p ] .
P sup |Mt | > λ ≤
0≤t≤T λp
Cette inégalité permet d’estimer le moment d’ordre 2 du sup0≤t≤T |Mt | :
E sup |Mt | ≤ 4E[|MT |2 ].
2
0≤t≤T
Chapitre 3
Lemme 3.1.1 Soit Γ un cube de Rn et {Xt , t ∈ Γ} un processus stochastique à valeurs réelles. Sup-
posons qu’il existe des constantes k > 1, K > 0 et µ > 0 vérifiant
h i
E |Xt − Xs |k ≤ K |t − s|n+µ ,
E [f (Xt+h − Xt ) g (Y )] = E [f (Xt+h − Xt )] · E [g (Y )]
23
24
loi (Xt1 +h1 − Xt1 , · · · , Xtn +hn − Xtn ) = loi (Xh1 , · · · , Xhn ) .
en particulier ∀ A borelien
P [Xt+h − Xt ∈ A] = P [Xh ∈ A]
Un processus stochastique peut être considéré comme une v.a. à valeurs dans RR+ que l’on note X·
i.e.
X· Ω −→ RR+
ω 7−→ X· (ω)
et pour tout A ∈ B(RR+ ), PX· (A) = P [X·−1 (A)] = P [ω ∈ Ω : X· (ω) ∈ A]. De façon générale la loi PX·
peut être définie à partir des loi(Xt1 , . . . , Xtn ) pour tout n > 0 et pour tout t1 < t2 , . . . , < tn , cela est
une conséquence du fait que B(RR+ ] = σ(∪n>0 ∪0≤t1 <t2 <...<tn σ(R{t1 ,t2 ,...,tn } )).
Dans le but d’étudier les variations des prix dans la Bourse, Bachelier, a met en évidence en 1900
le caractère “markovien” du mouvement Brownien : la position d’une particule à l’instant t + s sachant
le present t dépend de sa position à l’instant t, et pas de sa position avant t.
En 1905, Einstein détermine la densité de transition du mouvement Brownien par l’intermédiaire
de l’équation de la chaleur et relie ainsi le mouvement Brownien et les équations aux dérivées partielles
de type parabolique.
Définition 3.1.3 On dit qu’un processus stochastique B = {Bt , t ≥ 0} est mouvement Brownien réel
si B est à accroissements indépendants, stationnaire et continu sur la base stochastique (Ω, F, (Ft )t≥0 , P )
où Ft = σ(Bs , 0 ≤ s ≤ t) ∨ N .
1 2
De plus loi(Bt ) = √2πt exp(− x2t )dx, par suite E[Bt ] = 0 et Var(Bt ] = E[Bt2 ] = t pour tout t ≥ 0, où
Var désigne la variance.
2
Soit X une variable aléatoire de loi normale N (0, σ 2 ). De l’expression E[exp(λX)] = exp( λ2 σ 2 ),
on déduit les formules suivantes pour les moments de X :
(2k)! 2k
E[X 2k ] = σ et E[X 2k+1 ] = 0, pour tout k ≥ 0
2k k!
Par conséquent
(2k)!
E[(Bt − Bs )2k ] =
k
|t − s|k .
2 k!
Ainsi d’après le lemme 3.1.1 le Brownien admet une version hölderienne d’ordre inférieur strictement
à 12 .
Preuve. Pour tout s > 0, Bts = Bt+s − Bs est un accroissement du Brownien (Bt )t≥0 donc suit une
loi N (0, s). De plus les accroissements de (Bts )t≥0 sont des accroissements du processus initial (Bt )t≥0
donc sont encore indépendants.
Enfin, t 7−→ Bts est continue pour presque tout ω comme différence d’applications continues. Ce
qui prouve que (Bts )t≥0 est encore un mouvement Brownien.
Concernant l’indépendance de ce nouveau processus avec la tribu Fs , il s’agit de vérifier l’indépendance
de tout sous vecteur fini extrait de (Bts )t≥0 avec tout sous vecteur fini extrait de (Bt )t≤s . Soient donc
n et p deux entiers positifs strictement, 0 < t1 < . . . < tn et 0 < r1 < . . . < rp < s. On considère les
vecteurs Vn = (Bts1 , . . . , Btsn ) et Vp = (Br1 , . . . , Brp ). Ces deux vecteurs forment un vecteur gaussien
(Vn , Vp ) donc l’indépendance équivaut à une matrice de covariance diagonale par blocs :
Propriétés principales
Proposition 3.1.2 Soit B un mouvement Brownien réel. Les propriétés suivantes sont vérifiées :
(i) pour tout ε > 0, on a P –p.s. supt∈[0,ε] Bt > 0 et inf t∈[0,ε] Bt < 0.
(ii) pour tout ε > 0, le mouvement Brownien a un zéro p.s. sur l’intervalle ]0, ε[
(iii) notons Ta le premier temps de passage en a ∈ R∗ , i.e. Ta := inf{t > 0 : Bt = a} (avec inf ∅ = ∞
par convention). Alors on a pour tout a ∈ R∗ , P (Ta < +∞) = 1.
(iv) on a p.s. lim supt7→+∞ Bt = +∞ et lim inf t7→+∞ Bt = −∞
(v) on a p.s. limt7→+∞ Btt = 0.
(vi) Les trajectoires browniennes ne sont pas p.s. dérivables.
Preuve.
(vi) Par la proposition 3.1.1, le mouvement Brownien étant invariant par translation, il suffit de
démontrer la non–dérivabilité en 0, c’est–à–dire montrer que la quantité
Bh − B0 Bh
=
h−0 h
n’admet pas de limite lorsque h → 0. Or, par la propriété de retournement du temps, le processus
{Xt := tB1/t , t > 0}, X0 = 0 est aussi un mouvement Brownien. Ainsi, Xhh a le même comportement
que B 1 , qui n’admet pas de limite lorsque h → 0 d’après le point (iv) de la proposition 3.1.2.
h
Notation et généralisation.
Le processus Xt = x + Bt est appelé mouvement brownien issu de x. On dit que X est un Brownien
généralisé ou un MB de drift µ si Xt = x + µt + σBt où B est un mouvement Brownien. La variable
Xt est une variable gaussienne d’espérance x + µt et de variance σ 2 t.
Les v.a. {Xti+1 − Xti , t0 < t1 < . . . < tn } sont indépendantes.
On notera aussi par Ex [f (Bt )] l’espérance de f (Bt ) quand B est un Brownien issu de x, sans
toujours faire cette précision. Cette quantité est égale à E[f (x + Bt )] où B est un Brownien issu de 0.
De la même façon, nous utiliserons la notation Px (Bt ∈ A) pour P (x + Bt ∈ A) et Px (Bt ∈ dy) pour
la densité de la v.a. Bt où B est un Brownien partant de x.
Preuve : Soit u ≥ t. On fait apparaı̂tre les accroissements et on utilise les propriétés de l’espérance
conditionnelle :
E [f (Bu ) | Ft ] = E [f (Bu − Bt + Bt ) | Ft ] = C(u − t, Bt )
avec C(u − t, x] = E[f (Bu − Bt + x)] = E[f (Y + x)] où Y a même loi que Bu − Bt , soit une loi
N (0, u − t). Par les mêmes arguments,
On a très précisément
(y − x)2
Z
1
C(s, x) = √ f (y) exp − dy
2πs R 2s
Une autre façon de décrire cette propriété est de dire que, pour u > t, conditionnellement à Bt , la v.a.
Bu est de loi gaussienne d’espérance Bt et de variance u − t. Alors
pour u ≥ t.
Proposition 3.2.1 Propriété de Markov forte : Soit T un temps d’arrêt à valeurs finies. On a alors
En particulier, pour tout temps d’arrêt fini T , le processus {Wt , t ≥ 0} défini par Wt := Bt+T − BT
est un mouvement Brownien indépendant de FT .
(y − x)2
1
G(t, x, y) = √ exp − = G(t, x − y)
2πt 2t
la densité de transition du mouvement Brownien. C’est de façon heuristique, la probabilité pour que
le mouvement Brownien soit en y sachant que t instants auparavant, il se trouvait en x, c’est aussi la
densité conditionnelle
∂G 1 ∂ 2G ∂G 1 ∂ 2G
(t, x, y) = (t, x, y) et (t, x, y) = (t, x, y).
∂t 2 ∂y 2 ∂t 2 ∂x2
En utilisant cette notation et la stationarité des accroissements du MB, on obtient que pour toute
fonction f borelienne bornée
Z
E[f (BT ) | Bt = x] = f (y)G(T − t, x, y)dy
R
27
cette fonction vérifie (l’équation de la chaleur) en utilisant le théorème de dérivation sous le signe
intégral.
∂u 1 ∂ 2 u
− = 0 et u(0, x, f ) = f (x) (3.2.1)
∂t 2 ∂x2
Remarquons que la régularité de u est héritée de la régularité de la densité gaussienne G et non pas
de f .
Pour calculer E[f (BT )], il suffit de résoudre l’équation aux dérivées partielles (3.2.1) et de remar-
quer que E[f (BT )] = u(T, 0, f ).
La densité p(s, t, x, y) vérifie les équations aux dérivées partielles suivantes
En fixant (s, x) on obtient l’équation de Kolmogorov forward
∂p 1 ∂ 2 p
− = 0 de condition initiale p(s, s, x, y) = δx (y)
∂t 2 ∂y 2
∂p 1 ∂ 2 p
+ = 0 de condition terminale p(t, t, x, y) = δy (x)
∂s 2 ∂x2
λ2 λ2
E exp λ(Bt − Bs ) − (t − s) Fs = E exp λ(Bt − Bs ) − (t − s)
2 2
28
L’espérance du second membre se calcule comme une transformée de Laplace d’une variable gaussienne.
On trouve
λ2
E exp λ(Bt − Bs ) − (t − s) =1
2
et
λ2 λ2
E exp λBt − t Fs = exp λBs − s
2 2
La réciproque est facile et utilise la caractérisation des variables aléatoires gaussiennes au moyen de
leur transformée de Laplace.
1 1 1
(Bt + Wt )2 − t = (Bt2 − t) + (Wt2 − t) + Bt Wt .
2 2 2
Chapitre 4
Définition 4.0.1 Soit T > 0. Un processus stochastique A : [0, T ] × Ω → R tel que A0 = 0 est dit à
variation finie si P –p.s. pour tout t ∈ [0, T ]
( n )
X
|A|t := sup Ati − Ati−1 < +∞
i=1
où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < . . . < tn = t de [0, t].
|A|t est appelé variation de A sur [0, t] et le processus t 7→ |A|t est appelé la variation totale de
A. Il est claire que |A|· est positif et croissant. Si limt→+∞ |A|t < +∞ alors le processus A est dit à
variations bornée.
Proposition 4.0.1 Tout processus à variation finie est différence de deux processus croissants.
Preuve. les processus (|A|· + A· )/2 et (|A|· − A· )/2 sont positifs croissants et A est égale à leur
différence.
L’importance de cette classe de processus apparaı̂t dans le théorème suivant et permet de définir
l’intégrale d’un processus continu par rapport à un processus à variation finie.
Théorème 4.0.1 Il existe une correspondance bijective entre les mesures aléatoires de Radon µ sur
[0, +∞[ et les processus continus à droite et à variation finie. Cette bijection est définie par
At = µ([0, t]).
où πn est une subdivision de taille n + 1 de [0, t] donnée par πn = {t0 = 0 < t1 < . . . < tn = t} ?
29
30
Théorème 4.1.1 Soit f une fonction continue et g une fonction à variation finie. L’intégrale de
Stieltjes de f par rapport à g est donnée par la limite suivante
X Z t
lim f (tj ) (g(tj+1 ) − g(tj )) existe et elle notée f (s)dg(s).
n→+∞ 0
πn
Nous allons maintenant caractériser les fonctions g pour lesquelles nous avons le résultat suivant :
pour toute fonction f , continue bornée
X Z t
Sn (f ) = f (tj ) (g(tj+1 ) − g(tj )) converge (sa limite est notée f (s)dg(s)).
πn 0
Théorème 4.1.2 Sn (f ) converge pour toute fonction f , continue bornée si et seulement si g est à
variation bornée.
Théorème 4.1.3 Soit E un espace de Banach et K un espace normé. Soit Ln une famille d’opérateurs
bornés de E vers K.
Si ∀ x ∈ E, {||Ln (x)||}n≥0 est borné. Alors {||Ln ||}n≥0 est borné i.e.
Preuve du Théorème 4.1.2. La condition P suffisante est donnée par le théorème 4.1.1. Montrons
la condition nécessaire. On pose Ln (f ) = πn f (tj )(g(tj+1 ) − g(tj )), πn est une subdivision fixé de
[0, t]. Ln est un opérateur linéaire. De plus si f est fixé {||Ln (f )||}n≥0 est convergente par hypothèse, par
conséquent {||Ln (f )||}n≥0 est borné. D’où par le Théorème 4.1.3, supn ||Ln || = supn {sup||f ||≤1 ||Ln (f )||} ≤
C i.e. pour tout n > 0 on a sup||f ||≤1 ||Ln (f )||} ≤ C.
Considérons une subdivision πn0 = {ti }f ini de [0, t]. Il existeP une fonction f0 continue bornée telle que
f0 (ti ) = sgn(g(ti+1 )−g(ti )) et ||f0 || ≤ 1. Par suite Ln (f0 ) = πn0 |g(ti+1 )−g(ti )| ≤ C. D’où la variation
total |g| de g est bornée, ce qui complète la preuve.
Théorème 4.1.4 Soit πn une suite de partitions de [a, a + t], a ≥ 0. On suppose que πn est raffinante
i.e. πm ⊂ πn si m > n et que le pas |πn | de πn tend vers 0. Soit B un mouvement Brownien réel, on
pose X 2
Sn (B) = Bti+1 − Bti .
ti ∈πn
Alors
lim Sn (B) = t P –p.s.
n→+∞
D’où Sn (B) −P t converge vers 0 dans L2 (Ω), et par suite Sn (B) − t converge vers 0 en probabilité. Or
Pn (B) − t = ti ∈πn Yi et les Yi sont des v.a. indépendantes, donc la convergence en probabilité de
S
ti ∈πn Yi entraı̂ne sa convergence presque sûrement.
Corollaire 4.1.1 La trajectoire brownienne t 7→ Bt (ω) n’est pas à variation bornée sur [a, a + t]
∀ t > 0. i.e. le mouvement Brownien fait une infinité d’oscillations qu’on ne peut pas contrôler sur
[a, a + t].
Autrement {ω ∈ Ω : t 7→ Bt (ω) est à variation bornée sur [a, a + t] pour tout t > 0} est négligeable.
Preuve. Nous allons raisonner par l’absurde. Supposons que t 7→ Bt (ω) était à variation finie sur un
intervalle [a, a+t∗ ]. Comme la fonction t 7→ Bt (ω) est continue, par l’uniforme continuité de t 7→ Bt (ω)
sur [a, a + t∗ ], pour tout ε > 0 il existe un entier N > 0, δ > 0 tel que ∀ n > N et |πn | ≤ δ implique
sup |Bti+1 − Bti | < ε. Ceci impliquerait que limn→+∞ Sn (B) = 0. Ce qui contredirait
q le Théorème 4.1.4.
Pn−1 t
Intuitivement nous avons ∆Bi = Bti+1 − Bti . Alors i=0 |∆Bi | ' n n → +∞.
Nous donnons ci–dessous quelques formules connues dans le cas déterministe et qui s’étendent
aisément aux processus à variation finie.
Proposition 4.1.1 (Formule d’intégration par partie) Soient {Ht , t ≥ 0} et {Gt , t ≥ 0} deux
processus continues et à variation finie, alors pour tout t
Z t Z t
Ht Gt = H0 G0 + Hs dGs + Gs dHs . (4.1.2)
0 0
Rt Rt
En revanche l’intégrale 0
Hs dGs est définie ω par ω i.e. la variable aléatoire ( 0
Hs dGs )(ω) :=
Rt
0
Hs (ω)dGs (ω).
La proposition suivante montre que les fonctions de classe C 1 opèrent sur les processus à variation
finie.
Preuve. Le résultat est vrai pour F (x) = x, et s’il est vrai pour une fonction F de classe C 1 il
en est de même pour xF (x) comme on peut le voir en utilisant la formule d’intégration par partie
(Proposition 4.1.1). Par conséquent le résultat est vrai pour les polynômes. Puis on complète la preuve
en approximant les fonctions de classe C 1 par une suite de polynômes.
Remarque 4.1.2 a) On peut définir l’intégrale de Stieltjes d’une fonction g continue et à variation
finie par rapport à une fonction h continue par la formule (4.1.2) de la façon suivante
Z t Z t
g(s)dh(s) = h(t)g(t) − h(0)g(0) − hs dg(s). (4.1.4)
0 0
Soit {ht (ω), t ≥ 0} un processus Ft –adapté. Notre but est de définir une intégrale de h par rapport
à B que nous notons Z T Z T
“ hs (ω)dBs (ω) = hs dBs ”
0 0
Remarquons d’abord que si on fixe ω dans Ω et si on suppose que le processus {hs , s ≥ 0} est continu
RT
alors l’intégrale 0 hs (ω)dBs (ω) est divergente. Sinon la trajectoire brownienne serait à variation finie.
RT RT
Par conséquent “ 0 hs dBs ” sera étudiée comme une variable aléatoire i.e. ( 0 hs dBs )(ω).
Il est raisonnable de commencer, dans un premier temps, par la définition de cet objet pour les
processus simples (élémentaires) et ensuite étendre la définition par des procédés d’approximation
convenable au cas général.
Un processus élémentaire est un processus de la forme
n−1
X
ht (ω) = hj (ω)1]tj ,tj+1 ] (t) pour t ∈ [0, T ]
j=0
Mais, sans hypothèses supplémentaires sur les variables aléatoires {hj , 0 ≤ j ≤ n − 1}, l’expression
de droite de la relation (5.0.1) conduit à des difficultés comme le montre l’exemple suivant.
33
34
RT Pn−1
Alors 0
hs dBs = j=0 Btj [Btj+1 − Btj ], par conséquent
Z T n−1
X
E hs dBs = E Btj Btj+1 − Btj = 0,
0 j=0
Donc, même ci les processus h et g semblent être une approximation raisonnable de ht = Bt , leurs
intégrales correspondantes suivant la formule (5.0.1) sont différentes. Ceci reflète le fait que les varia-
tions de la trajectoire
RT brownienne sont aussi grandes qu’elles ne permettent pas de définir l’intégrale
stochastique 0 hs dBs au sens de Riemann–Stieltjes. En revanche on peut montrer que les trajectoires
browniennes ne sont dérivables en aucun point p.s. (voir Breiman 1968). En particulier la variation
totale du Brownien est infinie p.s.
R1 R1
Question a-t-on 0 sin(B1 )dBs = sin(B1 ) 0 dBs ?
Nous allons maintenant décrire la classe des processus pour laquelle l’intégrale stochastique sera
définie.
On note par L2ad (T ) la classe des processus
h : [0, +∞[×Ω −→ R
(s, ω) 7−→ hs (ω)
telle que
(i) (s, ω) 7−→ hs (ω) soit B ⊗ Fs –mesurable, où B est la tribu borélienne de [0, +∞[
RT
(ii) hs (ω) soit Fs –adapté et E 0 |hs (ω)|2 ds < +∞.
Nous allons donc construire l’intégrale stochastique de Itô d’un élément de L2ad (T ) par rapport à
un mouvement Brownien B de dimension 1.
Pour cela, soit h ∈ L2ad (T ) un processus élémentaire i.e. de la forme :
n−1
X
ht (ω) = htj (ω)1]tj ,tj+1 ] (t).
j=0
Puisque h ∈ L2ad (T ) les variables aléatoires htj (ω) doivent être Ftj –mesurable et par suite
Z T n−1
X
hs dBs := htj (Btj+1 ∧t − Btj ∧t ). (5.0.2)
0 j=0
RT
et la v.a. ( 0 hs dBs )(ω) est donnée par n−1
P
j=0 htj (ω)(Btj+1 (ω) − Btj (ω)).
Nous donnons ci–dessous quelques propriétés qui nous semblent importantes et utile pour la suite.
RT R 2
T RT
1. i) E 0 hs dBs = 0 et ii) E 0 hs dBs = E 0 (hs )2 ds (propriété d’isométrie.)
R
T RT RT
2. E 0 hs dBs 0 g(s)dBs = E 0 hs g(s)ds
Preuve. Le premier point i) de 1. est déjà fait plus haut. Montrons alors le deuxième point ii). On
pose 4j B = Btj+1 − Btj . Nous avons
Z T 2 " n−1
X
#
E hs dBs = E hti htj 4i B4j B
0 i,j=0
" n−1 #
X
= E hti htj E 4i B4j B | Fti ∨tj
i,j=0
n−1
X 2
= E htj (tj+1 − tj ) ,
j=0
car, selon le choix de la subdivision, les v.a. hti htj 4i B et 4j B sont indépendantes si i < j et pour
i = j les v.a. (hti )2 et (4j B)2 sont indépendantes.
D’où 2
Z T n−1 Z T
X 2
E hs dBs = E htj (tj+1 − tj ) = E (hs )2 ds.
0 j=0 0
Preuve. Supposons que |ht (ω)| ≤ M pour tout (t, ω). Pour tout n, soit ϕn une fonction continue
positive sur R telle que : R +∞
(i) ϕn (x) = 0 si x ≤ − n1 ou x ≥ n1 , (ii) −∞ ϕn (s)ds = 1.
Rt
On définit hnt (ω) = 0 ϕn (t − s)hs (ω)ds. Alors la fonction t 7−→ hnt (ω) est continue pour tout ω
et n, et |hnt (ω)| ≤ M . On voit aussi que hnt (ω) est Ft –mesurable puisque h ∈ L2ad (T ). De plus
RT
0
(hs (ω) − hns (ω))2 ds converge vers 0 lorsque n → +∞ pour tout ω où on a utilisé le fait que
RT
ϕn est une approximation de l’identité. Par suite E 0 (hs − hns )2 ds → 0 quand n → +∞, par
le théorème de convergence dominée.
36
— Étape 3. Soit h ∈ L2ad (T ). Alors il existe une suite de processus {hn : n ≥ 0} ∈ L2ad (T ) tel que
hns est borné pour tout n et
Z T
E (hs − hns )2 ds converge vers 0 lorsque n → +∞.
0
Preuve. On pose
−n si ht (ω) < −n
n
ht (ω) = ht (ω) si |ht (ω)| ≤ n
n si ht (ω) > n.
Alors le résultat se déduit par le théorème de convergence dominée. Cela complète la procédure
d’approximation. RT
Nous somme maintenant en mesure de compléter la définition de l’intégrale stochastique 0 hs dBs
pour h ∈ L2ad (T ).
En effet, soit h ∈ L2ad (T ), on peut choisir à l’aide des étapes 1–3, un processus élémentaire hn ∈ L2ad (T )
RT
tel que E 0 (hs − hns )2 ds converge vers 0 lorsque n tend vers +∞. On peut donc définir
Z T Z T
hs dBs := lim hns dBs .
0 n→+∞ 0
RT
Cette limite existe comme étant un élément de L2 (Ω, P ), car la famille { 0 hns dBs , n ≥ 0} forme, grâce
à la formule d’isométrie (assertion (ii) du Lemme 5.0.1) une suite de Cauchy dans L2 (Ω, P ) et la limite
ne dépend pas de la sous–suite choisie. Par conséquent la formule d’isométrie est aussi vraie pour les
éléments de L2ad (T ), i.e.
Z T 2 Z T
E hs dBs = E h2s ds.
0 0
R1 R1
Attention 0 sB1 dBs 6= B1 0 sdBs . On ne peut pas définir avec cette approche l’intégrale stochas-
R1
tique 0 sB1 dBs , car B1 n’est pas prévisible.
Proposition 5.1.1R Soit h un élément de L2ad (T ) tel que |ht (ω)| ≤ C, (C ne dépend ni t ni de ω). Alors
t
le processus t 7−→ 0 hs dBs admet une version continue. Plus précisément une version hölderienne
d’ordre α < 21 . (même module de continuité que le mouvement Brownien).
Exercice. Nous donnons sous forme d’exercice l’exemple de martingale locale qui n’est
pas martingale.
Soit B un mouvement Brownien réel standard.
Soit le temps d’arrêt
τ = inf 0 ≤ t ≤ 1 : t + Bt2 = 1
et
2Bt
1{t≤τ } si 0 ≤ t < 1
Xt = (1 − t)2
0 si t = 1
On veut montrer que le processus
Z t Z t
1
Mt = exp Xs dBs − Xs2 ds
0 2 0
est une martingale locale mais n’est pas une vraie martingale.
R1
1. Montrer que τ < 1 presque sûrement et donc que 0 Xt2 dt < 1 presque sûrement.
Bt2
2. Montrer en appliquer la formule de Itô au processus t 7→ (1−t)2
, 0 ≤ t < 1 que
Z t Z t Z τ
1 1 1 1
Xs dBs − Xs2 ds =− −2 − Bt2 dt < −1.
0 2 0 1−T 0 (1 − t)4 (1 − t)3
3. La martingale locale {Mt , 0 ≤ t < 1} n’est pas une martingale : on déduit de (2) que son
espérance est majorée par e−1 < 1. ; cependant pour tout n ≥ 1 et σn = 1 − √1n le processus
{Mtσn , 0 ≤ t < 1} est une martingale.
Elle est appelé inégalité de Burkholder–Davis–Gundy, on utilisera dans la suite l’abréviation (BDG).
38
où u(·) et v(·) sont des processus adaptés avec u(·) ∈ L2ad (T ) tels que
Z t Z t
|v(s)|ds < +∞ et u2 (s)ds < +∞ P –p.s.
0 0
où 0 < θ < 1. OnR passe à la limite convenablement. En effet la première sommation converge
t
en probabilité vers 0 f 0 (Xs ) u(s)dBs , alors que la seconde sommation converge en probabilité vers
1 t 00
R
2 0
f (Xs ) u2 (s)ds.
Rt Rt
2. Si f (x) = x3 et Xt = Bt , on obtient Bt3 = 3 0 Bs2 dBs +3 0 Bs ds, car f 0 (x) = 3x2 et f 00 (x) = 6x.
Plus généralement, si n ≥ 2 est un entier naturel
Z t
n(n − 1) t n−2
Z
n n−1
Bt = n Bs dBs + Bs ds.
0 2 0
a2 a2
3. Si f (t, x] =RE ax− 2 t , Xt = Bt , et Mt = eaBt − 2 t , on obtient la représentation suivante de Y :
t
Mt = 1 + a 0 Ms dBs parce que
∂f 1 ∂ 2f
(t, x) + (t, x) = 0. (5.4.3)
∂t 2 ∂x2
Cette exemple conduit à la remarque suivante :
a) Si une fonction f (t, x) de classe C 1,2 satisfait
R t l’équation2 (5.4.3), alors, le processus f (t, Bt ) est
une martingale pourvue que f satisfait E 0 ( ∂f ∂t
(s, Bs )) ds < +∞ pour tout t ≥ 0.
a2
b) La solution de l’EDS dYt = aYt dBt n’est pas Yt = eaBt , mais Yt = eaBt − 2 t .
2
c) Considérons la fonction f (t, x) = tx2 . Alors ∂f ∂t
= x2 , ∂f
∂x
= 2tx et ∂∂xf2 = 2t. La formule de Itô
donne Z t Z t
2 1
tBt = 2 sBs dBs + Bs2 ds + t2 .
0 0 2
En utilisant l’espérance conditionnelle on peut montrer que tBt2 est une sous martingale. Cette
égalité donne la décomposition de Doob-Meyer de la sous–martingale tBt2 . Il donne aussi
l’évaluation de l’intégrale stochastique
Z t Z t
2 1
2 sBs dBs = tBt − Bs2 ds − t2 .
0 0 2
Exemple 5.4.2 Supposons que f (t) est une fonction continûment différentiable sur [0, T ]. La formule
de Itô appliquée à la fonction f (t)x donne
Z t Z t
f (t)Bt = f (s)dBs + Bs f 0 (s)ds
0 0
Proposition 5.5.1 Le crochet de deux martingales continues M et N est défini comme suit :
n
X
hM, N it = lim Mti+1 − Mti Nti+1 − Nti .
supi |ti+1 −ti |→0
i=1
Ce résultat est utilisé pour évaluer l’intégrale de f du moment qu’elle possède une primitive. A t-on
un résultat analogue pour le calcul de Itô ? Plus précisément supposons que h ∈ L2ad ([a, b]). Peut–on
Rb
évaluer l’intégrale stochastique a ht dBt ? En général il n’existe pas de formule similaire à (5.6.4).
Cependant si ht est de la forme ht = f (Bt ) pour une fonction continûment dérivable alors la formule
de Itô donne une réponse positive. Nous énonçons un résultat qui donne une autre façon d’écrire une
intégrale stochastique.
∂F
Théorème 5.6.1 Supposons F (t, x) est une primitive en x d’une fonction continue f (t, x). Si ∂t
et
∂f
∂x
sont continues. Alors nous avons la formule d’intégration par partie suivante
Z b Z b
∂F 1 ∂f
f (t, Bt )dBt = [F (t, Bt )]ba − (t, Bt ) + (t, Bt ) dt. (5.6.5)
a a ∂t 2 ∂x
R t dBs 1
Exemple 5.6.2 L’intégrale stochastique 0 1+B 2 est donnée par f (Bs ) avec f (x) = 1+x2
. D’où les
s
fonctions F (x) et f (x) sont données par
−2x
Z
1
F (x) = dx = c + arctan(x), f (x) = .
1 + x2 (1 + x2 )2
Rt Bs
Exemple 5.6.3 Considérons l’intégrale stochastique 0 1+Bs2
dBs . L’intégrant est donné par f (Bs ) avec
x
f (x) = 1+x 2 on en déduit que
1 − x2
Z
x 1 2
F (x) = dx = ln(1 + x ) + c, f (x) = .
1 + x2 2 (1 + x2 )2
6.1 Introduction
dx
L’équation différentielle ordinaire dt
= b(t, x) peut être interprété au sens de du calcul de Leibnitz–
Newton par l’équation intégrale Z t
x(t) = x0 + b(s, x(s))ds.
0
Lorsque cette équation est perturbée par la dérivé formelle Ḃt du mouvement Brownien Bt , cette
équation prend la forme
dX
= b(t, X) + σ(t, X)Ḃt
dt
Dans le calcul différentiel de Itô Ḃt dt sont combinés pour former la différentielle dBt .
Considérons un mouvement Brownien {Bt , t ≥ 0} défini sur un espace probabilisé filtré (Ω, F, P ).
Supposons que {Ft , t ≥ 0} est une filtration telle que Bt est Ft –adapté et pour tout 0 ≤ s < t,
l’accroissement Bt − Bs est indépendant Fs . Notre objectif dans ce chapitre est de résoudre l’équation
différentielle stochastique
dXt = b(t, Xt )dt + σ(t, Xt )dBt (6.1.1)
avec une condition initiale X0 , qui est une variable aléatoire F0 mesurable et indépendante du Brownien
Bt .
Les coefficients b(t, x) and σ(t, x) sont appelés respectivement le coefficient de dérive (drift) et le
coefficient de diffusion. Si σ ≡ 0, alors l’équation (6.1.1) devient une EDO
dxt
= b(t, xt ).
dt
Par exemple dans le cas linéaire, b(t, x) = b(t)x, la solution de cette équation est donnée par
Z t
xt = x0 exp b(s)ds .
0
43
44
C’est à dire que la solution sera un processus de Itô {Xt : t ≥ 0}. Les solutions des EDS sont appelés
processus de diffusion.
La motivation originale de K. Itô pour développer la théorie de l’intégration stochastique était de
construire les processus de diffusion en résolvant les équations différentielles stochastiques.
Précisons tout d’abord ce que nous entendons par une solution de l’EDS.
Définition 6.1.1 Étant donné une matrice σ(s, x) borelienne d’ordre n×m un vecteur b(s, x) borelien
dans Rn . On appelle solution faible de l’équation (6.4.4) un terme
tels que
1. (Bt )0≤t≤T , et (Xt )0≤t≤T sont des processus continus à valeurs dans Rn , (Bt )0≤t≤T est Gt –
mesurable, (Xt )0≤t≤T est Gt –mesurable, B0 = 0, X0 = ξ,
2. (Bt )0≤t≤T est un mouvement Brownien
Rt Rt
3. 0 |b(s, Xs )|ds et 0 |σ(s, Xs )|2 ds sont finis P –p.s.
4. (Bt )0≤t≤T , et (Xt )0≤t≤T vérifient l’équation (6.4.5).
On dit qu’une solution est forte si le Brownien B est fixé et en plus des conditions ci-dessus
(Xt )0≤t≤T est adapté à la filtration (Ft )t≥0 du Brownien.
Autre définition
Nous aurons besoin d’imposer des conditions sur les coefficients b(t, x) et σ(t, x) afin d’assurer l’exis-
tence d’une unique solution non explosive de l’équation (6.4.5). Nous rappelons ci-dessous quelques
conditions suffisantes pour l existence et l unicité forte dune solution forte.
Définition 6.1.3 a) Une fonction borelienne f (t, x) définie sur [0, T ] × R est dite Lipschitzienne en
x s’il existe une constante K > 0 telle que
b) Une fonction borelienne f (t, x) définie sur [0, T ] × R est dite à croissance au plus linéaire en x s’il
existe une constante K > 0 telle que
1 + x2 ≤ (1 + x)2 ≤ 2(1 + x2 ).
Donc la condition de (6.1.3) est équivalent à la condition suivante il existe une constante C > 0
telle que
|f (t, x)|2 ≤ C(1 + x2 ), ∀ 0 ≤ t ≤ T, x ∈ R.
45
Remarque 6.1.1
1.- La condition (6.1.3) assure la non explosion de la solution dans l’intervalle [0, T ]. Par exemple,
l’équation déterministe
dxt
= x2t , x0 = 1, 0 ≤ t ≤ 1,
dt
possède l’unique solution
1
xt = , 0 ≤ t < 1,
1−t
qui explose au temps t = 1.
2.- La condition (6.1.2) assure l’unicité de la solution. Par exemple l’équation déterministe
dxt 2/3
= 3xt , x0 = 0,
dt
admet une infinité de solutions : en effet pour tout a > 0, la fonction
0 if t ≤ a
xt =
(t − a)3 if t > a
est une solution. Dans cette exemple le coefficient b(x) = 3x2/3 ne satisfait pas la condition (6.1.2) car
la dérivée de b n’est pas bornée.
3.- Si les coefficients b(t, x) et σ(t, x) sont différentiables en la variable x, la condition (6.1.2) signifie
∂b
que les dérivées partielles ∂x and ∂σ∂x
sont bornées.
On utilise la formule de Itô pour établir l’équation différentielle stochastique à valeurs dans R2
0 −1 1 1
dVt = Vt dBt − Vt dt, V0 = .
1 0 2 0
3. On obtient également par la formule de Itô l’équation différentielle stochastique à valeurs dans
R3
dVt = (KVt + q) dBt + LVt dt, V0 = v0 ,
où K, q, L et v0 sont donnés par
1
0 −1 0 0 −2 0 0 1
K = 1 0 0 , q = 0 , L = 0 − 12 0 , v0 = 0 .
0 0 0 1 0 0 0 0
La solution Vt est le transposé du vecteur (cos Bt , sin Bt , Bt ).
4. Soient Bt1 et Bt2 deux mouvements Brownien indépendant. On dérive une équation différentielle
stochastique à valeurs dans R3
dVt = KVt dBt1 + CVt dBt2 + LVt dt, V0 = v0 ,
où K, C, L et v0 sont donnés par
1 0 0 0 −1 0 0 0 0 1
K= 1 0 0 , C=
1 0 0 , L=
0 0 0 , v0 =
0 .
1
0 0 1 0 0 0 0 0 2 1
1 1 1
la solution Vt est le transposé du vecteur (eBt cos Bt2 , eBt sin Bt2 , eBt ).
RT
5. Pour tout h ∈ L2ad (T ) i.e. h est prévisible et E 0 h2s ds < +∞, le processus définit par
Rt Rt
Eh (t) = exp( 0 hs dBs − 21 0 h2s ds), est appelé l’exponentielle stochastique et satisfait l’équation
différentielle stochastique
dXt = ht Xt dBt , X0 = 1.
6. Processus de Bessel.
Soient Bt = (B1 (t), B2 (t), . . . , Bd (t)) un mouvement Brownien dans Rd , d ≥ 2, issue de 0. Le
processus Ld−1 défini par
q
Ld−1 (t) = |B(t)| = B12 (t) + B22 (t) + · · · + Bd2 (t)
est appelé processus de Bessel d’indice d − 1. De plus Ld−1 (t) satisfait l’équation différentielle
stochastique
d−1
dXt = dWt + dt, X0 = 0,
2Xt
où W est défini par
d Z t
X Bi (s)
Wt = dBi (s).
i=1 0 |B(s)|
Notons que dans les exemples précédents sauf le dernier les équations sont des équations
linéaires.
7. Oscillateur harmonique stochastique. Ceci correspond à l’EDS
( ·· ·
X = −λ2 X − bX + σξ
·
X(0) = X0 , X(0) = X1 ,
·
où −λ2 X représente la force linéaire de restoration et −bX est le mouillant terme à friction.
Une solution explicite est donnée dans le cas où X1 = 0, b = 0, σ = 1 par
1 t
Z
Xt = X0 cos(λt) + sin(λ(t − s))dWs .
λ 0
47
8. Nous donnons en plus deux autres exemples qui montrent que les solutions des équations
différentielles stochastiques peuvent exploser en temps fini presque sûrement et qu’on peut
avoir plusieurs solutions.
Considérons l’équation différentielle stochastique
dXt = Xt2 dBt + Xt3 dt, X0 = 1,
qui est équivalent à l’équation différentielle stochastique intégrale
Z t Z t
2
Xt = 1 + Xs dBs + Xs3 ds.
0 0
Pour résoudre cette équation on applique la formule de Itô à X1t pour obtenir
1 −1 2
d = 2
dXt + (d hXit )
Xt 2Xt 2Xt3
−1 2 3
= X t dX t + X t dt = −dBt .
Xt2
Par conséquent, X1t = −Bt + c. La condition initiale X0 = 1 implique c = 1. D’où la solution
de l’équation est donnée par
1
Xt = .
1 − Bt
Remarquons que Xt explose au temps de sortie du mouvement Brownien Bt dans l’intervalle
(−∞, 1).
9. Considérons maintenant l’équation différentielle stochastique
2/3 1/3
dXt = 3Xt dBt + 3Xt dt, X0 = 0,
ou autrement Z t Z t
Xt = 3 Xs2/3 dBs +3 Xs1/3 ds.
0 0
Pour toute constante fixée a > 0, on définit la fonction θa par θa (x) = (x − a)3 1{x≥a} . Il est
facile de montrer que
θa0 (x) = 3θa (x)2/3 , θa00 (x) = 6θa (x)1/3 .
Par la formule de Itô, nous avons
dθa (Bt ) = 3θa (Bt )2/3 dBt + 3θa (Bt )1/3 dt.
R t 2/3 R t 1/3
De plus, θa (B0 ) = 0. D’où θa (Bt ) est une solution de l’équation Xt = 3 0 Xs dBs + 3 0 Xs ds
pour tout a > 0. Ceci montre que cette équation possède une infinité de solution.
10. Dans le contexte des EDO des exemples de non unicité sont bien connus. En effet l’équation
·
x(t) = |x(t)|γ avec 0 < γ < 1 et x(0) = 0 admet la famille de solutions x(t) = ( t−δκ
)κ pour t ≥ δ
1
et x(t) = 0 pour t ≤ δ et κ = 1−γ et δ > 0.
On observe que les deux derniers exemples sont de simple modifications des exemples classique
dans la théorie des EDO. Les conditions usuelles suffisantes pour l’unicité dans la théorie des EDO
est la propriété de Lipschitz. Également pour les EDS la condition de Lipschitz ainsi que sa forme
locale suffit pour l’unicité. Par conséquent on peut utiliser les mêmes techniques mais adaptés au
cadre fonctionnel pour les EDS ainsi que le calcul stochastique de Itô. Ceci signifie que pour assurer
l’existence et l’unicité d’une solution globale nous devons imposer des conditions de Lipschitz et à
croissance au plus linéaire.
48
En dérivant, on obtient
g 0 (t) = βϕ(t) ≤ βf (t) + βg(t)
d’où
g 0 (t) − βg(t) ≤ βf (t).
En multipliant les deux cotés de l’inégalité ci–dessus par le facteur e−βt on aura
d −βt
e g(t) = e−βt g(t) − βg(t) ≤ βf (t)e−βt
dt
qui après intégration entre 0 et t,
Z t
−βt
e g(t) ≤ β f (s)e−βs ds.
0
Par suite, Z t
g(t) ≤ β f (s)eβ(t−s) ds.
0
D’où Z t
ϕ(t) ≤ f (t) + g(t) ≤ f (t) + β f (s)eβ(t−s) ds.
0
Lemme 6.3.1 (Inégalité de Bellman-Gronwall) Supposons que ϕ ∈ L1 ([0, T ]) satisfait l’inégalité sui-
vante Z t
ϕ(t) ≤ f (t) + β ϕ(s)ds, ∀ t ∈ [0, T ],
0
Alors Z t
ϕ(t) ≤ f (t) + β f (s)eβ(t−s) ds.
0
ϕ(t) ≤ αeβ(t) , ∀ 0 ≤ t ≤ T
49
Alors t t
(t − u)n−1
Z Z
β(t−u) n
θn+1 (t) ≤ f (t) + β f (u)e du + β θ1 (u)du
0 0 (n − 1)!
pour tout n ≥ 1. En particulier si f (t) ≡ α et θ1 (t) ≡ c sont des constantes Alors pour tout n ≥ 1 :
(t)n
θn+1 (t) ≤ αeβ(t) + cβ n
n!
50
Par le lemme de Bellman–Gronwall, on conclut que E[Zt2 ] = 0 pour tout t ∈ [0, T ]. D’où Zt = 0
presque sûrement pour tout t ∈ [0, T ].
51
(1)
Xt ≡ ξ
Z t Z t
(n+1)
Xt = ξ+ b(s, Xs(n) )ds + σ(s, Xs(n) )dBs pour n ≥ 1.
0 0
(1) (n)
Il est clair que, Xt appartient à L2ad (T ). Supposons par induction que le processus Xt appartient à
L2ad (T ). Alors par la condition (6.1.3)
Z T Z T 2
2 (n) (n)
E σ (t, Xt )dt ≤ CT + CE Xt dt < +∞;
0 0
Z T Z T 2 21
(n)
b(s, Xs(n) ) ds ≤ CT 1+ Xt dt < +∞, a.s.
0 0
(n+1)
Par suite Xt est un processus continu et adapté à la filtration (Ft )t≥0 . De plus |a + b + c|2 ≤
3(a2 + b2 + c2 ), d’où
" Z t 2 Z t 2 #
2
(n+1)
Xt ≤ 3 ξ2 + b(s, Xs(n) )ds + σ(s, Xs(n) )dBs
0 0
(n+1) (n)
Ceci montre que le processus Xt appartient à L2ad (T ). Par récurrence la suite {Xt }n≥1 appartient
2
à Lad (T ).
(n+1) (n)
Maintenant, nous allons estimer E|Xt − Xt |2 . On pose
Z t Z t
(n+1) (n) (n+1)
Yt = σ(s, Xs )dBs et Zt = b(s, Xs(n) )ds.
0 0
d’où
(n+1) (n) (n+1) (n) (n+1) (n)
sup Xt − Xt ≤ sup Yt − Yt + sup Zt − Zt
0≤t≤T 0≤t≤T 0≤t≤T
ce qui implique
(n+1) (n) 1
sup Xt − Xt > 2
0≤t≤T n
(n+1) (n) 1 (n+1) (n) 1
⊂ sup Yt − Yt > 2 ∪ sup Zt − Zt > 2 .
0≤t≤T 2n 0≤t≤T 2n
Par conséquent,
(n+1) (n) 1 (n+1) (n) 1
P sup Xt − Xt > 2 ≤ P sup Yt − Yt > 2
0≤t≤T n 0≤t≤T 2n
(n+1) (n) 1
+P sup Zt − Zt > 2 .
0≤t≤T 2n
D’où
(n+1) (n) 1 4 (n+1) (n)
2
P sup Zt − Zt > 2 ≤ E sup Z − Zt
0≤t≤T 2n n4 0≤t≤T t
4 2 β nT n
≤ K ρ .
n4 n!
Il s’ensuit que
4 2 β nT n
(n+1) (n) 1
P sup Xt − Xt > 2 ≤ K ρ .
0≤t≤T 2n n4 n!
1 βnT n
P
Comme la série n≥1 n4 n! est convergente. Le lemme de Borel–Cantelli , donne
(n+1) (n) 1
P sup Xt − Xt > 2 i.o. = 0.
0≤t≤T 2n
A la lumière de ceci, pour presque tout ω
n
X
(n) (0) (k) (k−1)
Xt = Xt + Xt − Xt
k=1
converge uniformément sur [0, T ] avec la probabilité 1 vers un processus noté Xt . De plus, le processus
Xt est continu et adapté à la filtration {Ft : 0 ≤ t ≤ T } et vérifie
+∞
r
X Tn
kXt k2 ≤ kξk2 + ρβ n .
n=1
n!
RT
où k·k2 est la norme L2 (Ω). Il en s’ensuit que E 0 |Xt |2 dt < +∞. D’où le processus Xt appartient à
(n+1)
L2ad (T ) ⊂ Lad (Ω, L2 ([0, T ])). En passant à la limite dans la définition de Xt on voit que
Z t Z t
Xt = ξ + b(s, Xs )ds + σ(s, Xs )dBs .
0 0
Remarque 6.4.1 Ce résultat reste vrai en dimension supérieure, lorsque Bt est un mouvement Brow-
nien de dimension m, le processus Xt est de dimension n, et les coefficients sont des fonctions
Lemme 6.4.2 Soit b une fonction définie sur R+ × R, localement bornée telle que pour tout t > 0,
x → b(t, x) est dérivable et bx (t, x) ≤ C ∀ t > 0, ∀ x ∈ R. Alors l’EDS :
Z t
Yt = Y0 + Bt + b(s, Ys )ds
0
ce qui donne : Z t
(Yt − Yt0 )2 =2 (Ys − Ys0 )(b(s, Ys ) − b(s, Ys0 ))ds.
0
et par le théorème des accroissements finis on a :
donc :
(Ys − Ys0 )(b(s, Ys ) − b(s, Ys0 )) = (Ys − Ys0 )2 bx (s, ξs ) ≤ C(Ys − Ys0 )2 .
Par conséquent : Z t
(Yt − Yt0 )2 ≤ 2C (Ys − Ys0 )2 ds.
0
Lemme 6.4.3 Supposons que σ est localement lipschitzienne et vérifie la condition de croissance au
plus linéaire :
|σ(t, x)|2 ≤ K(1 + |x|2 )
Rt
Alors l’EDS : Xt = 0 σ(s, Xs )dBs possède la propriété d’existence et d’unicité de la solution forte.
Démonstration. L’unicité ne pose pas de problème puisque σ est localement lipschitzienne. Pour
montrer l’existence, nous allons remplacer σ par des fonctions σ n globalement lipschitziennes. Pour
n ≥ 1, soit
n nx
σ (t, x) = σ(t, x)1{|x|≤n} + σ t, 1{|x|>n} .
|x|
σ n est globalement lipschitzienne et vérifie la condition de croissance au plus linéaire, donc l’EDS
Z t
n
Xt = σ n (s, Xsn )dBs
0
τn = inf{t ≥ 0 : |Xtn | ≥ n}
55
m n
On a ∀ m ≥ n, Xt∧τ n
= Xt∧τ n
puisque σ n = σ m pour |x| ≤ n soit
τ = lim τn
n→+∞
Montrons que τ = +∞ P –p.s. Par l’ absurde, supposons que P (τ < +∞) > 0, donc ∃ T > 0 tel que
P (τ < T ) > 0. Pour t ≤ T soit Mtn = sup |Xsn |, on a
s≤t
" 2 #
Z s Z t
E sup |Xsn |2 = E sup σ n
(u, Xun )dBu ≤ CE σ 2 (s, Xsn )ds
s≤t s≤t 0 0
Z t Z t
≤ CE K(1 + |Xsn |2 )ds ≤ CKT + CK n 2
E sup |Xu | ds.
0 0 u≤s
Pour tout n ≥ 1, on a :
E [(MTn )2 ]
0 < P (τ < T ) ≤ P (MTn ≥ n) ≤ →0
n2
ce qui est absurde, donc τ = +∞ P –p.s. Soit
n
Xt := lim Xt∧τ n
n→+∞
Et comme Z t∧τn Z t
L2
σ(s, Xs )dBs −→ σ(s, Xs )dBs
0 0
Il existe une sous suite ϕ(n) telle que
Z t∧τϕ(n) Z t
P −p.s.
σ(s, Xs )dBs −→ σ(s, Xs )dBs .
0 0
Par suite Z t
Xt = σ(s, Xs )dBs
0
Donc {Xt , t ≥ 0} est solution de l’EDS.
où bi est lipschitzienne et |σ(x) − σ(y)| ≤ K|x − y|. Supposons que X1 (0) ≤ X2 (0) et b1 (x) ≤ b2 (x).
Alors X1 (t) ≤ X2 (t).
56
Pour la preuve, le lecteur pourra consulter le livre de Revuz–Yor, (chapitre 9, paragraphe 3).
Théorème 6.5.2 (Dépendance des paramètres). Supposons pour n ≥ 1 que b(n) (t, x), σ (n) (t, x) et ξ (n)
satisfont les hypothèses du théorème d’existence et d’unicité. Supposons de plus que
h i
(n) 2
(a) lim E |X0 − X0 | = 0
n→+∞
lim max |b(n) (t, x) − b(t, x)| + |σ (n) (t, x) − σ(t, x)| = 0.
(b)
n→+∞ 0≤t≤T
|x|≤M
Alors
(n) 2
lim E max |Xt − Xt | = 0,
n→+∞ 0≤t≤T
Exemple 6.5.1 (Petites perturbations des systèmes dynamiques). En particulier, si b est lipschit-
zienne alors pour presque tout ω la trajectoire solution de EDS
σ2
Xt = X0 exp µ− t + σBt
2
résoud l’équation différentielle stochastique
Considérons le modèle de Black-Scholes pour les prix d’un actif financier, avec coefficient dépendant
du temps µ(t) et σ(t) > 0 :
dSt = St (µ(t)dt + σ(t)dBt ) S0 = est donnée.
L’unique solution de cette équation est donnée par
Z t Z t
1 2
St = S0 exp µ(s) − σ (s) ds + σ(s)dBs .
0 2 0
RT RT
avec µ et σ sont des fonctions déterministes vérifiant 0 |µ(s)|ds < ∞ et 0 |σ(s)|2 ds < ∞.
Si de plus le taux d’intérêt r(t) est aussi une fonction déterministe, telle
Z T Z T
(µ(s) − r(s))2
|r(s)|ds < ∞ et ds < ∞,
0 0 |σ(s)|2
alors il existe une probabilité dite neutre au risque Q sous laquelle le processus
Z t
µ(s) − r(s)
Wt = Bt + ds
0 σ(s)
est un mouvement Brownien sous Q et le prix actualisé
Z t
St = St exp −
e r(s)ds
0
58
59
pour i = 1, . . . , n. Cette formule est connue sous le nom Actualisation des prix (où changement d’unité
monétaire compté à t = 0).
Vtφ est aussi appelé richesse et Vetφ = At Vtφ est la richesse actualisée.
où l’intégrale qui apparaı̂t à droite de (7.0.3) est interprété au sens de l’intégrale stochastique de Itô
qui s’obtient en substituant (7.0.1) et (7.0.2) dans (7.0.3).
Cette notion intuitive d’auto–financement signifie qu’une fois le portefeuille constitué il est géré sans
retirer ni emprunter de l’argent.
Définition 7.0.3 Un portefeuille auto–financé φ· est dit admissible s’il existe une v.a. K = K(φ) < ∞
tel que
Vtφ ≥ −K pour presque tout (t, ω) ∈ [0, T ] × Ω.
Définition 7.0.4 Une opportunité d’arbitrage est une stratégie auto–finançante (portefeuille admis-
sible) {φt : t ≥ 0} telle que :
Définition 7.0.5 (Autrement) On dit qu’il y a opportunité d’arbitrage sur les prix si partant d’une
richesse V0φ ≤ 0, l’investisseur arrive à construire un portefeuille auto–financé {φt : t ≥ 0} tel que
Le prix d’un actif non risqué est souvent appelé numéraire. On peut alors supposer que St0 > 0
pour tout t ∈ [0, T ], ce qui est le cas dans le modèle que nous avons considéré. Par conséquent si on
prend St0 comme l’unité numéraire, le vecteur des prix devient
St1 Stn
St = 1, 0 , · · · , 0 = 1, At St1 , · · · , At Stn
e pour t ∈ [0, T ]. (7.0.4)
St St
Le marché {Set : t ∈ [0, T ]} est appelé la normalisation du marché {St : t ∈ [0, T ]}.
Nous dirons qu’un marché financier {Yt : t ∈ [0, T ]} est normalisé si Yt0 ≡ 1.
Preuve. Supposons que {φt : t ∈ [0, T ]} est une opportunité d’arbitrage pour {St : t ∈ [0, T ]}. Soit
D E
Vetφ = φt , Set = At Vtφ
= V0φ + φs , dSes .
0
Lemme 7.0.2 Supposons que {St : t ∈ [0, T ]} est normalisé. Alors il y a opportunité d’arbitrage sur
{St : t ∈ [0, T ]} si et seulement si il existe un portefeuille admissible {φt : t ∈ [0, T ]} tel que
V0φ ≤ VTφ P –p.s. et P [VTφ > V0φ ] > 0. (7.0.5)
Preuve. Supposons que {St : t ∈ [0, T ]} est normalisé et soit {φt : t ∈ [0, T ]} un portefeuille admissible.
On définit φet = (φe0t , φe1t , . . . , φent ) par
D E n
X n Z t
X
Vtφ 0
= φt , St = φt + i i
φt St = φeis dSsi .
e
e e
i=1 i=1 0
La notion d’absence d’arbitrage dans les marchés financiers est rattachée à l’existence d’une mesure
de probabilité, équivalente à la probabilité de référence, dite mesure martingale. pour laquelle les prix
actualisés sont des martingales.
Définition 7.0.6 (i) Une mesure de probabilité Q sur FT est dite mesure martingale pour le marché
normalisé ou sur les prix actualisés {Set : t ∈ [0, T ]} si
h i
EQ Set | Fs = Ses pour tout t > s . (7.0.6)
(ii) Si, en plus de (7.0.6), la mesure Q est équivalente à P alors on dit que Q est une mesure martingale
équivalente pour le marché {Set : t ∈ [0, T ]}.
On peut également donner la définition de mesure martingale de la façon suivante.
Définition 7.0.7 Une probabilité Q équivalente à P est dite mesure martingale pour le système des
prix si sous Q les prix actualisés sont des martingales. On appelle cette probabilité Q probabilité neutre
au risque.
Proposition 7.0.1 Supposons qu’il existe une mesure martingale équivalente pour le marché {Set :
t ∈ [0, T ]}. Alors il n’y a pas d’arbitrage dans le marché {St : t ∈ [0, T ]}.
Avant de démontrer que St est une Q–martingale, nous rappelons un résultat important sur
l’espérance conditionnelle.
Lemme 7.1.1 (Bayes) Soit Q une probabilité sur F de la forme dQ = F dP où F est une v.a. positive
et F–mesurable. Soit Y une v.a. F–mesurable telle que EQ |Y | < ∞ et soit G ⊂ F une sous tribu de
F. Si EP [F | G] = E[F | G] 6= 0 alors
E[F Y | G]
EQ [Y | G] = .
E[F | G]
Preuve. On a
dQ = F dP sur F et dQ = E[F | G]dP sur G.
En appliquant ce lemme à notre situation, on obtient pour tout s < t < T ,
E[MT Yt | Fs ] E[E[MT Yt | Ft ] | Fs ]
EQ [Yt | Fs ] = =
E[MT | Fs ] Ms
E[Yt E[MT | Ft ] | Fs ] E[Yt Mt | Fs ]
= = .
Ms Ms
Or par application de la formule de Itô on obtient
Z t
Yt Mt = Y0 M0 + Ms (1 − Ys ) dBs ,
0
par suite Yt Mt est une P –martingale et donc EQ [Yt | Fs ] = Ys . Par conséquent le marché ne peut pas
avoir d’arbitrage.
En revanche l’exemple précédent est un cas particulier d’un résultat très important dans la théorie
des martingales, et qui donne une méthode générale pour construire des mesures martingales.
Théorème 7.1.1 (Girsanov) Supposons que {Yt : t ∈ [0, T ]} est un processus de Itô à valeurs dans
Rn i.e. de la forme
Z t m Z
X t
Yti = Y0i + i
µ (s)ds + σji (s)dBsj pour i ∈ {1, . . . , n}.
0 j=1 0
et que Z T
1 2
E exp ku(s)k ds < ∞.
2 0
On pose Z t
1 t
Z
2
Mt = exp − u(s)dBs − ku(s)k ds pour t ∈ [0, T ]
0 2 0
et on définit la mesure Q sur FT par
dQ = MT dP. (7.1.8)
63
En particulier, si ρi (s) ≡ 0 alors Q est une mesure martingale équivalente pour le processus Yt .
Remarque 7.1.1 Notons que la filtration {F̃t : t ∈ [0, T ]} engendrée par {B et : t ∈ [0, T ]} ne coı̈ncide
pas en général avec celle engendrée par {Bt : t ∈ [0, T ]}. On peut voir que F̃t ⊂ Ft (voir Revuz et Yor
(1994)). Mais si u(s) est déterministe alors on a l’égalité Ft = F̃t .
Théorème 7.1.2 Supposons qu’il existe un processus {u(t) : t ∈ [0, T ]} à valeurs dans Rm Ft –adapté
tel que
et Z T
1 2
E exp u (s)ds < ∞. (7.1.10)
2 0
Alors il n’y a pas d’arbitrage dans le marché {St : t ∈ [0, T ]}.
Une sorte de réciproque de ce théorème est donné par Karatzas (1996) Theorem 0.4.2 : S’il n’y a
pas d’arbitrage dans le marché {St : t ∈ [0, T ]} alors il existe un processus {u(t) : t ∈ [0, T ]} à valeurs
dans Rm , Ft –adapté vérifiant (7.1.9).
Exemple 7.1.2 a) Supposons que n = m et que la matrice σ est inversible pour presque tout (t, ω).
Alors le système (7.1.9) admet une unique solution
et cette dernière n’admet pas de solution, et par suite le marché (7.1.13) possède un arbitrage.
En effet, si on prend φt = (0, −1, −1) alors φ est auto–financé (car il est constant) et Vtφ = t pour
tout t ≥ 0, d’où φ est un arbitrage pour le marché (7.1.13).
Remarque 7.1.2 On peut répliquer certain actifs contingent dans des marchés financiers où il y a
présence d’opportunité d’arbitrage, voir par exemple Shiryaev (1998).
Définition 7.3.1 Une option européenne d’achat sur un actif donné est un contrat qui donne le droit
(mais non l’obligation) à son détenteur d’acheter une unité de l’actif au prix K (prix d’exercice) à
l’instant T futur (maturité) fixé à t = 0 : lors de la signature du contrat.
Si {St : t ∈ [0, T ]} désigne l’ensemble les prix des stocks dans un marché financier à l’instant t,
alors il y a deux possibilités :
— Si ST > K alors le détenteur de cette option va acheter le stock avec le prix K et le vendre
immédiatement dans le marché (ouvert) avec le prix ST . Il a donc un profit (richesse) (payoff)
ST − K.
— Si ST ≤ K alors le détenteur ne va pas exercer cette option et son profit est donc nul i.e.
(payoff) est 0.
65
Nous pouvons alors exprimer le payoff F qui est une variable aléatoire à l’instant T pour une option
européenne d’achat par :
+ ST − K sur {ω : ST (ω) > K}
F = (ST − K) = (7.3.14)
0 sur {ω : ST (ω) ≤ K}.
Définition 7.3.2 (i) Un actif contingent est une variable aléatoire F qui est FT –mesurable et borné
inférieurement.
(ii) On dit que l’actif contingent F est atteint (ou duplicable) dans le marché {St : t ∈ [0, T ]} s’il existe
un portefeuille admissible φt ∈ Rn+1 et un nombre réel x tels que
Z T n Z
X T
F = VTφ,x := x + hφs , dXs i = x + φis dXsi . (7.3.15)
0 i=0 0
cela veut dire que F est égale à la valeur du processus (fonction) de valeur à l’instant T .
Si un tel portefeuille existe, il est appelé le portefeuille qui réplique (duplique) F .
(iii) Le marché {St : t ∈ [0, T ]} est dit complet si tout actif contingent borné est atteint.
Dans la suite de ce chapitre nous allons essayer de répondre aux questions suivantes :
1. Quels sont les actifs atteints dans un marché financier donné {St : t ∈ [0, T ]} ?
2. Quels sont les marchés complets ?
3. Si un actif contingent F est atteint, comment peut–on définir sa valeur initiale et le portefeuille
qui le réplique ? sont–ils uniques ?
Maintenant nous allons illustrer la situation par un exemple simple.
Exemple 7.3.1 On se place dans un marché donné par St = (1, Bt ), t ∈ [0, T ] où B est un mouvement
Brownien réel.
L’actif F = BT2 est il atteint ? On cherche un portefeuille admissible φt = (φ0t , φ1t ) et un nombre réel x
tels que Z T
F = BT2 = x + φ1s dBs . (7.3.16)
0
Or d’après la formule de Itô on a Z T
BT2 =T+ 2Bs dBs .
0
On en déduit que x = T et φ1t = 2Bt . Puis on choisi φ0t de sorte que le portefeuille soit auto–financé
i.e. on cherche φ0t tel que Z t
φ,x
Vt = x + hφs , dSs i = hφt , St i
0
ce qui est équivalent à Z t
T+ 2Bs dBs = φ0t + 2Bt2 .
0
d’où Z t
φ0t =T+ 2Bs dBs − 2Bt2 = T − t − Bt2 .
0
Enfin, φt = (T − t − Bt2 , 2Bt ) est un portefeuille admissible qui réplique F , donc F est atteint.
66
Théorème 7.4.1 Un marché {St : t ∈ [0, T ]} est complet si et seulement si il existe une et une seule
mesure martingale équivalente Q pour le marché normalisé {Set : t ∈ [0, T ]}.
Le théorème suivant donne un critère direct pour montrer qu’un marché est complet en terme des
coefficients qui définissent l’évolution des prix. (Par exemple les coefficients r, µ, et σ qui apparaissaient
dans les équations (7.0.1) et (7.0.2)).
Théorème 7.4.2 Soit {St : t ∈ [0, T ]} un marché dont la dynamique des prix est donnée par les
équations (7.0.1) et (7.0.2). Supposons qu’il existe un processus {u(t) : t ∈ [0, T ]} à valeurs dans Rm ,
Ft –adapté tel que
σ(t)u(t) = µ(t) − r(t)(St1 , . . . , Stn ) (7.4.17)
et Z T
1 2
E exp |u(s)| ds < ∞. (7.4.18)
2 0
Alors le marché {St : t ∈ [0, T ]} est complet si et seulement si la matrice σ(t) ∈ Rn×m admet un
inverse à gauche noté −1 σ(t) ∈ Rm×n .
Autrement dit si et seulement si
rang(σ(t)) = m. (7.4.19)
Exemple 7.4.2 Soit {St : t ∈ [0, T ]} un marché financier dont la dynamique des prix est donnée par
où σ1 et σ2 sont des constantes. Dans cette situation l’équation (7.4.18) devient
u1
σ1 σ2 =0
u2
et donc admet une infinité de solutions [u1 , u2 ] ∈ R2 . On voit aussi que rang(σ) ≤ 1 < 2 = m, et dans
ce cas la relation (7.4.19) n’est pas vérifiée. On conclut donc par le Théorème 7.4.2 que le marché
donnée par (7.4.21) n’est pas complet.
Par conséquent il existe des actifs contingents qui ne sont pas atteints dans ce marché. Nous donnons
ci–dessous un tel actif.
On définit F = [BT1 ]2 . La formule de Itô donne
Z T
F = [BT1 ]2 =T+ 2Bs1 dBs1 . (7.4.22)
0
De plus Vtφ,x est borné inférieurement, ce qui implique que {Vtφ,x : t ∈ [0, T ]} est une sur–martingale,
il s’ensuit que x et φ sont uniques par l’unicité de la décomposition de Doob–Meyer (voir Karatzas et
Shreve (1991)). Donc en combinant les équations (7.4.22) et (7.4.23) on obtient grâce au Théorème
2.5.3 que x = T , σ1 φt = 2Bt1 et σ2 φt = 0. Cette contradiction montre que F ne peut pas être atteint
dans ce marché.
Ici et dans toute la suite r(s), µ(s) et σ(s) sont déterministes, à valeurs réelles, i.e. ne dépendent pas
de l’aléatoire ω et vérifient les conditions suivantes
Z T
|r(s)| + |µ(s)| + |σ(s)|2 ds < ∞
(7.6.26)
0
et
T
(µ(s) − r(s))2
Z
ds < ∞. (7.6.27)
0 σ 2 (s)
On peut dire que le modèle donné par les équations (7.6.24) et (7.6.25) est un peu plus général que le
modèle classique de Black & Scholes qui correspond au cas où les coefficients r, µ et σ 6= 0 sont des
constantes.
Ce marché consiste en deux actifs :
1) Actif sans risque de prix {St0 : t ∈ [0, T ]} qui correspond par exemple à une somme déposée à la
banque dont la dynamique des prix est donnée par (7.6.24) ;
2) Actif risqué de prix {St1 : t ∈ [0, T ]} correspondant au stock dont la dynamique des prix est donné
par (7.6.25).
Nous allons donc appliquer la théorie que nous avons vus ci-dessus pour déterminer les propriétés de
ce marché :
7.6.2 Complétude
On voit aussi que les conditions (7.4.17) et (7.4.18) du Théorème 7.4.2 sont satisfaites. Or σ(t) 6= 0
pour presque tout t et donc rang(σ(t)) = 1 = m p.p. tout t. Donc par le Théorème 7.4.2 on déduit
que ce marché est complet.
De plus l’unique mesure martingale équivalente est donnée par
Z T
1 T
Z
2
dQ = exp − u(t)dBt − u(t) dt dP := ZT (u)dP (7.6.29)
0 2 0
69
et = Bt + t u(s)ds, où u est donné par (7.6.28), est un mouvement Brownien par rapport à Q.
R
avec B 0
En utilisant la loi du Brownien réel on obtient
Z T +
exp(−y 2 /2Γ)
Z
1 1 2
p(F ) = q(F ) = AT S0 exp y + r(t) − σ (t) dt − K √ dy
R 0 2 2πΓ
où l’on a utiliser en plus un résultat de représentation de certaines martingales (Théorème de Dubins–
Schwarz) ci–dessous à l’aide du Brownien pris au crochet de celle–ci i.e.
Z T
σ(t)dB et = WR T 2
σ (t)dt
0
0
Théorème 7.6.1 (Dubins–Schwarz) Soit M une martingale locale continue nulle en 0 et telle que
hM, M i+∞ = +∞ p.s. Alors il existe un mouvement Brownien W tel que p.s. pour tout t ≥ 0 on a
Mt = WhM,M it .
Remarque 7.6.1 Dans le cas classique de Black & Scholes i.e. r, µ et σ 6= 0 sont des constantes (ne
dépendants pas de t, on obtient les formules classique de Black & Scholes
√
p(F ) = q(F ) = S01 Φ(y) − exp(−rT )KΦ(y − σ T )
où u
ln(S01 /K) + (r + σ 2 /2)T x2
Z
1
y= √ et Φ(u) = √ exp − dx.
σ T 2π −∞ 2
70
(où φ0t est le montant investit dans l’actif sans risque et φ1t le nombre de part (d’unité) du deuxième
actif).
Puisque φt est auto–financé nous avons (sous forme différentielle)
Par conséquent pour dupliquer un actif F il suffit de chercher φ1s tel que
Z T
φ
AT F = V0 + As φ1s Ss1 σ(s)dB
es . (7.6.34)
0
Si un tel processus φ1s est déterminé, alors on a montrer l’existence d’un portefeuille φt auto–financé.
Pour démontrer que φt est aussi admissible, on doit vérifier que {Vtφ : t ∈ [0, T ]} est bornée inférieurement.
Pour se faire, on considère la mesure de probabilité Q définie sur FT et donnée par (7.6.28) et (7.6.29).
Alors en prenant l’espérance conditionnelle dans l’équation (7.6.34) sous Q et par rapport à Ft on
obtient Z t
φ es = At Vtφ .
EQ [AT F | Ft ] = V0 + As φ1s Ss1 σ(s)dB
0
V0φ = AT EQ [F ] . (7.6.35)
71
Remarque 7.6.2 Il est clair que la mesure Q est construite de sorte que le processus de valeur
actualisé At Vtφ soit une Q martingale. Notons que l’on peut construire une mesure martingale Q∗ pour
laquelle le processus St0 /St1 (dans le cas d’un marché à deux actifs) soit une martingale. L’avantage de
cette nouvelle probabilité c’est quelle permet de généraliser les formules de valorisation et de réplication
dans le cas de Black & Scholes aux cas de modèle de HJM (Heath, Jarrow and Morton). On se réfère
pour cette approche à Musiela et Rutkowski (1997).
Notons par L le générateur infinitésimal de la diffusion St défini sur C 1,2 ([0, T ] × R+ , R) par
∂f ∂f 1 ∂ 2f
Lf = µ(t)x (t, x) + (t, x) + σ 2 (t)x2 2 (t, x) .
∂x ∂t 2 ∂x
d’où Z t Z t
∂f
Yt = f (0, S0 ) + Lf (s, Ss ) ds + (s, Ss ) Ss σ(s)dBs . (7.7.36)
0 0 ∂x
Si φ représente une stratégie finançant F i.e. φt = (φ0t , φ1t ) où φ0t est le nombre d’obligations (somme
déposé à la banque) et φ1t est le nombre d’actions tels que
En comparant les équations (7.7.36) et (7.7.37), on obtient en identifiant les termes en ds et les
coefficients en dBs (il s’agit en revanche d’une application du Théorème 2.5.3)
∂f
Il en résulte que φ1t = ∂x
(t, St ), et en reportant dans l’équation (7.6.30) on obtient
f (t, St ) − St ∂f (t, St )
φ0t = 0
∂x
S
Z tt
∂f
= exp − r(s)ds f (t, St ) − St (t, St ) .
0 ∂x
Ainsi nous avons obtenu le portefeuille qui duplique F en fonction du prix implicite.
En reportant dans l’équation (7.7.38)
∂f ∂f
Lf (t, St ) = r(t) f (t, St ) − St (t, St ) + (t, St ) St µ(t).
∂x ∂x
En explicitant Lf (t, St ), cette dernière équation s’écrit, après simplification
∂f ∂f 1 ∂ 2f
(t, St ) + σ 2 (t)St2 2 (t, St )
r(t)f (t, St ) = r(t)St (t, St ) + (7.7.40)
f (T, S ) = g(S ) p.s. ∂x ∂t 2 ∂x
T T
Théorème 7.7.1 Soit S 0 le prix d’un actif sans risque dont la dynamique des prix est donnée par
dSt0 = rSt0 dt
Soit F = g(ST1 ) une variable aléatoire positive et π(F )t son prix implicite. On suppose qu’il existe une
fonction f ∈ C 1,2 ([0, T ] × R+ , R) telle que
Remarque 7.7.1 Il n’est en général pas facile de résoudre explicitement l’équation parabolique ci–
dessus. Le calcul stochastique fournit une expression de cette solution.
a une loi log–normale i.e. Xsx,t a un logarithme de loi N [ln x + (r − 21 σ 2 )(s − t), σ 2 (s − t)], ou encore
Xsx,t = exp(U ) où U a une loi normale.
On peut ainsi calculer
où hT −t (u) est la densité de la loi normale de moyenne ln x + (r − 21 σ 2 )(T − t) et de variance σ 2 (T − t).
Lorsque g est une fonction explicite on peut poursuivre le calcul. Plaçons nous dans le cas où g(x) =
(x − K)+ . Rx R +∞
2 2
Soit Φ(x) = √12π −∞ e−u /2 du = √12π −x e−u /2 du. On a alors en écrivant
Z Z Z
u u
g(e )hT −t (u)du = e hT −t (u)du − K hT −t (u)du,
R {u>ln K} {u>ln K}
σ2
1 x
f (t, x) = xΦ √ ln + (T − t) r +
σ T −t K 2
σ2
−r(T −t) 1 x
−Ke Φ √ ln + (T − t) r − ,
σ T −t K 2
f (T, x) = (x − K)+ .
Théorème 7.7.4 (Formule de Black–Scholes) Le prix d’un call européen est donné par
où
σ2 √
1 x
d1 = √ ln +T r+ , d2 = d1 − σ T
σ T K 2
On a également
f (t, x) = xΦ (d1 (t)) − Ke−r(T −t) Φ (d2 (t)) ,
où
σ2
1 x
d1 (t) = √ ln + (T − t) r + ,
σ T −t K 2
√
d2 (t) = d1 (t) − σ T − t.
Cette méthode donne des formules explicites pour la richesse initiale et le portefeuille, mais elle ne
s’applique pas aux cas non–Markovien comme le cas “knock–out option” i.e. F (ω) = 1{K≤max0≤t≤T St } ..
75
on obtient
Z T
P (t, T ) = EQ exp − r(s)ds Ft
t
Z T Z T
1
= exp −EQ r(s)ds Ft + VarQ r(s)ds Ft
t 2 t
= A(t, T ) exp {−B(t, T )r(t)} ,
où
1 − e−a(T −t)
B(t, T ) =
a
et " #
σ2
(B(t, T ) − T + t)(a2 b∗ − 2
) 2 2
σ B(t, T )
A(t, T ) = exp −
a2 4a
De ceci s’obtient l’expression de R(t, T )
ln A(t, T ) r(t)B(t, T )
R(t, T ) = − + .
T −t T −t
76
C) Considérons l’ EDS.
où b(t, x) et c(t) sont des fonctions déterministes continues, telles que b(t, x) satisfait les conditions
(6.1.2) et (6.1.3) en x. Cette équation peut être résolue par la procédure suivante :
a) On pose Xt = Mt Yt , où
Z t
1 t 2
Z
Mt = exp c(s)dBs − c (s)ds ,
0 2 0
b) L’équation (7.8.46) est une équation différentielle ordinaire à coefficient aléatoire, que l’on résout
par la méthode classique. Par exemple, si on suppose que b(t, x) = b(t)x. L’équation (7.8.46) devient
Z t
dYt = b(t)Yt dt, et Yt = x exp b(s)ds .
0
D’où, Z t Z t Z t
1 2
Xt = x exp b(s)ds + c(s)dBs − c (s)ds .
0 0 2 0
Yamada et Watanabe ont montré en 1971 que la condition de Lipschitz sur le coefficient de diffusion
peut être affaiblie dans le sens suivant. Supposons que les coefficient b et σ ne dépendent pas du temps,
le dérive b est Lipschitzien et le coerfficient de diffusion σ vérifie la condition de Hölder suivante
Par exemple
dXt = |Xt |γ dBt , X0 = x
possède une unique solution pour tout γ ≥ 21 .
77
où a∗ = ασ + a et b∗ = aab∗ .
Supposons alors que Q est une probabilité
Rt neutre au risque, sous laquelle les prix des zéro–coupons
actualisés Pe(t, u) = P (t, u) exp(− 0 r(s)ds), forme une martingale par rapport à {Ft : t ∈ [0, u]},
pour tout u ∈ [0, T ].
Sous cette hypothèse, le prix d’un zéro–coupon de maturité T à l’instant t se calcule moyennant
la formule Z T
P (t, T ] = EQ exp − r(s)ds Ft
t
Le calcul de cette expression donne (en posant a au lieu de a et b∗ au lieu de b dans le modèle de
∗
Vasicek)
P (t, T ) = A(t, T ) exp {−B(t, T )r(t)} ,
où ! 2ab2
−t)
2γ exp (a+γ)(T
2
σ
A(t, T ) =
(a + γ)(exp(γ(T − t) − 1) + 2γ
et
2 exp(γ(T − t) − 1)
B(t, T ) =
(a + γ)(exp(γ(T − t) − 1) + 2γ
78
√
et γ = a2 + 2σ 2 .
Afin de trouver ce résultat il est nécessaire de résoudre l’équation aux dérivées partielle avec une
condition terminale
∂P ∂P g2 ∂ 2P
+ (f − qg) −
+ rP = 0,
∂t ∂r 2 ∂r2
P (T, T ) = 1.
On peut résoudre cette équation en cherchant les solutions sous la forme