Martingales 1
Martingales 1
Martingales 1
Martingales et Applications
Aldéric Joulin
A. Joulin
Bureau 115 - GMM
ajoulin@insa-toulouse.fr
Table des matières
0 Espérance conditionnelle 5
0.1 Quelques éléments sur les tribus . . . . . . . . . . . . . . . . . . . . . . . . 5
0.2 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1 Martingales 11
1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Martingales de carré intégrable . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Bibliographie
3
4 TABLE DES MATIÈRES
Chapitre 0
σ(X) := σ {X −1 (B) : B ∈ E}
5
6 CHAPITRE 0. ESPÉRANCE CONDITIONNELLE
Démonstration. Nous n’allons faire que la démonstration dans L2 (F), le cas L1 (F) se
traitant ensuite par densité et un passage à la limite. Posons F = L2 (F), qui est un espace
de Hilbert donc complet (i.e. toute suite de Cauchy converge pour la norme associée). De
plus, F étant inclus dans L2 , il est fermé (tout sous-espace complet d’un espace métrique,
non nécessairement complet, est fermé). Ainsi, par le théorème du supplémentaire ortho-
gonal d’un fermé dans un espace de Hilbert, on a
L2 = F ⊕ F ⊥ ,
E[(X − Y ) Z] = 0,
(iv) (Lemme de Fatou) Soit (Xn )n∈N une suite de v.a. positives. Alors p.s.,
(v) (Convergence dominée) Soit (Xn )n∈N une suite de v.a. tendant p.s. vers une
v.a. X et telles que supn∈N |Xn | ≤ V ∈ L1 . Alors p.s.,
(vi) Supposons que X est F-mesurable et soit Y une v.a. indépendante de F. Soit
2
h : R → R une application borélienne telle que E[|h(X, Y )|] < ∞. Alors on a
E (X − Z)2 = E (U + V )2
= E U 2 + E V 2 + 2 E [U V ]
= E U2 + E V 2 ,
Martingales
Définition 1.1.1. Un processus stochastique (ou aléatoire) à temps discret est une suite
de v.a., non nécessairement indépendantes.
11
12 CHAPITRE 1. MARTINGALES
Définition 1.1.2. Une suite (Fn )n∈N de sous-tribus de A est appelée une filtration de
l’espace (Ω, A, P) si
F0 ⊂ F1 ⊂ · · · ⊂ Fn ⊂ · · · ⊂ A.
L’espace (Ω, A, (Fn )n∈N , P) est alors appelé un espace de probabilité filtré.
La notion de tribu est liée à l’information dont nous disposons. Ainsi, supposer
cette suite de tribus croissante traduit simplement le fait que plus on avance dans le
temps, plus on a d’informations.
Définition 1.1.3. Un processus (Mn )n∈N est adapté à une filtration (Fn )n∈N si Mn est
Fn -mesurable pour tout n ∈ N.
Si Mn est Fn−1 -mesurable pour tout n ∈ N∗ , alors (Mn )n∈N est dit prévisible.
Notons qu’un processus prévisible est forcément adapté. Par ailleurs, le processus
(Mn )n∈N est évidemment adapté à sa filtration naturelle, définie par Fn := σ(M0 , M1 , . . . , Mn )
pour tout n ∈ N.
Définition 1.1.4. Considérons un processus (Mn )n∈N intégrable (tous ses éléments le
sont) et adapté à une filtration (Fn )n∈N . On dit que le processus (Mn )n∈N est (pour
(Fn )n∈N ) une
(i) martingale si E[Mn+1 | Fn ] = Mn pour tout n ∈ N.
(ii) surmartingale si E[Mn+1 | Fn ] ≤ Mn pour tout n ∈ N.
(iii) sous-martingale si E[Mn+1 | Fn ] ≥ Mn pour tout n ∈ N.
Ainsi, le processus intégrable (Mn )n∈N qui est adapté à la filtration (Fn )n∈N est
une martingale si et seulement si pour tout événement A ∈ Fn , on a l’égalité
E [Mn+1 1A ] = E [Mn 1A ] .
Dans le cas d’une sous ou surmartingale, il faut remplacer l’égalité par l’inégalité qui
convient. Observons par ailleurs qu’une martingale est à la fois une surmartingale et une
sous-martingale. Enfin, elle est forcément d’espérance constante, tandis que celle d’une
surmartingale décroı̂t et celle d’une sous-martingale croı̂t.
Donnons-nous quelques exemples bien sympathiques que l’on rencontre souvent en
pratique.
(i) Si (Xn )n∈N ∗ désigne une suite
Pn de v.a. indépendantes et intégrables, alors le
processus (Sn )n∈N ∗ défini par Sn := i=1 Xi est une martingale (resp. surmartingale,
sous-martingale) pour la filtration engendrée par la suite (Xn )n∈N ∗ lorsque pour tout
n ∈ N∗ , on a E[Xn ] = 0 (resp. E[Xn ] ≤ 0, E[Xn ] ≥ 0). Notons que nous n’avons pas
supposé que les v.a. étaient de même loi.
1.1. DÉFINITION ET PREMIÈRES PROPRIÉTÉS 13
(ii) Même conclusion pour le processus donné pour tout n ∈ N∗ par Mn := Sn2 −nσ 2 ,
sous réserve que les Xi ont même variance σ 2 .
(iii) Si (Xn )n∈N ∗ désigne une suite de v.a.
Qnindépendantes, intégrables et d’espérance
commune égale à 1, alors le processus Mn := i=1 Xi est une martingale par rapport à la
filtration naturelle de (Xn )n∈N ∗ .
(iv) Si (Mn )n∈N est un processus intégrable, centré (chaque élément l’est), et à
accroissements indépendants (c’est-à-dire que la suite (Mn+1 − Mn )n∈N forme une suite
de v.a. indépendantes), alors c’est une martingale par rapport à sa filtration naturelle.
(v) Si (Fn )n∈N est une filtration quelconque et X une v.a. intégrable, alors Mn :=
E[X | Fn ] est une martingale pour (Fn )n∈N .
Proposition 1.1.5. Soit (Mn )n∈N un processus intégrable et adapté à une filtration
(Fn )n∈N . Alors c’est une martingale si et seulement si pour tous n, p ∈ N,
E[Mn+p | Fn ] = Mn .
On a le même résultat lorsque (Mn )n∈N est une sous ou surmartingale (remplacer l’égalité
par l’inégalité qui convient).
Démonstration. La condition suffisante est triviale (prendre p = 1). Pour la condition
nécessaire, notons que l’on a pour p ∈ N∗ ,
" p #
X
E[Mn+p | Fn ] = E (Mn+i − Mn+i−1 ) + Mn | Fn
i=1
p
X
= E [E [Mn+i − Mn+i−1 | Fn+i−1 ] | Fn ] + Mn
i=1
= Mn ,
car (Fn )n∈N étant une filtration, on a Fn ⊂ Fn+i−1 pour tout i ∈ {1, . . . , p}.
Dans la suite, nous supposerons l’espace de probabilité filtré par une filtration
générique (Fn )n∈N . Dans la proposition suivante, on présente quelques propriétés immédiates.
Proposition 1.1.6. (i) L’opposé d’une surmartingale est une sous-martingale, et inver-
sement.
(ii) La somme de deux surmartingales (resp. sous-martingales) est une surmartingale
(resp. sous-martingale).
(iii) L’ensemble des martingales forme un espace vectoriel sur R.
(iv) Si l’on compose une martingale avec une fonction convexe, on obtient une sous-
martingale (sous l’hypothèse d’intégrabilité).
Démonstration. Les trois premières propriétés sont immédiates. Pour la dernière, il suffit
d’utiliser l’inégalité de Jensen pour l’espérance conditionnelle.
14 CHAPITRE 1. MARTINGALES
Par exemple, si (Mn )n∈N est une martingale alors (|Mn |p )n∈N avec p ≥ 1 (sous
réserve que chaque Mn est dans Lp ) et (Mn+ )n∈N sont des sous-martingales. Par ailleurs,
on déduit de la proposition précédente que la plupart des résultats valables pour une
sous-martingale le sera aussi pour une surmartingale, quitte à modifier légèrement les
hypothèses (transformer un + en −, une suite croissante en suite décroissante, etc...).
À présent, introduisons deux notions importantes à propos des martingales : la
décomposition de Doob et la transformation prévisible.
Xn = Mn + An , n ∈ N.
Démonstration. Pour l’existence, on définit récursivement les processus (Mn )n∈N et (An )n∈N
de la manière suivante : A0 = 0 et M0 = X0 puis pour tout n ≥ 1,
On vérifie aisément que (Mn )n∈N est une martingale par construction, que (An )n∈N est
un processus croissant par la propriété de sous-martingale de la suite (Xn )n∈N , prévisible
et intégrable par construction. Enfin, ils satisfont Xn = Mn + An pour tout n ∈ N.
Pour l’unicité, supposons qu’il existe deux couples de processus (Mn )n∈N , (An )n∈N et
(Nn )n∈N , (Bn )n∈N vérifiant la conclusion, et montrons qu’ils sont égaux. Comme pour
tout n ∈ N,
Xn = Mn + An = Nn + Bn ,
on a que
Mn − Nn = Bn − An , n ∈ N.
Ainsi, le processus (Bn − An )n∈N est une martingale et l’on obtient pour tout n ∈ N,
E[Bn+1 − An+1 | Fn ] = Bn − An .
Autrement dit, le processus (Bn − An )n∈N est constant et vaut donc B0 − A0 = 0. Ainsi,
les processus (An )n∈N et (Bn )n∈N coı̈ncident et donc les processus (Mn )n∈N et (Nn )n∈N
aussi.
1.2. MARTINGALES DE CARRÉ INTÉGRABLE 15
L’intérêt de la décomposition de Doob réside dans le fait que l’étude d’une sous-
martingale peut souvent se ramener à celle d’une martingale, en général plus facile à
appréhender (modulo la présence d’un processus croissant prévisible). Cette remarque
sera illustrée dans la partie convergence des martingales.
La transformation prévisible d’une martingale permet de construire une nouvelle
martingale à partir d’une martingale originelle, sous certaines conditions sur la suite
prévisible.
n
X
M
fn := M
f0 + Ai (Mi − Mi−1 ), n ∈ N∗ .
i=1
Démonstration. Tout d’abord, remarquons que (M fn )n∈N est clairement adapté par rap-
port à la filtration (Fn )n∈N , et que la bornitude des An assure simplement l’intégrabilité
des éléments Mfn . Étant donné un entier n, on a par la prévisibilité de An+1 ,
h i
E Mn+1 − Mn | Fn = E [An+1 (Mn+1 − Mn ) | Fn ]
f f
= An+1 E [Mn+1 − Mn | Fn ]
= 0,
Définition 1.2.1. Un processus (Xn )n∈N est dit de carré intégrable, ou simplement dans
L2 , si E[Xn2 ] < +∞ pour tout n ∈ N.
16 CHAPITRE 1. MARTINGALES
Définition et théorème 1.2.3. Soit (Mn )n∈N une martingale de carré intégrable. Alors il
existe un unique processus croissant et prévisible, intégrable et issu de 0, appelé la variation
quadratique de (Mn )n∈N et noté ([M, M ]n )n∈N , tel que le processus (Mn2 − [M, M ]n )n∈N
soit une martingale.
La variation quadratique admet la représentation suivante : [M, M ]0 = 0 et pour tout
n ∈ N∗ ,
Xn
E (Mi − Mi−1 )2 | Fi−1 .
[M, M ]n =
i=1
Démonstration. La martingale (Mn )n∈N étant de carré intégrable, le processus (Mn2 )n∈N
est une sous-martingale et par la décomposition de Doob, il existe une unique martingale
(Nn )n∈N et un unique processus croissant (An )n∈N , prévisible, intégrable et issu de 0, tels
que
Mn2 = Nn + An , n ∈ N.
Le processus (An )n∈N est la variation quadratique de la martingale de carré intégrable
(Mn )n∈N , et est noté dans la suite ([M, M ]n )n∈N .
À présent, établissons l’expression explicite de la variation quadratique. Pour ce faire il
suffit de montrer, par unicité de la décomposition de Doob, que le processus suivant est
une martingale : N0 := M02 et
n
X
Nn := Mn2 − E (Mi − Mi−1 )2 | Fi−1 , n ∈ N∗ .
i=1
On a pour tout n ∈ N,
2
| Fn ] − Mn2 − E (Mn+1 − Mn )2 | Fn
E[Nn+1 − Nn | Fn ] = E[Mn+1
1.2. MARTINGALES DE CARRÉ INTÉGRABLE 17
2
| Fn ] − Mn2 − E Mn+1
2
| Fn − Mn2 + 2Mn E [Mn+1 | Fn ]
= E[Mn+1
2
| Fn ] − Mn2 − E Mn+1
2
− Mn2 | Fn
= E[Mn+1
= 0,
E (Mn+1 − Mn )2 | Fn = E Mn+1
2
| Fn − Mn2 .
et en particulier
Var(Mn ) = Var(M0 ) + E [[M, M ]n ] , n ∈ N,
une identité nous permettant souvent de calculer la variance d’une martingale de carré
intégrable lorsque l’on connaı̂t explicitement sa variation quadratique. Enfin, le dernier
résultat de cette partie est une formule exprimant la variation quadratique de la trans-
formation prévisible en fonction de celle de la martingale originelle. Nous nous servirons
de ce résultat dans le prochain chapitre pour démontrer la loi des grands nombres pour
les martingales.
n
X
= A2i ([M, M ]i − [M, M ]i−1 ) ,
i=1
comme union de deux événements de la tribu Fn . Ainsi, A ∈ Fτ1 ∧τ2 , d’où l’inclusion
désirée.
Dans la pratique, comme par exemple pour le problème de la ruine du joueur, ce
qui nous intéresse est le comportement d’un processus (Xn )n∈N évalué au temps d’arrêt
τ . S’il est supposé fini p.s., alors on peut définir la v.a. Xτ comme
X
Xτ := 1{τ =n} Xn .
n∈N
On montre facilement que Xτ est Fτ -mesurable. Lorsque que le temps d’arrêt prend la
valeur +∞, c’est-à-dire que P(τ = +∞) > 0, nous pouvons toujours le tronquer en
considérant plutôt pour un entier n donné le temps d’arrêt n ∧ τ , qui est fini et même
borné. Dans ce cas, la v.a. Xn∧τ est bien définie.
Énonçons à présent le théorème d’arrêt pour les martingales (valable aussi pour
les sous et surmartingales sous les mêmes hypothèses, sous réserve de modifier les égalités
par les inégalités qui conviennent).
Théorème 1.3.4. (Théorème d’arrêt pour les martingales)
Soit (Mn )n∈N une martingale et soit τ un temps d’arrêt. Alors le processus arrêté
(Mn∧τ )n∈N est aussi une martingale. De plus, si τ1 ≤ τ2 sont deux temps d’arrêt bornés,
alors on a
E [Mτ2 | Fτ1 ] = Mτ1 et E[Mτ1 ] = E[Mτ2 ] = E[M0 ].
Démonstration. Quitte à remplacer (Mn )n∈N par la martingale (Mn − M0 )n∈N , supposons
sans perte de généralité que M0 = 0 (ce que l’on fera de temps en temps dans la suite
de ce cours). La v.a. τ étant un temps d’arrêt, les v.a. définies pour tout n ∈ N∗ par
An := 1{τ ≥n} forment un processus prévisible. De plus, on a
n
X n∧τ
X
Ai (Mi − Mi−1 ) = (Mi − Mi−1 ) = Mn∧τ ,
i=1 i=1
ce qui entraı̂ne que la suite (Mn∧τ )n∈N est la transformation prévisible de la martingale
(Mn )n∈N par rapport à (An )n∈N ∗ . Ainsi, c’est une martingale par le théorème 1.1.8 et
la première affirmation du théorème est démontrée. Le lecteur averti aura noté que cette
propriété de martingale peut être démontrée directement : montrer d’abord l’intégrabilité,
ensuite le fait que (Mn∧τ )n∈N est adapté à la filtration sous-jacente, puis la propriété de
martingale en remarquant que
Mn∧τ = Mn 1{τ ≥n} + Mτ 1{τ <n}
n−1
X
= Mn 1{τ ≥n} + Mi 1{τ =i} .
i=1
1.3. THÉORÈME D’ARRÊT 21
Démontrons maintenant les deux égalités. Supposons τ2 borné par une constante
positive κ. Comme (Mn∧τ2 )n∈N est une martingale, on a pour n0 := bκc + 1 (la notation
b·c désignant la partie entière) et tout événement A ∈ Fτ1 que
n∧τ
X
|Mn∧τ | ≤ |Mi − Mi−1 |
i=1
Xκ
≤ (|Mi | + |Mi−1 |),
i=1
qui est intégrable sans dépendre de n, le théorème de convergence dominée entraı̂ne que
On les appelle inégalités maximales de Doob. Dans cette partie, nous établissons des
inégalités maximales pour les sous et surmartingales positives qui nous serviront comme
ingrédient de base dans la démonstration des théorèmes de convergence. En particulier,
une fois que tous les résultats ci-dessous seront démontrés pour les sous-martingales po-
sitives, ils seront immédiatement valables pour des martingales, en remplaçant Mn∗ par
sup0≤k≤n |Mk |.
Théorème 2.1.1 (Inégalités maximales de Doob). Soit (Mn )n∈N une sous-martingale
positive. Alors pour tout n ∈ N,
E[Mnp ]
P(Mn∗ ≥ λ) ≤ , λ > 0.
λp
23
24 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
∗ E[M0 ]
P(M∞ ≥ λ) ≤ , λ > 0.
λ
Démonstration. Établissons tout d’abord la première inégalité. Notons que pour une
sous-martingale, on a
Mk ≤ E[Mn | Fk ], 0 ≤ k ≤ n,
ce qui entraı̂ne que pour tout A ∈ Fk , en multipliant par 1A et en prenant l’espérance,
E[Mk 1A ] ≤ E[Mn 1A ].
Ce qui est remarquable dans les inégalités maximales, c’est que l’on réussit à
faire passer le “sup” à l’extérieur de la probabilité. De plus, on voit que l’on contrôle
ici l’évolution du processus par l’espérance de la valeur initiale ou de la valeur terminale
du processus. À présent, donnons une seconde inégalité maximale, comparant l’espérance
du processus supremum avec celle du processus originel.
Théorème 2.1.2 (Inégalités de Doob Lp ). Soit p > 1. Supposons que (Mn )n∈N soit une
sous-martingale positive telle que Mn ∈ Lp pour tout n ∈ N. Alors pour tout n ∈ N,
Mn∗ ∈ Lp et p
∗ p p
E[(Mn ) ] ≤ E[Mnp ].
p−1
Démonstration. Tout d’abord, le fait que Mn∗ ∈ Lp est une conséquence des inégalités
n
!p n
X X
∗ p
(Mn ) ≤ Mk ≤ (n + 1) p−1
Mkp .
k=0 k=0
faciles à vérifier. Commençons par énoncer un premier résultat dans le cas des martingales
bornées dans L2 , dont la preuve repose essentiellement sur une inégalité maximale de
Doob.
Théorème 2.2.1. Soit (Mn )n∈N une martingale bornée dans L2 , i.e.
Alors la suite (Mn )n∈N converge p.s. et dans L2 vers une v.a. M∞ ∈ L2 .
En particulier, une martingale bornée (i.e. telle que la v.a. supn∈N |Mn | est bornée) est
p.s. convergente.
Démonstration. Pour toute paire arbitraire de rationnels a < b, notons l’ensemble
Aa,b := ω ∈ Ω : lim inf Mn (ω) ≤ a < b ≤ lim sup Mn (ω) .
n→+∞ n→+∞
Ainsi, la suite (Mn )n∈N va converger p.s. (éventuellement vers l’infini) à partir du moment
où l’on montre que P(∪a,b∈Q Aa,b ) = 0. Afin de faire le rapprochement avec les inégalités
maximales, observons que l’on a
b−a
Aa,b ⊂ ω ∈ Ω : sup |Mk (ω) − Mm (ω)| ≥ , m ∈ N.
k≥m 2
qui est la somme partielle d’une série convergente par l’hypothèse de L2 -bornitude. Par
ailleurs, le processus (Mk+m − Mm )k∈N étant une martingale (pour la filtration translatée
(Fk+m )k∈N ), la suite (Mk0 )k∈N définie pour tout k ∈ N par Mk0 := (Mk+m − Mm )2 est une
sous-martingale positive et l’inégalité de Doob du théorème 2.1.1, combinée au lemme de
Fatou, s’applique de la manière suivante :
(b − a)2
b−a 0
P sup |Mk − Mm | ≥ = P sup Mk ≥
k≥m 2 k≥0 4
4
≤ lim inf E [Mk0 ]
(b − a)2 k→∞
4
= 2
sup E [Mk0 ]
(b − a) k≥0
k+m
4 X
= sup E d2i
(b − a)2 k≥0 i=m
4 X
= E d2i .
(b − a)2 i≥m
Enfin, le terme de droite tend vers 0 lorsque m → +∞, ce qui démontre que P(Aa,b ) = 0,
et donc que P(∪a,b∈Q Aa,b ) = 0, toute union dénombrable d’ensembles négligeables restant
négligeable.
Pour démontrer la seconde assertion, notons M∞ la limite p.s. de la martingale (Mn )n∈N .
Par le lemme de Fatou, on a
2
≤ lim inf E Mn2 ≤ sup E Mn2 < +∞,
E M∞
n→+∞ n∈N
d’où M∞ est non seulement finie mais aussi dans L2 . Enfin, la convergence dans L2 est
immédiate d’après ce qui précède :
X
E (M∞ − Mn )2 = E d2k −→ 0.
n→+∞
k≥n+1
28 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
Théorème 2.2.2. Une sous-martingale bornée, tout comme une surmartingale positive,
est p.s. convergente.
Démonstration. Commençons par démontrer la première assertion. Soit (Xn )n∈N une sous-
martingale bornée en valeur absolue par K (une constante déterministe indépendante de
n) et notons Xn = Mn + An sa décomposition de Doob. On a
et donc par convergence monotone, E[A∞ ] ≤ 2K, d’où A∞ < +∞ p.s. On pose
On montre facilement que τp est un temps d’arrêt et, par le théorème d’arrêt, le processus
arrêté (Mn∧τp )n∈N est une martingale. Par ailleurs on a An∧τp ≤ p et donc
c’est-à-dire que la martingale arrêtée est bornée, donc p.s. convergente par le théorème
2.2.1. Comme on a Xn = Xn∧τp lorsque τp = +∞, on en déduit que la sous-martingale
(Xn )n∈N converge p.s. sur l’événement {τp = +∞}. En utilisant la convergence monotone
à deux reprises, on a pour tout p ∈ N,
probabilité qui tend vers 0 lorsque p tend vers l’infini, la v.a. A∞ étant p.s. finie. D’où la
convergence monotone entraı̂ne que P (∩p∈N {τp < +∞}) = 0, c’est-à-dire que ∪p∈N {τp =
+∞} est un événement de probabilité 1. Finalement, la sous-martingale (Xn )n∈N conver-
geant p.s. sur l’événement ∪p∈N {τp = +∞}, on en déduit qu’elle converge p.s., ce qui
achève la démonstration de la première assertion.
À présent si (Xn )n∈N est une surmartingale positive, la fonction exponentielle étant
2.2. CONVERGENCE DES MARTINGALES 29
convexe et croissante, le processus (e−Xn )n∈N est une sous-martingale à valeurs dans l’in-
tervalle [0, 1]. Par ce qui précède on obtient la convergence p.s. de cette sous-martingale,
et donc celle de (Xn )n∈N , qui peut néanmoins tendre vers +∞. Si l’on note X∞ cette
limite, le lemme de Fatou nous donne
E [X∞ ] ≤ lim inf E [Xn ] ≤ E [X0 ] ,
n→+∞
Ainsi, le processus (Yn )n∈N défini par Yn = Mn + E [A∞ | Fn ] est une martingale comme
somme de deux martingales. Par ailleurs, comme le processus (An )n∈N est croissant et
adapté (car prévisible), on a
Yn = Mn + E [A∞ | Fn ] ≥ Mn + An = Xn+ ≥ 0,
c’est-à-dire que (Yn )n∈N est une martingale positive. Enfin, le processus (Yn − Xn )n∈N est
une surmartingale comme somme de deux surmartingales, qui est positive car Yn ≥ Xn+ ≥
Xn . La démonstration est établie.
À présent, nous sommes en mesure d’énoncer la version Lp des théorèmes de conver-
gence pour les martingales.
Théorème 2.2.5. Étant donné p > 1, soit (Mn )n∈N une martingale bornée dans Lp , i.e.
Alors le processus (Mn )n∈N converge p.s. et dans Lp vers une v.a. M∞ ∈ Lp .
Démonstration. La martingale (Mn )n∈N étant bornée dans Lp , elle est donc bornée dans
L1 par l’inégalité de Hölder, donc p.s. convergente par le théorème précédent. Ainsi, notons
∗
M∞ sa limite p.s. Par ailleurs, d’après l’inégalité de Doob Lp , la v.a. M∞ = supn∈N |Mn |
p
appartient à l’espace L . Grâce à l’inégalité suivante :
∗
|Mn − M∞ | ≤ 2M∞ ,
L’intérêt d’introduire cette notion est qu’elle va nous permettre d’obtenir la conver-
gence dans L1 à partir de la convergence p.s., lorsque le théorème de convergence dominée
ne s’applique pas.
Proposition 2.3.2. Si une suite (Xn )n∈N est uniformément intégrable et converge p.s.
vers une v.a. X∞ , alors X∞ ∈ L1 et la convergence a aussi lieu dans L1 .
Démonstration. Notons pour tout a > 0 la quantité
ρ(a) := sup E |Xn | 1{|Xn |>a} .
n∈N
|Xn − X∞ | ≤ |Xn − X∞ | 1{|Xn |≤a} + |X∞ | 1{|Xn |>a} + |Xn | 1{|Xn |>a} .
Les deux premiers termes sont majorés respectivement par a + |X∞ | et |X∞ |, tous deux
dans L1 , donc le théorème de convergence dominée entraı̂ne que
E |Xn − X∞ | 1{|Xn |≤a} −→ 0 et E |X∞ | 1{|Xn |>a} −→ E |X∞ | 1{|X∞ |>a} ≤ ρ(a),
n→+∞ n→+∞
tandis que le troisième et dernier terme est majoré en espérance par ρ(a). Ainsi, on obtient
que
lim sup E [|Xn − X∞ |] ≤ 2ρ(a),
n→+∞
Ainsi, en prenant A = Ω, ceci entraı̂ne par intégrabilité uniforme que supi∈I E[|Xi |] <
+∞. Montrons maintenant l’équicontinuité. Soit ε > 0. On choisit alors a de telle sorte
que supi∈I E[|Xi | 1{|Xi |>a} ] < ε/2. De l’inégalité ci-dessus, il s’ensuit
ε
sup E[|Xi | 1A ] ≤ a P(A) + .
i∈I 2
Enfin, le choix de η := ε/(2a) nous permet d’établir l’équicontinuité.
Réciproquement, posons M := supi∈I E [|Xi |] < +∞. Alors pour tout i ∈ I, l’inégalité de
Chebyshev nous dit que
M
sup P(|Xi | > a) ≤ ,
i∈I a
et par suite, le choix de a assez grand et l’équicontinuité achèvent la démonstration de
l’intégrabilité uniforme.
En particulier, si une v.a. est intégrable, alors on peut adapter la preuve précédente
pour montrer, en utilisant le théorème de convergence dominée, qu’elle est équicontinue.
Ceci se généralise à une famille finie de variables aléatoires.
À présent, nous sommes en mesure d’établir la caractérisation de la convergence
dans L1 des martingales.
Théorème 2.3.4. Soit (Mn )n∈N une martingale. Alors les assertions suivantes sont
équivalentes :
(i) il existe une v.a. Z ∈ L1 telle que
Mn = E[Z | Fn ], n ∈ N.
La v.a. Z étant équicontinue car intégrable, pour tout ε > 0, il existe η > 0 tel que pour
tout n ∈ N,
P(An ) < η =⇒ E [|Z| 1An ] < ε.
Il suffit enfin de choisir a assez grand de sorte que supn∈N P(An ) < η, et on aura alors
E [|Mn | 1An ] < pour tout n ∈ N, autrement dit l’intégrabilité uniforme.
(ii) ⇒ (iii) : la martingale (Mn )n∈N étant uniformément intégrable, elle est bornée dans
L1 par la proposition 2.3.3, et donc elle converge p.s. par le théorème 2.2.4. Une fois la
convergence p.s. établie, la convergence dans L1 est immédiate par la proposition 2.3.2.
(iii) ⇒ (i) : notons que pour tous n, p ∈ N et tout A ∈ Fn , la propriété de martingale
entraı̂ne que
sa variation quadratique : nous rentrons dans le cadre de la loi des grands nombres. Avant
de donner le résultat, rappelons le lemme de Kronecker qui est un résultat de convergence
pour les séries numériques.
Lemme 2.4.1 (Kronecker). Soit (an )n∈N une suite de nombres strictement positifs ten-
dant vers l’infini à l’infini et (xn )n∈N une suite de nombres réels. Si la série de terme
général xn /an converge, alors
n
1 X
lim xk = 0.
n→+∞ an
k=1
Pour montrer la convergence désirée, il nous faut montrer que la suite (ρn )n∈N donnée par
n
1 X
ρn = uk−1 (ak − ak−1 ) − u,
an k=1
tend vers 0 lorsque n tend vers l’infini. On a pour tout p ∈ {0, · · · , n − 1},
p
n
1 X 1 X a
p
|ρn | ≤ u (a − a ) + (u − u)(a − a k−1 +
) |u|
k−1 k k−1 k−1 k
an k=1 an an
k=p+1
p
1 X |an − ap | ap
≤ uk−1 (ak − ak−1 ) + sup |uk−1 − u| + |u|.
an an an
k≥p+1
k=1
la suite (an )n∈N tendant vers l’infini à l’infini. Enfin en passant à la limite en p dans
l’inégalité, on obtient
lim sup |ρn | ≤ lim sup |uk−1 − u| = lim sup |up − u| = 0,
n→+∞ p→+∞ k≥p+1 p→+∞
d’où la conclusion.
2.4. LGN ET TCL POUR LES MARTINGALES 35
À présent, nous allons énoncer la loi des grands nombres (LGN) pour les martin-
gales. La dénomination est due au fait que ce résultat est une généralisation de la LGN
pour les v.a. i.i.d., sous l’hypothèse supplémentaire d’un moment d’ordre deux.
Théorème 2.4.2 (LGN). Soit (Mn )n∈N une martingale de carré intégrable. Si p.s.,
[M, M ]∞ = +∞, alors on a la convergence p.s. suivante :
Mn
lim = 0.
n→+∞ [M, M ]n
On remarque que (Xn )n∈N est la transformation prévisible de la martingale (Mn )n∈N par
le processus prévisible et borné (1/(1 + [M, M ]n ))n∈N . Ainsi, par le théorème 1.2.2, le
processus (Xn )n∈N est une martingale de carré intégrable. De plus, le théorème 1.2.4 nous
donne la variation quadratique de la transformation prévisible : pour tout m ∈ N∗ ,
m
X [M, M ]i − [M, M ]i−1
[X, X]m =
i=1
(1 + [M, M ]i )2
m
X [M, M ]i − [M, M ]i−1
≤
i=1
(1 + [M, M ]i )(1 + [M, M ]i−1 )
m
X 1 1
= −
i=1
1 + [M, M ] i−1 1 + [M, M ]i
1 1
= −
1 + [M, M ]0 1 + [M, M ]m
≤ 1,
converge p.s. vers 0, ce qui achève la démonstration de la LGN pour les martingales.
36 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
n
X
Mn = (Xk − mk ), n ∈ N∗ .
k=1
Théorème 2.4.4 (TCL). Soit M une martingale dont les accroissements satisfont la
propriété de convergence p.s. suivante :
et soit (an )n∈N une suite positive tendant vers l’infini lorsque n tend vers l’infini. On
suppose qu’il existe une constante σ 2 > 0 telle que l’on ait la convergence p.s. suivante :
[M, M ]n
lim = σ2.
n→+∞ an
Alors on a les convergences en loi
Mn √ Mn
√ =⇒ N (0, σ 2 ) et an =⇒ N (0, σ −2 ).
an n→+∞ [M, M ]n n→+∞
Démonstration. La première convergence en loi est le TCL proprement dit tandis que la
seconde en est une conséquence grâce au point (iii) du lemme de Slutsky énoncé ci-dessous
après la fin de la démonstration. Ainsi, démontrons seulement la première convergence en
loi et considérons pour simplifier la suite an = n (le cas général est identique).
La démonstration se fait en plusieurs étapes.
◦ Étape 1 : tout d’abord notons K le supremum de l’énoncé et pour tout n ∈ N∗ la
quantité
σn2 := E (Mn − Mn−1 )2 | Fn−1 .
t2 y
φx,y (t) := exp itx + , t ∈ [−1, 1].
2
Par la formule de Taylor-Lagrange, on a
t2 00 t3
φx,y (t) = φx,y (0) + t φ0x,y (0) + φx,y (0) + Rx,y (t)
2 3!
38 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
t2 t3
= 1 + itx + (y − x2 ) + Rx,y (t),
2 6
où Rx,y est une fonction de t, dépendant de x et de y et telle que l’on ait
t2
|Rx,y (t)| ≤ sup |φ000
x,y (s)| ≤ C 1 + |x|
3
e2,
s∈[0,t]
avec C > 0 une constante déterministe dont la valeur n’a aucune importance (dans la
suite, on notera C une telle constante, qui peut changer de ligne à ligne).
◦ Étape 3 : appliquons ceci à la suite de fonctions aléatoires (Zn )n∈N ∗ définie par
t2 σn2
Zn (t) := φMn −Mn−1 ,σn2 (t) = exp it(Mn − Mn−1 ) + , t ∈ [−1, 1].
2
Notons que l’étape 1 nous le permet car l’on a bien σn2 ∈ [0, 1] pour tout n ∈ N∗ . On a
alors
t2
E [Zn (t) | Fn−1 ] = 1 + it E [Mn − Mn−1 | Fn−1 ] + E σn2 − (Mn − Mn−1 )2 | Fn−1
| {z } 2| {z }
= 0 car M martingale = 0 par définition
t3
+ E RMn −Mn−1 ,σn2 (t) | Fn−1
6
= 1 + Vn−1 (t),
où Vn−1 (t) est une v.a. Fn−1 mesurable vérifiant l’inégalité p.s. :
t2
|Vn−1 (t)| ≤ C |t|3 e 2 .
◦ Étape 4 : à présent si l’on pose pour tout n ∈ N∗ la fonction aléatoire
t2 [M, M ]n
Yn (t) := φMn ,[M,M ]n (t) = exp itMn + , t ∈ [−1, 1],
2
on a
E[Yn (t)] = E [Yn−1 (t) Zn (t)]
= E [Yn−1 (t) E [Zn (t) | Fn−1 ]] car Yn−1 (t) est Fn−1 mesurable
= E [Yn−1 (t) (1 + Vn (t))]
= E [Yn−1 (t)] + E [Yn−1 (t) Vn (t)] ,
et l’on démontre facilement par récurrence sur n ∈ N∗ que
E[Yn (t)] = 1 + vn (t),
2.4. LGN ET TCL POUR LES MARTINGALES 39
Mn t2 σ 2
2 2 2
Mn tσ t [M, M ]n
E exp it √ + − 1 = E exp it √ exp − exp
n 2 n 2 2n
t
+E Yn √ − 1.
n
Montrons que la première espérance dans le terme de droite tend vers 0 lorsque n tend
vers l’infini. On a
2 2 2 2 2 2
exp it √ M n t σ t [M, M ]n t σ t [M, M ] n
exp − exp = exp − exp ,
n 2 2n 2 2n
qui tend p.s. vers 0 lorsque n tend vers l’infini, la suite [M, M ]n /n tendant p.s. vers σ 2
par hypothèse. De plus, comme la suite [M, M ]n /n est bornée par 1 d’après l’étape 1, on
a 2 2 2 2 2 2
exp t σ − exp t [M, M ]n ≤ exp t σ + exp t ,
2 2n 2 2
cette dernière quantité étant bien intégrable car déterministe. Le théorème de convergence
dominée et l’étape 4 nous donnent alors que
Mn t2 σ 2
lim E exp it √ + = 1,
n→+∞ n 2
c’est-à-dire que
t2 σ 2
Mn
lim E exp it √ = exp − .
n→+∞ n 2
Enfin, le théorème de convergence de Lévy (la convergence des fonctions caractéristiques
est équivalente à la convergence en loi) √
nous permet d’obtenir le résultat désiré, à savoir
la convergence en loi de la suite (Mn / n)n∈N ∗ vers une v.a. gaussienne centrée et de
variance σ 2 .
40 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
Lemme 2.4.5 (Lemme de Slutsky). Soient (Xn )n∈N ∗ et (Yn )n∈N ∗ deux suites de v.a.
convergeant en loi respectivement vers un nombre c ∈ R et une v.a. Y . Alors
(i) la somme Xn + Yn converge en loi vers c + Y .
(ii) le produit Xn Yn converge en loi vers c Y .
(iii) le ratio Yn /Xn converge en loi vers Y /c dès que c 6= 0.
Dans l’énoncé, l’hypothèse selon laquelle Xn converge vers une constante est cru-
ciale. En effet, si la limite était une v.a., le résultat ne serait plus valide et il faudrait une
hypothèse plus forte comme la convergence en loi du couple (Xn , Yn ) pour que le résultat
reste vrai. Par ailleurs, le lemme reste valide lorsque l’on remplace toutes les convergences
en loi par des convergences en probabilité.
Dans le cas où les v.a. sont indépendantes, la loi jointe étant le produit des lois mar-
ginales, la vraisemblance devient simplement le produit des lois marginales. En revanche
ce n’est plus le cas si les v.a. ne sont plus indépendantes comme lorsque le n-échantillon
représente les termes successifs d’une chaı̂ne de Markov. Notons par ailleurs que l’EMV
peut être unique, ne pas être unique, ou même ne pas exister. Lorsque la vraisemblance
est strictement positive et grâce à la croissance stricte du logarithme népérien (noté log
dans la suite), il est équivalent (et souvent plus simple en pratique) de maximiser la
log-vraisemblance, c’est-à-dire le logarithme népérien de la vraisemblance (dans le cas
indépendant le produit se transforme en somme, ce qui est plus simple à dériver). La
recherche de l’EMV est alors un problème d’optimisation de la log-vraisemblance : si c’est
une fonction assez régulière de θ, alors il s’agit :
- de trouver un point critique, i.e. un point pour lequel la dérivée de la log-
vraisemblance s’annule, puis
- de vérifier que la dérivée seconde en ce point est négative (il s’agit donc d’un
maximum local) puis
- de montrer que ce maximum local est en fait global. Ce dernier point est en
général assuré par l’éventuelle concavité de la log-vraisemblance.
Dans le cas des v.a. i.i.d. et sous des hypothèses de régularité raisonnables, l’EMV
est un estimateur consistant de θ, c’est-à-dire qu’il converge en probabilité vers θ lorsque
la taille n de l’échantillon tend vers l’infini. De plus, il est asymptotiquement normal au
sens de la convergence en loi vers une v.a. gaussienne centrée dont la variance est l’inverse
d’une quantité strictement positive appelée l’information de Fisher. En particulier l’EMV
atteint à la limite la borne de Cramer-Rao : il est asymptotiquement sans biais et de
variance minimale : on dit qu’il est asymptotiquement efficace.
Dans le cas des chaı̂nes de Markov, il existe des résultats analogues sous de bonnes
hypothèses de convergence en temps long vers une mesure invariante. Plutôt que d’énoncer
un résultat général, regardons ce que l’on obtient sur un exemple particulier et voyons
comment la théorie des martingales entre en jeu. L’exemple que nous allons étudier fait
partie de la classe importante des processus auto-régressifs d’ordre 1, notés processus
AR(1), intervenant comme modèle de régression pour des séries temporelles (dans lequel
la série est expliquée par ses valeurs passées plutôt que par d’autres variables). Dans la
suite on supposera la condition initiale X0 déterministe par simplicité, mais ce qui va
suivre reste valide dans le cas d’une v.a. quelconque, l’important étant que l’on connaisse
sa loi. En effet, la valeur de la chaı̂ne au temps 0 est observée en pratique et peut donc
être considérée comme connue (sa loi ne dépendra pas du paramètre inconnu θ).
Ainsi, soit (Un )n≥1 une suite i.i.d. de loi commune N (0, 1) et considérons la suite
42 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
Xn+1 = θ Xn + Un+1 , n ∈ N,
où θ ∈] − 1, 1[ est un paramètre inconnu que l’on souhaite estimer. La suite (Xn )n≥0
s’écrivant sous la forme
Xn+1 = f (Xn , Un+1 ),
où f : R × R → R est la fonction borélienne f (x, u) = θx + u, et les (Un )n≥1 étant i.i.d.
et (évidemment) indépendantes de X0 , c’est une chaı̂ne de Markov homogène qui est la
version à temps discret d’un processus stochastique à temps continu appelé processus
d’Ornstein-Uhlenbeck. Il n’est pas difficile de montrer que le vecteur (X1 , . . . , Xn ) des ob-
servations est gaussien (la condition d’identifiabilité est alors immédiatement vérifiée).
Plus précisément, comme la densité jointe est le produit des densités conditionnelles
(rappelez-vous votre cours sur les chaı̂nes de Markov), la densité jointe est
n
!
1 1 X
fθ (x1 , . . . , xn ) = exp − (xi − θ xi−1 )2 , (x1 , . . . , xn ) ∈ Rn ,
(2π)n/2 2 i=1
On voit directement que cette fonction est une parabole en θ dont les branches pointent
vers le bas : il s’agit d’une fonction concave et régulière de θ, qui admet donc un unique
maximum. Sa dérivée est
n
∂ X
log Ln (x1 , . . . , xn , θ) = − xi−1 (θ xi−1 − xi ),
∂θ i=1
Notons que ce ratio est bien défini, le dénominateur étant strictement positif (x0 = x 6= 0).
Ainsi l’EMV est égal à
Pn Pn
i=1 Xi−1 Xi i=1 Xi−1 Ui Mn
θ̂n = Pn 2
= θ+ P n 2
= θ+ ,
i=1 Xi−1 i=1 Xi−1 [M, M ]n
2.5. UNE OUVERTURE VERS LES STATISTIQUES 43
La notation M n’est pas innocente : on montre que M est une martingale de carré
intégrable. Nous y voilà : la consistance et la potentielle normalité asymptotique de l’EMV
dépendent du comportement du ratio martingale/variation quadratique. Pour la consis-
tance, on souhaite utiliser la LGN et pour ce faire, il faut que la variation quadratique
tende p.s. vers l’infini lorsque n tend vers l’infini. Remarquons que cette dernière est,
lorsque l’on divise par n, de la forme
n
[M, M ]n 1 X
= g(Xi−1 ), avec g(u) = u2 .
n n i=1
Ainsi, si la chaı̂ne de Markov est irréductible et récurrente positive, alors la chaı̂ne possède
une unique probabilité invariante π et dans le cas où g ∈ L1 (π), la somme renormalisée
ci-dessus converge p.s. vers l’intégrale de la fonction g par rapport à π : c’est le théorème
ergodique. L’hypothèse de la LGN est alors satisfaite et l’on obtient ainsi la consistance de
l’EMV, la convergence p.s. entraı̂nant celle en probabilité. On peut montrer facilement que
la chaı̂ne ci-dessus est bien irréductible (on a P (z, A) > 0 pour tout z ∈ R et tout borélien
A de mesure de Lebesgue strictement positive, les probabilités de transition étant des lois
gaussiennes, donc de support R tout entier) et qu’elle admet pour unique probabilité
invariante la loi gaussienne centrée et de variance 1/(1 − θ2 ) (rappelons que θ est supposé
être dans l’intervalle ] − 1, 1[).
De même, pour la normalité asymptotique, on va utiliser le TCL. Tout d’abord on a bien
p.s. r
1 − θ2
Z
[M, M ]n u2 (1−θ 2 ) 1
lim = u2 e− 2 du = 2
=: σ 2 .
n→+∞ n 2π R 1 − θ
Néanmoins l’autre condition du TCL n’est pas vérifiée. En effet, comme Xn−1 est Fn−1 -
mesurable et Un est indépendante de Fn−1 , on a
quantité qui n’est pas bornée car Xn−1 ne l’est pas (son support est R tout entier).
Cependant le TCL a tout de même lieu lorsque cette condition est remplacée par la
condition plus faible de la convergence p.s. suivante :
n
1 X
E |Mk − Mk−1 |3 | Fk−1 = 0,
lim
n→+∞ n3/2 k=1
44 CHAPITRE 2. INÉGALITÉS MAXIMALES ET CONVERGENCE
condition qui est satisfaite par notre modèle grâce au théorème ergodique. Ainsi, on a la
convergence en loi suivante :
√
n θ̂n − θ =⇒ N (0, 1 − θ2 ).
n→+∞
Enfin, si l’on désire une variance ne dépendant pas du paramètre inconnu θ, il suffit
d’utiliser la consistance de l’EMV puis le lemme de Slutsky pour obtenir la convergence
en loi suivante :
√ θ̂n − θ
n× q =⇒ N (0, 1).
n→+∞
2
1 − θ̂n
Notons que comme θ ∈] − 1, 1[ et que l’on a la convergence p.s. de θ̂n vers θ, on aura
que p.s. θ̂n ∈] − 1, 1[ à partir d’un certain rang (aléatoire), ce qui évite le problème de
définition au dénominateur ci-dessus.
Bibliographie
45