Proba ST
Proba ST
Proba ST
M2IF Evry
Monique Jeanblanc
Université d’EVRY
July 4, 2007
Les solutions doivent être retournées à Evry avant le 4 septembre, par courrier postal au nom
Monique Jeanblanc-Etienne Chevalier. Vous pouvez aussi envoyer un fichier pdf à l’adresse
monique.jeanblanc@univ-evry.fr
Si vous ne rendez pas ces exercices, votre inscription ne sera pas validée.
Les outils qui seront présentés dans le cours de calcul stochastique seront utilisés dans tous les cours
de Finance. Il est donc indispensable que vous ayez une maitrise des outils probabilistes de base. Ces
devoirs de vacances constituent donc un test. Il est important que vous sachiez les résoudre. Si ce n’est
pas le cas, mettez vos connaissances à jour, en particulier en lisant le chapitre 1 du cours disponible sur
http://www.maths.univ-evry.fr/pages perso/jeanblanc/cours/M2 cours.pdf
et en résolvant les exercices correspondant à ce chapitre, que vous trouverez (énoncés et corigés) sur
http://www.maths.univ-evry.fr/pages perso/jeanblanc/cours/M2-exo.pdf
Le chapitre 1 du polycopié ne sera pas repris en cours, il constitue les prérequis en probabilités.
Certains exercices sont en anglais, il m’a paru superflu de les traduire. N’oubliez pas que non-positive
(resp. non-increasing) signifie négatif (resp. décroissant).
Les solutions de ce devoir qui seront rédigées avec un traitement de texte type Tex, Latex seront
appréciées. Vous aurez obligatoirement durant l’année scolaire à vous familiariser avec de tels traite-
ments de texte, prenez de l’avance! Ne pas utiliser Word, cela constituerait une perte de temps.
1. Un exercice sur les lois exponentielles et de Poisson
(a) Let X and Y be two independent exponential random variables. Prove that
P(X − Y ∈ A|X > Y ) = P(X ∈ A)
P(X − Y ∈ A|X < Y ) = P(−Y ∈ A)
(b) If X has a Poisson law with parameter θ > 0, prove that
(i) for any s ∈ R, E[sX ] = eθ(s−1) .
(ii) E[X] = θ, var (X) = θ.
(iii) for any u ∈ R, E(eiuX ) = exp(θ(eiu − 1))
(iv) for any α ∈ R, E(eαX ) = exp(θ(eα − 1))
(c) Let Xn be the sum of n independent exponential r.v’s of parameter λ. Compute the law of
Xn and E(e−µXn ))
(d) Let X be a random variable with a Poisson law with parameter θ and (Ui )i≥1 a sequence
of i.i.d.P Bernoulli random variables, with parameter p, and independent of X. Prove that
X
X1 = k=1 Uk and X2 = X − X1 are independent random variables, with a Poisson law of
parameters pθ and (1 − p)θ.
(e) Let Ti be a family of independent exponential random variables with parameter λ and, for
any t > 0
Xn
Nt = inf{n ≥ 1 : Ti > t}
i=1
Prove that Nt has a Poisson distribution.
1
2
(f) Let τ be an exponential random variable with parameter λ. Show that 11τ ≤t − λ(t ∧ τ ) is a
martingale
Pn
2. Soit (Xi , i ≥ 1) une suite de v.a. indépendantes, de même loi et Sn = i=1 Xi .
(a) Montrer que (Sn − nE(X1 ), n ≥ 1) est une martingale
(b) Calculer la fonction caractéristique de Sn .
(c) Soit N une v.a. de loi de Poisson, indépendante des Xi .
i. Calculer E(SN ).
ii. Calculer la fonction caractéristique de SN .
(d) On suppose que les Xi sont de loi de Bernoulli P(Xi = 1) = P(Xi = −1) = 1/2.
i. Quelle est la loi de Sn ?
ii. Soit τ = inf{n : Sn = 0}. Quelle est la loi de τ ?
3. Lois gaussiennes. Soit X une v.a. de loi N (m, σ 2 ).
2 2
(a) Montrer que E(eθX f (X)) = emθ+σ θ /2
E(f (X + θσ 2 )) pour f continue bornée.
(b) Montrer que, si f est ”régulière” E(f (X)(X − m)) = σ 2 E(f 0 (X)).
(c) Montrer que E(eλX ) = exp(λm + 12 λ2 σ 2 ). En déduire les moments de eX , les moments de X
et E(XeλX ). On admettra que si Y est une v.a. telle que E(eλY ) = exp(λa + 12 λ2 b2 ) pour
tout λ, Y est une v.a. gaussienne. Quelles seront l’espérance et la variance de Y ? Donner
une justification de ce résultat.
Z x
y2
(d) Soit N (x) = √12π e− 2 dy. Calculer, dans le cas m = 0 et σ = 1 la valeur de
−∞
E(11X≤b exp(λX)) en fonction de (N , λ, b).
(e) Soit b un nombre réel. On note (x)+ la partie positive de x, soit x+ = sup(x, 0). Calculer,
en terme de fonction de répartition de la loi gaussienne la quantité C(a) = E((aeX − b)+ ).
Calculer la dérivée de C(a).
(f) Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.
The process is said to have stationary increments if, for any pair (s, t) of positive numbers Xt+s −Xt
has the same law as Xs . Prove that, for any n ≥ 1, E(eitX1 ) = ϕn (t) where ϕ is a characteristic
function( depending on n).
5. Cet exercice est destiné à vous familiariser avec des calculs d’espérance en utilisant les propriétés
d’indépendance. On rappelle que
(1) si (X, Y ) sont indépendantes, E(f (X, Y )) = E(Φ(X)) avec Φ(x) = E(f (x, Y )) (sous réserve
que f (X, Y ) soit intégrable)
(2) si (X, Y ) sont indépendantes, E(f (X, Y )|Y ) = Ψ(Y ) avec Ψ(y) = E(f (X, y)) (sous réserve
que f (X, Y ) soit intégrable)
(a) Vérifier que les résultat ci dessus sont vrais si X et Y sont indépendantes et f un produit de
deux fonctions. Comment démontrer le résultat en toute généralité?
(b) Soient N et N 0 deux v.a. de loi N (0, 1), indépendantes.
2
i. Montrer, en utilisant (1), que E(exp a2 N 2 ) = E(exp aN N 0 ).
3
ii. Soit A une variable aléatoire F mesurable et Θ une variable aléatoire à valeurs positives,
indépendante de F. Calculer P(A < Θ|F)
6. Cet exercice va être utilisé dans les cours de mesures de risque.
Soit X une v.a. de fonction de répartition F strictement croissante continue. On se donne
α ∈ [0, 1]. Le quantile au niveau α est la quantité q(α) telle que P(X ≥ q(α)) = α.
(a) Justifier l’existence de q(α). Faire un dessin de la densit pour représenter ce quantile
graphiquement. Que se passe t-il si F n’est pas strictement croissante?
(b) Calculer le quantile d’une v.a. de loi N (m, σ) en fonction de m, σ et l’inverse de la fonction
de répartition
Rα
(c) Montrer que α1 0 q(u)du = E(X|X > q(α))
7. Cet exercice est destiné à vous familiariser avec les copules.
Soit F la fonction de répartition du n-uple de v.a. X = (X1 , · · · , Xn ) et Fi la fonction de répartition
de Xi (on dira que Fi est la i-ième marginales de F ). La copule du n-uple de v.a. (X1 , · · · , Xn )
(on dira aussi la copule de F ) est la fonction C définie sur [0, 1]n par
8. Soit λ une fonction déterministe à valeurs positives et Θ une v.a. positive. On note τ = inf{t :
Rt
0
λ(s)ds ≥ Θ}
(a) Calculer la loi de τ si Θ a une loi exponentielle, et si Θ a une loi uniforme. Dans la suite Θ
a une loi exponentielle de paramètre 1.
(b) Calculer P(τ ≤ T |τ < t), E(11τ ≤T |τ ) et P(τ ≤ T |τ > t)
R t∧τ
(c) Montrer que 11τ ≤t − 0 λ(s)ds est une martingale
Rt
(d) Soient τi = inf{t : 0 λ(s)ds ≥ Θi }
i. Calculer la loi du couple τ1 , τ2 dans le cas où les Θi sont indépendantes.
ii. Calculer la loi du couple τ1 , τ2 si la loi jointe des Θi est donnée par G(θ1 , θ2 ) = P (Θ1 >
θ1 , Θ2 > θ2 )
iii. Calculer P (τ1 > θ1 |θ2 ) si la loi jointe des Θi est donnée par G(θ1 , θ2 ) = P (Θ1 > θ1 , Θ2 >
θ2 )
Rt
(e) Soient τi = inf{t : 0 λi (s)ds ≥ Θ}. On suppose λ1 > λ2 . Calculer la loi du couple τ1 , τ2 .
4
(f) On suppose que λ est un processus F adapté et que Θ est indépendant de F∞ . Calculer, en
utilisant un des exercices ci-dessus la loi de τ et P (τ < T |Ft )
(g) Let qi be a non-increasing function taking values in [0, 1]. The random times τi , i = 1, · · · , n)
are defined as the first time that qi (t) reaches a uniformly distributed threshold Ui on [0; 1],
i.e. τi = inf{t : qi (t) < Ui }. Prove that qi (t) = P(τi > t). p
Let Y1 , · · · , Yn and Y be independent random variables and Xi = ρi Y + 1 − ρ2i Yi . The
default thresholds are defined by Ui = 1 − Fi (Xi ) where Fi is the cumulative distribution
function of Xi . Prove that
à !
Yi Fi−1 (1 − qi (t)) − ρi Y
P(τi ≤ t|Y ) = F p
1 − ρ2i
11. Changement de probabilité Ce thème sera central en vue d’application à la finance. On donne
ici quelques définitions et propriétés (admises ) dans un cas simple et on propose des exercices.
Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentes si elles ont
mêmes ensembles négligeables, c’est à dire si
P (A) = 0 ⇐⇒ Q(A) = 0.
On admet le résultat: Si P et Q sont équivalentes, il existe une variable Y , strictement positive, F-
mesurable, d’espérance 1 sous P appelée densité de Radon-Nikodym telle que dQ = Y dP ou encore
R dQ
Q(A) = A Y dP . On écrit également cette relation sous la forme = Y . Réciproquement, si Y
dP
est une v.a. strictement positive, F-mesurable, d’espérance 1 sous P , la relation EQ (Z) = EP (ZY )
définit une probabilité Q équivalente à P . Elle est facile à mémoriser par la règle de calcul formel
suivante: Z Z Z
dQ
EQ (Z) = ZdQ = Z dP = ZY dP = EP (ZY )
dP
dP 1
On a aussi = .
dQ Y
Si Y est seulement positive, on a P (A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue
par rapport à P .
5
(a) Montrer que si P est une probabilité et Z une v.a., telle que l’égalité dQ = ZdP (soit
Q(A) = EP (Z11A )) définit une probabilité, alors EP (Z) = 1 et P (Z < 0) = 0.
(b) Soit U une variable de Bernoulli sous P définie par
P (U = 0) = 1 − p, P (U = 1) = p.
Soit Y la variable définie par Y = λU + µ(1 − U ). Dans quels cas cette variable est elle
d’espérance 1? Soit dQ = Y dP , Calculer Q(U = 1). Quelle est la loi de U sous Q?
(c) Soit X est une v.a. de loi N (m, σ 2 ) sous P et soit Y = exp{h(X − m) − 21 h2 σ 2 }. Soit
dQ = Y dP . Calculer EQ {exp(λX)}) = EP {Y exp(λX)}. En déduire la loi de X sous Q.
(d) Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U ) soit
1
gaussien. On pose dQ = Y dP avec Y = exp(U − EP (U ) − VarP U ). Montrer que X est
2
gaussien sous Q, de même covariance que sous P .
(e) Soit P une probabilité et Q une probabilité équivalente à P définie par dQ = LdP . Mon-
trer que l’on peut exprimer l’espérance conditionnelle d’une variable sous Q en fonction de
l’espérance conditionnelle sous P :
EP (LX |G)
EQ (X |G) = .
EP (L |G)
12. Soit X et Y deux va, f et g deux fonctions (bornées) On note ψ(x, s) = 11f (x)>s et ϕ(y, t) = 11g(y)>t .
Montrer que si f est croissante, x → ψ(s, x) est croissante. Montrer que
Z ∞Z ∞
Cov(f (X), g(X)) = Cov(ψ(X, s), ϕ(X, t))dsdt
−∞ −∞
Montrer que Cov(ψ(X, s), ϕ(X, t)) ≥ 0. On dit qu’un vecteur X est associé si
Cov(f(X), g(X)) ≥ 0