Algebra de Borel
Algebra de Borel
Algebra de Borel
1
1.1
Recordemos en primer lugar algunas deniciones generales del clculo de a probabilidades. Un espacio de probabilidad es una terna (, F, P ) formada por: (i) Un conjunto que representa el conjunto de los posibles resultados de una cierta experiencia aleatoria. (ii) Una familia F de subconjuntos de que tiene estructura de -lgebra: a a) F b) Si A F, su complementario Ac tambin pertenece a F e c) A1 , A2 , . . . F = Ai F i=1 o (iii) Una aplicacin P : F [0, 1] que cumple: a) P () = 0, P () = 1 b) Si A1 , A2 , . . . F son conjuntos disjuntos dos a dos (es decir, Ai Aj = si i = j), entonces P ( Ai ) = i=1
i=1
P (Ai )
Los elementos de la -lgebra F se denominan sucesos y la aplicacin P se a o denomina una probabilidad, de forma que tenemos la siguiente interpretacin o de este modelo: P (F )=probabilidad de que el suceso F se realice Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi seguramente. Las propiedades a) y b) permiten deducir algunas reglas bsicas del a clculo de probabilidades: a P (A B) = P (A) + P (B) si A B = P (Ac ) = 1 P (A) A B = P (A) P (B). 2
Ejemplo 1 Lanzamos un dado. = {1, 2, 3, 4, 5, 6} F = P() (F contiene todos los subconjuntos de ) 1 P ({ i }) = , para i = 1, . . . , 6 6 Ejemplo 2 Elegimos un nmero al azar en el intervalo [0, 2]. = [0, 2], F es u la -lgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad a de cualquier intervalo [a, b] [0, 2] ser a P ([a, b]) = ba . 2
Se dice que un espacio de probabilidad (, F, P ) es completo si dado un suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la -lgebra F. Un espacio de probabilidad siempre se puede completar substia tuyendo la -lgebra F por una -lgebra mayor formada por los conjuntos a a de la forma F A, donde F F y A es un subconjunto de un conjunto de F de probabilidad cero. Si U es una familia de subconjuntos de , la ms pequea -lgebra que a n a contiene a U es, por denicin, o (U) = {G, G es una -lgebra, U G} , a y se denomina la -lgebra generada por U. Por ejemplo, la -lgebra gena a n erada por los conjuntos abiertos (o por los rectngulos) de R se denomina a n la -lgebra de Borel de R y la representaremos por BRn . a Ejemplo 3 Consideremos una particin nita P = {A1 , . . . , An } de . La o lgebra generada por P est formada por todas las uniones de los elementos a a de la particin (2n en total). o Una variable aleatoria es una aplicacin o R X() que es F-medible, es decir, X 1 (B) F , para todo conjunto B de la lgebra de Borel de R. a 3
X
Una variable aleatoria determina una -lgebra {X 1 (B), B BR } a F que se denomina la -lgebra generada por X. a Una variable aleatoria determina una probabilidad en la -lgebra de a Borel BR denida por PX = P X 1 , es decir, PX (B) = P (X 1 (B)) = P ({ : X() B}) La probabilidad PX se denomina la ley o distribucin de la variable X. o Diremos que una variable aleatoria X tiene densidad de probabilidad fX si fX (x) es una funcin positiva, medible respecto de la -lgebra de Borel o a y tal que
b
P (a < X < b) =
a
fX (x)dx,
para todo a < b. Las variables discretas (que toman un conjunto nito o numerable de valores distintos xk ) no tienen densidad y su ley est determinada por la a funcin de probabilidad : o pk = P (X = xk ). Ejemplo 4 Una variable aleatoria tiene ley normal N (m, 2 ) si P (a < X < b) = 1 2 2
a b
(xm)2 2 2
dx
para todo par de nmeros reales a < b. u Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si P (X = k) = para k = 0, 1, . . . , n. La distribucin de una variable aleatoria X puede caracterizarse mediante o su funcin de distribucin denida como la probabilidad acumulada: o o FX (x) = P (X x) = PX ((, x]) 4 n k p (1 p)nk , k
La funcin FX : R [0, 1] es creciente, continua por la derecha y con o l mites iguales a cero en y 1 en +. Si la variable X tiene densidad fX , entonces,
x
FX (x) =
fX (y)dy,
y si la densidad es continua, FX (x) = fX (x). La esperanza matemtica de una variable aleatoria X se dene como la a integral de X respecto de la probabilidad P , considerada como una medida en el espacio (, F). En particular, si X es una variable elemental que toma los valores 1 , . . . , n en los conjuntos A1 , . . . , An , su esperanza valdr a
n
E(X) =
i=1
i P (Ai ).
El clculo de la esperanza de una variable aleatoria se efectua integrando la a funcin x respecto de la ley de probabilidad de la variable. Es decir, si X es o una variable que tiene esperanza (o sea E(|X|) < ) se tiene
E(X) =
X()dP () =
xdPX (x).
Ms generalmente, si g : R R es una funcin medible respecto de la a o lgebra de Borel y E(|g(X)|) < , entonces la esperanza de la variable g(X) a se puede calcular integrando la funcin g respecto de la ley de la variable X: o
E(g(X)) =
g(X())dP () =
g(x)dPX (x).
g(x)dPX (x) =
Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, 2 ) y es un nmero real, u E(exp (X)) = = = e 1 2 2 1 2 2 . e
2 2 2
ex e 22 dx
x2
(x 2 )2 2 2
dx
2 2 2
La varianza de una variable aleatoria X se dene por 2 = Var(X) = E((X E(X))2 ) = E(X 2 ) [E(X)]2 . X La varianza nos mide el grado de dispersin de los valores de la variable o respecto de su esperanza. Por ejemplo, si X es una variable con ley normal N (m, 2 ) se tiene P (m 1.96 X m + 1.96) = P (1.96 = (1.96) (1.96) = 0.95, donde es la funcin de distribucin de la ley N (0, 1). Es decir, la probabilo o idad de que la variable X tome valores en el intervalo [m 1.96, m + 1.96] es igual a 0.95. Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si sus componentes son variables aleatorias. La esperanza de un vector aleatorio n-dimensional X ser el vector a E(X) = (E(X1 ), . . . , E(Xn )) La matriz de covarianzas de un vector aleatorio n-dimensional X es, por denicin, la matriz X = (cov(Xi , Xj ))1i,jn , donde o cov(Xi , Xj ) = E [(Xi E(Xi )) (Xj E(Xj ))] . Es decir, los elementos de la diagonal de esta matriz son las varianzas de las variables Xj y fuera de la diagonal encontramos las covarianzas entre dos variables Xi y Xj . 6 X m 1.96)
Como en el caso de variables aleatorias se introduce la ley o distribucin o de un vector aleatorio n-dimensional X como la probabilidad denida en la -lgebra de Borel BRn por a PX (B) = P (X 1 (B)) = P (X B). Diremos que un vector aleatorio n-dimensional X tiene una ley normal N = (m, ), donde m Rn , y es una matriz simtrica y denida positiva, e si P (ai Xi bi , i = 1, . . . , n)
bn b1
=
an
a1
(2 det ) 2 e 2
Pn
dx1 dxn .
0 . . . 2 n
fX (x1 , . . . , xn ) =
i=1
1 2 2 i
(xmi )2 2 2 i
Existen tambin leyes normales degeneradas, en las que la matriz es e singular. En este caso, no existe la densidad de probabilidad, y la ley de X queda determinada por su funcin caracter o stica: 1 E eit X = exp it m t t , 2 donde t Rn . En esta frmula t es un vector l o nea (matriz 1 n) y t es un vector columna (matriz n 1). Si X es un vector normal n-dimensional con ley N (m, ) y A es una matriz m n, entonces AX es un vector normal m-dimensional con ley N (Am, AA ). 7
Diremos que una variable tiene media de orden p 1 si E(|X|p ) < . En tal caso, se dene el momento de orden p de la variable aleatoria X como mp = E(X p ). El conjunto de las variables que tienen media de orden p se representa por Lp (, F, P ). Sea X una variable aleatoria con funcin caracter o stica X (t) = E(eitX ). Los momentos de la variable aleatoria puede calcularse a partir de las derivadas de la funcin caracter o stica en el origen mn = 1 (n) (t)|t=0 . in X
Recordemos algunas desigualdades importantes en el clculo de probabila idades: Desigualdad de Tchebychev: Si > 0 P (|X| > ) Desigualdad de Schwartz: E(XY ) Desigualdad de Hlder: o E(XY ) [E(|X|p )] p [E(|Y |q )] q , donde p, q > 1 y
1 p
1 1
1 E(|X|p ). p
E(X 2 )E(Y 2 ).
1 q
= 1.
Desigualdad de Jensen: Si : R R es una funcin convexa tal que las o variables X y (X) tienen esperanza, entonces, (E(X)) E((X)). En particular si (x) = |x|p , con p 1, tendremos |E(X)|p E(|X|p ). 8
Recordemos los diferentes modos de convergencia de una sucesin de vario ables aleatorias Xn , n = 1, 2, 3, . . .: Convergencia casi segura: Xn X, si
n c.s.
lim Xn () = X(),
Convergencia en ley: Xn X, si
n
La convergencia en media de orden p implica la convergencia en probabilidad ya que, debido a la desigualdad de Tchebychev tendremos P (|Xn X| > ) 1 E(|Xn X|p ). p
La convergencia casi segura implica la convergencia en probabilidad (esto es ms dif de demostrar). a cil La convergencia casi segura implica la convergencia en media de orden p 1, si las variables aleatorias Xn estn acotadas por una variable a aleatoria integrable Y (teorema de convergencia dominada): |Xn | Y, E(Y ) < . 9
La convergencia en ley es diferente de los otros tipos de convergencia, ya que lo que nos interesa es la ley de las variables y no sus valores particulares. Un concepto fundamental en probabilidades es el de independencia. Dos sucesos A, B F se dicen independientes si P (A B) = P (A)P (B). Si tenemos una coleccin nita o innita de sucesos {Ai , i I}, diremos o que los sucesos de la coleccin son independientes si o P (Ai1 Aik ) = P (Ai1 ) P (Aik ) para todo conjunto nito de ndices {i1 , . . . , ik } I. Una coleccin de conjuntos de sucesos {Gi , i I} diremos que es indepeno diente si cualquier coleccin de sucesos {Ai , i I} tal que Ai Gi para todo o i I, es independiente. Una coleccin de variables aleatorias {Xi , i I} se dice que es indepeno diente si la coleccin de -lgebras Xi1 (BRn ), i I lo es. Esto signica o a que P (Xi1 Bi1 , . . . , Xik Bik ) = P (Xi1 Bi1 ) P (Xik Bik ), para todo conjunto nito de ndices {i1 , . . . , ik } I, donde los Bj son conjuntos de Borel. Si dos variables aleatorias reales X, Y son independientes y tienen esperanza nita, entonces el producto XY tiene esperanza nita y se cumple la relacin o E(XY ) = E(X)E(Y ) . Ms generalmente, si las variables X1 , . . . , Xn son independientes, a E [g1 (X1 ) gn (Xn )] = E [g1 (X1 )] E [gn (Xn )] , donde las gi son funciones medibles tales que E [|gi (Xi )|] < . Las componentes de un vector aleatorio son independientes s y solo s su densidad o funcin de probabilidad es igual al producto de las densidades o o funciones de probabilidad de cada componente.
10
1.2
Procesos estocsticos a
Un proceso estocstico s una familia de variables aleatorias reales {Xt , t 0} a e denidas en un espacio de probabilidad (, F, P ). El conjunto de parmetros [0, ) representa el tiempo y en algunos casos a supondremos que es un intervalo acotado [0, T ], o el conjunto los nmeros u naturales (procesos a tiempo discreto). Per cada , la aplicacin o t Xt () se dnomina una trayectoria del proceso estocstico. a Si jamos un conjunto nito de instantes {0 t1 < < tn } tendremos un vector aleatorio (Xt1 , . . . , Xtn ) : Rn . Las distribuciones de probabilidad Pt1 ,...,tn = P (Xt1 , . . . , Xtn )1 se denominan las distribuciones en dimensin nita del proceso. o El siguiente teorema debido a Kolmogorov asegura la existencia de un proceso estocstico asociado a una familia de distribuciones en dimensin a o nita que satisfagan una condicin de compatibilidad. o Teorema 1 Consideremos una familia de probabilidades {Pt1 ,...,tn , 0 t1 < < tn , n 1} tales que: 1. Pt1 ,...,tn es una probabilidad en Rn 2. (Condicin de compatibilidad): Si {0 s1 < < sm } {0 t1 < o < tn }, entonces Pt1 ,...,tn 1 = Ps1 ,...,sm donde : Rn Rm es la proyeccin natural asociada a los dos cono juntos de ndices. Entonces, existe un proceso estocstico {Xt , t 0} que tiene la familia a {Pt1 ,...,tn } como distribuciones en dimensin nita. o 11
La media y la autocovarianza de un proceso estocstico se denen como a sigue: mX (t) = E(Xt ) X (s, t) = Cov(Xs , Xt ) = E((Xs mX (s))(Xt mX (t)). La varianza del proceso X se dene por 2 (t) = X (t, t) = Var(Xt ). X Ejemplo 7 Consideremos el proceso estocstico a Xt = A cos( + t), donde A y son variables aleatorias independientes tales que E(A2 ) < y tiene ley uniforme en [0, 2]. En este caso, mX (t) = 0 1 X (s, t) = E(A2 ) cos (t s). 2 Se dice que un proceso estocstico {Xt , t 0} es gaussiano o normal si a sus distribuciones en dimensin nita son leyes normales multidimensionales. o Observamos que en el caso de un proceso gaussiano, la media mX (t) y la autocovarianza X (s, t) determinan las distribuciones en dimensin nita o del proceso. La media mX (t) y la varianza 2 (t) nos permiten conocer donde se X concentran los valores de la variable Xt as como su grado de dispersin, o para cada instante t jo. Por ejemplo, en el caso de un proceso gaussiano, P (mX (t) 2 X (t) Xt mX (t) + 2 X (t)) 0.95.
Notemos que la probabilidad de que las trayectorias del proceso estn e comprendidas entre las curvas mX (t) 2 X (t) y mX (t) 2 X (t) es mucho ms dif de calcular. a cil 12
Ejemplo 8 Consideremos un proceso gaussiano {Xt , t [0, 1]} tal que las variables aleatorias Xt son independientes y con ley N (0, 2 ). La media y autocovarianza de este proceso son mX (t) = 0 X (s, t) = 1 si s = t 0 si s = t
Se dice que un proceso estocstico {Xt , t 0} es una versin de otro a o proceso {Xt , t 0} si para cada t 0 P {Xt = Xt } = 1. Se dice tambin que ambos procesos son equivalentes. Dos procesos equivae lentes puede tener trayectorias diferentes (vase el Ejercicio 1.6). e Diremos que el proceso {Xt , t 0} es continuo en probabilidad si para todo > 0 y todo t 0 lim P (|Xt Xs | > ) = 0.
st
Consideremos un proceso estocstico {Xt , t 0} tal que E (|Xt |p ) < , a para todo t 0, donde p 1. Diremos que el proceso {Xt , t 0} es continuo en media de orden p si lim E (|Xt Xs |p ) = 0.
st
La continuidad en media de orden p implica la continuidad en probabilidad. Sin embargo, la continuidad en media de orden p no implica necesariamente la continuidad de las trayectorias. Ejemplo 9 El proceso de Poisson {Nt , t 0} es un proceso estocstico cara acterizado por la ssiguientes propiedades: i) Nt = 0, ii) Fijados n instantes 0 t1 < < tn los incrementos Ntn Ntn1 , . . . , Nt2 Nt1 , son variables aleatorias independientes, 13
iii) Si s < t, el incremento Nt Ns tiene una ley de Poisson de parmetro a (t s), es decir P (Nt Ns = k) = e(ts) k = 0, 1, 2, . . . Se puede construir un proceso de Poisson de la forma siguiente. Consideremos una sucesin {Yn , n 1} de variables aleatorias independientes y con o ley geomtrica de parmetro . Es decir, para todo x 0, e a P (Yn x) = ex . Pongamos T0 = 0 y para n 1, T n = Y1 + + Yn . Entonces, el proceso Nt denido por Nt = n si Tn t < Tn+1 es un proceso de Poisson de parmetro . a Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias independientes con leyes exponenciales de parmetro . Por tanto, las trayectorias no son continuas, aunque si que a los son en media cuadrtica: a
[(t s)]k , k!
E (Nt Ns )
=
k=1
(ts) k
[(t s)]k k!
st
= (t s) + [(t s)]2 0. Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de continuidad, debido a Kolmogorov.
14
Proposicin 2 (Criterio de continuidad) Supongamos que un proceso eso tocstico {Xt , t 0} cumple la condicin siguiente: a o E (|Xt Xs |p ) cT |t s| (1)
para todo 0 s < t T , donde a > 1 y p > 0. Entonces existe una versin o del proceso estocstico Xt que tiene trayectorias continuas. a Ejemplo 10 El proceso de Poisson no cumple la condicin (1). o La condicin (1) nos permide adems tener informacin sobre la reguo a o laridad de las trayectorias. En efecto, jemos un intervalo de tiempo [0, T ]. Entonces, para cada > 0 existe una variable aleatoria G,T tal que, con probabilidad uno, |Xt () Xs ()| G,T ()|t s| p , para todo s, t [0, T ]. Adems, E(Gp ) < para todo p 1. a ,T
(2)
1.3
Movimiento browniano
En 1828 el botnico ingls Robert Brown observ que los granos de polen en a e o suspensin se mov de forma irregular. Posteriormente se descubri que o an o este fenmeno es debido a los choques aleatorios de las part o culas de polen con las molculas del l e quido. En los aos 20 Norbert Wiener present un n o modelo matemtico para este movimiento basado en la teor de los procesos a a estocsticos. La posicin de una part a o cula en cada instante t 0 es un vector variable aleatorio 3-dimensional Bt . En el caso unidimensional la denicin del movimiento browniano como o proceso estocstico es la siguiente: a Denicin 3 Un proceso estocstico {Bt , t 0} es un movimiento brownio a ano si se cumplen las condiciones siguientes: i) B0 = 0 ii) Fijados n instantes 0 t1 < < tn los incrementos Btn Btn1 , . . . , Bt2 Bt1 , son variables aleatorias independientes 15
iii) Si s < t, el incremento Bt Bs tiene una ley normal N (0, t s) iv) Las trayectorias del proceso son funciones continuas. Observaciones 1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una transformacin lineal del vector Bt1 , Bt2 Bt1 , . . . , Btn Btn1 que tiene o ley normal ya que tiene las componentes independientes y normales. 2) La media y la autocovarianza del movimiento browniano se calculan facilmente: E(Bt ) = 0 E(Bs Bt ) = E(Bs (Bt Bs + Bs )) 2 = E(Bs (Bt Bs )) + E(Bs ) = s = min(s, t) si s t. Puede comprobarse fcilmente que si un proceso gaussiano a tiene media cero y funcin de autocovarianza X (s, t) = min(s, t), eno tonces cumple las condiciones i), ii) y iii) de la Denicin anterior. o a 3) Puede demostrarse que existe un proceso estocstico que cumple las condiciones anteriores. Para ello, se parte de sus distribuciones en dimensin nita, que son leyes normales N (0, ) donde es la la mao triz t1 t1 t1 t1 t2 t2 . . .. . . . . . . . . . t1 t2 tn El teorema de extensin de Kolmogorov permite construir un proceso o estocstico jadas las distribuciones en dimensin nita, siempre que a o sean compatibles, lo que aqu es cierto. Finalmente hay que demostrar que se pueden modicar las variables Bt conjuntos de probabilidad cero de forma que las trayectorias sean continuas. Para ello se aplica el criterio de continuidad de Kolmogorov. Como los incrementos Bt Bs tienen ley normal N (0, t s), para todo nmero entero k tendremos u E (Bt Bs )2k = 16 (2k)! (t s)k . 2k k! (3)
Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una versin continua, ya que o E (Bt Bs )4 = 3(t s)2 . o 4) En la denicin de movimiento bronwiano, se supone que el espacio de probabilidad (, F, P ) es arbitrario. Sin embargo, mediante la aplicacin o C ([0, ), R) B () podemos suponer que el espacio de probabilidad es el conjunto de las funciones continuas C ([0, ), R) con la -lgebra de Borel (gena erada por los conjuntos abiertos relativos a la estructura de espacio mtrico separable y completo) y con una probabilidad igual a la ley del e movimiento browniano: P B 1 . En tal caso las variables aleatorias son las evaluaciones (t) y este espacio de probabilidad se denomina espacio cannico. o Regularidad de las trayectorias Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo p = 2k y utilizando (3), tendremos = k. Por lo tanto, para todo > 0 existe una variable aleatoria G,T tal que |Bt Bs | G,T |t s| 2 ,
1
(4)
para cada s, t [0, T ]. Es decir, las trayectorias del movimiento Browniano son Hlder continuas de orden 1 para todo > 0. Intuitivamente, esto o 2 signica que 1 Bt = Bt+t Bt (t) 2 . En media esta aproximacin es exacta: E (Bt )2 = t. o Variacin cuadrtica del movimiento browniano o a Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisin de o este intervalo 0 = t0 < t1 < < tn = t. 17
La norma de la subdivisin se dene como || = maxk tk , donde tk = o tk tk1 . Pongamos Bk = Btk Btk1 . Entonces, si tj = jt tendremos n
n
|Bk |
k=1
t n
1 2
mientras que
(Bk )2
k=1
t = t. n
(5)
Esas propiedades pueden formularse de manera rigurosa como sigue: En primer lugar, puede demostrarse que las sumas de los cuadrados de los incrementos convergen en media cuadrtica hacia la longitud del intervalo a de tiempo considerado:
n 2 n 2
E
k=1
(Bk ) t
= E
k=1 n
(Bk ) tk (Bk )2 tk
2
=
k=1 n
=
k=1 n
= 3
Por otra parte, la variacin total de las trayectorias del movimiento browo niano, denida como
n
V = sup
k=1
|Bk |
es innita con probabilidad uno. En efecto, utilizando la continuidad de las trayectorias del movimiento browniano, tendremos
n n
|Bk |
n k=1
V sup |Bk | 0
k
||0
(6)
18
Propiedad de autosimilitud Para todo nmero real a > 0, el proceso u a1/2 Bat , t 0 es un movimiento browniano. En efecto, este proceso es normal, con media cero y funcin de autocovarianza igual a min(s, t). o
Procesos relacionados con el movimiento browniano 1.- El puente browniano: Consideremos el proceso Xt = Bt tB1 , t [0, 1]. Se trata de un proceso normal centrado con funcin de o autocovarianza E(Xt Xs ) = min(s, t) st, que verica X0 = 0, X1 = 0. 2.- El movimiento browniano con deriva: Consideremos el proceso Xt = Bt + t, t 0, donde > 0 y R son constantes. Se trata de un proceso normal con media y funcin de autocovarianza o E(Xt ) = t, X (s, t) = 2 min(s, t) 3.- Movimiento browniano geomtrico: Es el proceso estocstico propuesto e a por Black, Scholes y Merton como modelo para la curva de precios de los activos nancieros. Su denicin es la siguiente o Xt = eBt +t , t 0, donde > 0 y R son constantes. Es decir, se trata de la exponencial de un movimiento browniano con deriva lineal.
19
Simulacin del movimiento browniano o El movimiento browniano puede considerarse como el l mite de los paseos aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables aleatorias 1 , . . . , n independientes, idnticamente distribuidas, centradas y e de varianza T . Formemos las sumas parciales n Rk = 1 + + k , k = 1, . . . , n. El Teorema Central del Lmite nos dice que cuando n tiende a innito, la sucesin Rn converge en ley hacia la ley N (0, T ). o Consideremos ahora el proceso estocstico continuo Sn (t) construido por a interpolacin lineal a partir de los valores o Sn ( kT ) = Rk k = 0, . . . , n. n
Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes T , 2T , 3T , . . . n n n . Se verica una versin funcional del Teorema Central del L o mite, conocida con el nombre de Principio de Invariancia de Donsker, que nos dice que la sucesin de procesos estocsticos Sn (t) convege en ley hacia el movimiento o a browniano en [0, T ]. Tambin puede hacerse una simulacin de las trayectorias brownianas e o mediante series de Fourier con coecientes aleatorios. La representacin de o Paley-Wiener del movimiento browniano es t 2 Bt = Z 0 + 2
Zn
n=1
donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con ley N (0, 1). La serie converge uniformemente en [0, 2], para cada , casi seguramente. Para utilizar esta frmula en la simulacin de las trayectorias brownianas o o debemos elegir el nmero M de funciones trigonomtricas y el nmero N de u e u puntos de discretizacin de las funciones: o tj 2 Z0 + 2
M
Zn
n=1
sin(ntj /2) , n
20
donde tj =
2j , N
j = 0, 1, . . . , N .
1.4
Esperanza condicionada
La probabilidad condicionada de un suceso A por un suceso B (suponiendo P (B) > 0) se dene como P (A|B) =
P (AB) . P (B)
Vemos que A y B son independientes s y solo si P (A|B) = P (A). La probabilidad condicionada P (A|B) representa la probabilidad del suceso A suponiendo que sabemos que B ha ocurrido. La aplicacin o A P (A|B) dene una nueva probabilidad en la -lgebra F que se concentra en el cona junto B. Se puede calcular entonces la esperanza condicionada por B de una variable aleatoria integrable X: E(X|B) = 1 E(X1B ), P (B)
Un concepto ms complicado es el condicionamiento por una -lgebra a a de sucesos. Consideremos una -`lgebra B F y una variable aleatoria a integrable X. Una variable aleatoria Z se denomina la esperanza condicionada de la variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos propiedades siguientes: Z es medible respecto de B. Para todo suceso A B E (Z1A ) = E (X1A ) . 21
Puede demostrarse que la esperanza condicionada existe y es unica casi se guramente, de manera que si Z fuese otra variable con las mismas propiedades, entonces Z = Z, P -casi seguramente. En el caso particular en que la -lgebra B est generada per una particin a a o nita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que en cada conjunto Bj toma el valor constante E(X|Bj ), es decir,
m
E(X|B) =
j=1
Reglas para el clculo de esperanzas condicionadas: a Regla 1 La esperanza condicionada es lineal: E(aX + bY |B) = aE(X|B) + bE(Y |B) Regla 2 La variable y su esperanza condicionada tienen la misma esperanza: E (E(X|B)) = E(X) Esta propiedad es una consecuencia inmediata de la denicin, tomando o A = . Regla 3 Si la variable aleatoria X y la -lgebra B son independientes, a entonces E(X|B) = E(X). En efecto, para todo suceso A B tendremos E (X1A ) = E (X)E(1A ) = E(E(X)1A ). Regla 4 Si X es B-medible, entonces E(X|B) = X. Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces E(ZX|B) = ZE(X|B). Es decir, las variables aleatorias B-medibles se comportan como constantes y pueden sacarse fuera de la esperanza condicionada. Regla 6 Si C B, entonces E (E(X|B)|C) = E (E(X|C)|B) = E(X|C) 22
Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es Bmedible y X es independiente de B. Consideremos una funcin h(x, z) o tal que h(X, Z) es integrable. Entonces, se tiene E (h(X, Z)|B) = E (h(X, z)) |z=Z Es decir, primero calculamos la esperanza E (h(X, z)) para un valor arbitrario z de la variable Z y luego substituimos z por Z. La esperanza condicionada tiene propiedades similares a la esperanza ordinaria. Por ejempo se cumple la siguiente propiedad de monoton a: X Y E(X|B) E(Y |B), que implica la desigualdad |E(X|B) | E(|X| |B). Tambin se cumple la e desigualdad de Jensen: Si es una funcin convexa tal que E(|(X)|) < , o entonces (E(X|B)) E((X)|B). (7) En particular, si tomamos (x) = |x|p con p 1, se obtiene |E(X|B)|p E(|X|p |B), por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < , entonces, E(|E(X|B)|p ) < , y E(|E(X|B)|p ) E(|X|p ). Si la -lgebra B est generada por las variables aleatorias Y1 , . . . , Ym , a a entonces, la esperanza condicionada se representa por E(X|Y1 , . . . , Ym ) y es una cierta funcin g(Y1 , . . . , Ym ) de estas variables. En particular, si las o variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ), entonces, la esperanza condicionada se puede calcular como la esperanza de la densidad condicionada: f (x|y1 , . . . , ym ) = es decir, E(X|Y1 , . . . , Ym ) =
f (x, y1 , . . . , ym )
+
xf (x|Y1 , . . . , Ym )dx. 23
En el caso en que la -lgebra B est generada por un conjunto innito a e de variables aleatorias {Yj }, escribiremos tambin e E(X|B) = E(X| {Yj }), pero el clculo no se puede efectuar mediante una frmula como la anterior a o y necesitaremos utilizar las reglas que hemos introducido antes. Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t 0}. Para cada instante t, denimos la -lgebra Ft generada por las variables a aleatorias {Bs , s t}. La -lgebra Ft contiene la historia del movimiento a browniano hasta el instante t. Esto quiere decir que: i) Los sucesos F de Ft sern conocidos (se sabr si han ocurrido o no) en el a a instante t. a ii) El valor de una variable aleatoria X() medible respecto de la -lgebra Ft ser una funcin de la trayectoria del movimiento browniano a o {Bs (), s [0, t]} . Observemos que Fs Ft si s t, es decir, la familia de -lgebras a {Ft , t 0} es creciente. Diremos que {Ft , t 0} es una ltracin en el eso pacio de probabilidad (, F, P ). Queremos calcular E(Bt |Fs ) = E(Bt |Br , r s). Si s t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos E(Bt |Fs ) = Bt . Si s < t, por la propiedad de linealidad (Regla 1): E(Bt |Fs ) = E(Bt Bs + Bs |Fs ) = E(Bt Bs |Fs ) + E( Bs |Fs ). Como Bt Bs es independiente de Fs , la Regla 3 nos da E(Bt Bs |Fs ) = E(Bt Bs ) = 0, y, por lo tanto, obtenemos E(Bt |Fs ) = Bs . 24 (8)
El conjunto de las variables aleatorias Z que son medibles respecto de una -lgebra B y que son de cuadrado integrable (E(Z 2 ) < ), lo representarea mos por L2 (, B, P ). Puede demostrarse que L2 (, F, P ) es un espacio de Hilbert con el producto escalar Z, Y = E(ZY ), y que L2 (, B, P ) es un subespacio cerrado de L2 (, F, P ). En este contexto, si X es una variable tal que E(X 2 ) < , la esperanza condicionada E(X|B) es la variable del espacio L2 (, B, P ) ms prxima a a o X en media cuadrtica: a E (X E(X|B))2 =
ZL2 (,B,P )
min
E (X Z)2 .
(9)
Es decir, E(X|B) es la proyeccin de X en el subespacio L2 (, B, P ). o Desde el punto de vista de la teor de la estimacin, la esperanza condia o cionada E(X|B) es el mejor predictor de la variable X a partir de la -lgebra a B (estimador ptimo). o Demostracin de (9): Sea X una variable tal que E(X 2 ) < . La o desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)
tambin es de cuadrado integrable ya que e
Ejercicios
25
1.1 Supongamos que {Hi , i I} es una familia de -lgebras en un conjunto a . Demostrar que H = {Hi , i I} es tambin una -lgebra. e a 1.2 Supongamos que X es una variable aleatoria real tal que M = E[exp(k|X|)] < para un cierto k > 0. Probar que P (|X| > ) M ek , para todo 0. 1.3 Sea (, F, P ) un espacio de probabilidad y consideremos una sucesin o de sucesos A1 , A2 , . . . tales que
P (Ak ) < .
k=1
Demostrar el lema de Borel-Cantelli: P ( Ak ) = 0, m=1 k=m es decir, la probabilidad que ocurran innitos sucesos de la sucesin es o nula. o 1.4 Sea Z una variable aleatoria con ley N (0, 2 ). A partir de la frmula E(eZ ) = e 2
1 2 2
y desarrollando en serie de potencias la funcin exponencial deducir o que para todo k 1 (2k)! 2k , 2k k! E(Z 2k1 ) = 0. E(Z 2k ) = 1.5 Sea Z una variable aleatoria con ley de Poisson de parmetro . Coma probar que la funcin caracter o stica de Z vale Z (t) = exp eit 1 .
1.6 Sea (, F, P ) = ([0, ), B[0,) , ), donde es una probabilidad en [0, ) con funcin de distribucin continua. Consideremos en este espacio de o o probabilidad los procesos estocsticos a Xt () = Yt () = 0. Comprobar que estos procesos tienen las mismas distribuciones en dimensin nita, pero las trayectorias del proceso X son todas discontino uas. 1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 0. Demostrar que el proceso Bt = Bt0 +t Bt0 , t 0 es tambin un movimiento browniano. e 1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular P (|Bt | < ) donde > 0. 1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una matriz U cuadrada de dimensin n, ortogonal (es decir, U U = I). o Demostrar que el proceso Bt = U Bt es tambin un movimiento browniano. e 1.10 Calcular la media y la autocovarianza del movimiento browniano geomtrico. e Es un proceso gaussiano? 1 si t = 0 si t =
27
Integracin estocstica o a
Supongamos que {Bt , t 0} es un movimiento browniano denido en un espacio de probabilidad (, F, P ). Consideremos la familia creciente {Ft , t 0} de -lgebras generadas por este proceso. Supondremos adems que Ft cona a tiene los conjuntos de probabilidad cero. Esto signica que Ft es la m nima -lgebra que contiene los conjuntos de la forma a {Bs A} N donde s [0, t], A pertenece a la -lgebra de Borel BR , y N es un conjunto a de probabilidad cero. Diremos que un proceso estocstico {ut , u 0} es adaptado (a la familia a de -lgebras Ft ) si para cada t la variable aleatoria ut es Ft -medible. a La inclusin de los sucesos de probabilidad cero en cada -lgebra Ft o a tiene las siguientes consecuencias interesantes: a) Toda versin de un proceso adaptado es tambin adaptado. o e b) La familia de -lgebras es continua por la derecha, es decir, para todo a t0 s>t Fs = Ft . Demostracin de b): Consideremos las -lgebras F t = {Br Bt , r o a s}. Si B s>t Fs , la -lgebra generada por B y por Ft , es independiente de a 1 t+ n F para todo n. Por tanto, (B, Ft ) ser independiente de F t , y tendemos a E(1B |Ft ) = E(1B |Ft F t ) = 1B ,
de lo que se deduce 1B Ft .
La -lgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto a implica que las variables aleatorias F0 -medibles sern constantes, casi segua ramente. Nuestro objetivo es la denicin de integrales estocsticas de la forma o a
T 0
ut dBt .
Consideremos una particin del intervalo [0, T ]: o n : 0 = t0 < t1 < < tn1 < tn = T as como una particin intermedia: o n : ti si leqti+1 , i = 0, . . . , n 1.
Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann T Stieltjes 0 f dg se dene como el l mite
n n n
lim
f (si1 )gi
i=1
cuando supi (ti ti1 ) 0, suponiendo que este l mite existe y es independiente de la sucesin de particiones n y de sus particiones intermedias n , o con la notacin gi = g(ti ) g(ti1 ). o T Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la funcin f o es continua y la funcin g tiene variacin total acotada, es decir: o o sup
i
|gi | < .
Como las trayectorias del movimiento browniano tienen variacin total o innita (vase (6)) no podemos utilizar este criterio para asegurar que la e T integral de Riemann-Stieltjes 0 ut ()dBt () existe para cada , si u es un proceso arbitrario con trayectorias continuas. Obsevemos, si embargo, que si las trayectorias del proceso u son diferenciables con derivadas acotadas, entonces, la integral de Riemann StieltT jes 0 ut ()dBt () existe y puede calcularse mediante una integracin por o partes:
T 0
ut dBt = uT BT
T 0
ut Bt dt.
T
En este apartado presentaremos una construccin de la integral 0 ut dBt o mediante un procedimiento global de tipo probabil stico. En primer lugar deniremos la clase de procesos que integraremos: Designaremos por L2 el conjunto de los procesos estocsticos a a,T u = {ut , t [0, T ]} tales que: 29
a) Para cada t [0, T ], la aplicacin (s, ) us () denida en [0, t] o es medible respecto de la -lgebra producto B[0,t] Ft . a b) E
T 0
u2 dt < . t
Un proceso que verica la condicin a) se dice que es progresivamente o medible. En general, que un proceso estocstico u sea medible signica que la a funcin de dos variables (s, ) us () es medible en la -lgebra producto o a B[0,T ] F . La propiedad a) require la medibilidad de la restriccin del proceso o u a cada conjunto [0, t] . Esta propiedad implica que el proceso u sea adaptado, ya que si una funcin es medible en un espacio producto, al jar o una coordenada resulta medible como funcin de la segunda coordenada. Por o otra parte, la propiedad a) es esencial para garantizar que variables aleatorias t del tipo 0 us ds sean Ft -medibles. La condicin b) signica que el momento de segundo orden es integrable o en [0, T ], ya que, el teorema de Fubini nos permite escribir
T
E
0
u2 dt t
=
0
E u2 dt. t
La propiedad b) nos dice que el proceso u como funcin de las dos variables o 2 (t, ) pertenece al espacio L ([0, T ] ). T Deniremos la integral estocstica 0 ut dBt para procesos u de la clase a L2 como el l mite en L2 () de la integral de procesos elementales. Por a,T denicin un proceso u de L2 es elemental si se puede expresar de la forma o a,T
n
ut =
j=1
(10)
donde 0 = t0 < t1 < < tn = T y las j son variables aleatorias de cuadrado integrable Ftj1 -medibles. Si u es un proceso elemental de la forma (10) se dene la integral estocstica de u respecto del movimiento browniano B como a
T n
ut dBt =
0 j=1
j Btj Btj1 .
(11)
30
La integral estocstica denida en el espacio E de los procesos elementales a tiene las siguiente propiedad de isometria: E
T 0
ut dBt
=E
T 0
u2 dt t
(12)
ya que si i < j las variables aleatorias i j Bi y Bj son independientes y si i = j las variables aleatorias 2 y (Bi )2 son independientes. Por lo tanto se i obtiene
T 2 n n
E
0
ut dBt
=
i,j=1
E i j Bi Bj =
i=1 T
E 2 (ti ti1 ) i
= E
0
u2 dt . t
L2 a,T
La extensin de la integral estocstica a todos los procesos de la clase o a se basa en el siguiente resultado de aproximacin: o
Lema 4 Si u es un proceso de la clase L2 existe una sucesin de procesos o a,T (n) elementales u tales que
T n
lim E
0
ut ut
(n)
dt
= 0.
(13)
ut
(n)
=
j=1
31
E
0
ut ut
(n)
dt
=
0
E sup
ut ut
(n)
dt
E |ut us |2
|ts|T /n
2. Supongamos que u es un proceso arbitrario de la clase L2 . En tal caso, a,T (n) existe una sucesin de procesos v , pertenecientes a la clase L2 , continuos o a,T
en media cuadrtica y tales que a
T n
lim E
0
ut v t
(n)
dt
= 0.
(14)
En efecto, denimos
vt
(n)
=n
1 t n
us ds = n
0
us ds
0
us 1 ds ,
n
con la convencin u(s) = 0 si s < 0. Estos procesos son continuos en media o cuadrtica (tambin tienen trayectorias continuas), y pertenecen a la clase a e L2 , debido a la propiedad a). Adems se cumple (14) ya que para cada a a,T (t, ) tenemos
T 0
(vase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia e dominada en el espacio producto [0, T ] ya que
T 0
v (n) (t, ) dt
0
ut dBt = lim
0
ut dBt ,
(n)
(15)
donde u(n) es una sucesin de procesos elementales tales que cumplen (13). o 32
Que el l mite (15) existe es debido a que la sucesin de variables aleatoo T (n) 2 rias 0 ut dBt es de Cauchy en el espacio L (), debido a la propiedad de isometr (12): a
T
E
0
ut dBt
(n)
T 0
ut dBt
(m)
= E
0 T
ut ut
(n)
(n)
(m)
dt
2E
0 T
ut ut ut ut
dt
2
+2E
0
(m)
dt
n,m
0.
Tambin puede demostrarse que el l e mite (15) no depende de la sucesin u(n) o siempre que esta sucesin cumpla (13). o La integral estocstica tiene las siguientes propiedades importantes: a 1.- Isometr a: E
0 T 2 T
ut dBt
=E
0
u2 dt . t
ut dBt
= 0.
3.- Linealidad:
T T T
ut dBt + b
0
vt dBt .
u2 dt = 0 . t
=
j=1
(j1)T n (j1)T n 1 m
us ds 1( (j1)T , jT ] (t) n n
se anula. 33
Ejemplo 12
0
1 2 1 Bt dBt = BT T. 2 2
Como el proceso Bt es continuo en media cuadrtica podemos tomar como a sucesin aproximadora o
n
ut donde tj =
T jT , n
(n)
=
j=1
y tendremos
n
Bt dBt =
0
lim
(16)
Si xt es una funcin derivable, las reglas del clculo diferencial e integral nos o a dicen que T T 1 2 xt dxt = xt xt dt = x x2 . 0 2 T 0 0 Observemos que en el caso del movimiento browniano nos aparece un trmino e 1 adicional igual a 2 T . Ejemplo 13 Consideremos una funcin determinista g tal que 0 g(s)2 ds < o T . En este caso, la integral estocstica 0 gs dBs es una variable aleatoria a con ley normal
T T
N (0,
0
g(s)2 ds).
34
2.1
Consideremos un proceso u de la clase L2 . El proceso u1[0,t] tambin e a,T 2 pertenece a La,T , y por lo tanto, podemos denir su integral:
t T
us dBs :=
0 0
us 1[0,t] (s)dBs .
us dBs , 0 t T
0
que es la integral indenida del proceso u respecto de B. En este apartado estudiaremos las propiedades de las integrales indenidas. En primer lugar, debido a la linealidad de la integral estocstica, tenemos la propiedad de a aditividad siguiente:
b c c
us dBs +
a b
us dBs =
a
us dBs ,
1A us dBs = 1A
a a
us dBs .
En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable acotada y Fa -medible. Una propiedad importante de las integrales indenidas es la propiedad de martingala. Denicin 6 Un proceso estocstico {Mt , t 0} diremos que es una martino a gala respecto de una familia creciente de -lgebras {Mt , t 0}, contenidas a en F, si se cumplen las propiedades siguientes: (i) Mt es medible respecto de Mt , para todo t 0. (ii) E(|Mt |) < para todo t 0. (iii) E(Mt |Ms ) = Ms , si s t. 35
La propiedad (iii) puede expresarse de forma equivalente como sigue E(Mt Ms |Ms ) = 0 y ello signica que la esperanza condicionada de los incrementos de una martingala es cero. Las martingalas se introduden para modelizar las ganancias de un jugador que juega una partida equitativa en un juego de azar. En hecho de que la ganancia esperada tenga valor medio cero representa el carcter a equitativo del juego. De forma anloga se puede introducir el concepto de martingala para un a proceso {Mt , 0 t T } respecto de una familia creciente de -lgebras a {Mt , 0 t T }. En tal caso, la propiedad de martingala nos dice que Mt = E(MT |Mt ). Fijmonos en que la variable terminal MT determina la martingala ya que e las variables Mt se obtinenen tomando la esperanza condicionada de MT respecto de la familia creciente de -lgebras. a Como consecuencia de la propiedad de martingala tendremos que la esperanza de una martingala es consante: E(Mt ) = E(M0 ).
Ejemplo 14 Si Bt es un movimiento browniano y Ft es la ltracin generada o por Bt , entonces, los procesos: Bt 2 Bt t a2 t ) 2 son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido 2 demostrada en (8). Para Bt t, la propiedad de martingala se deduce del siguiente clculo de esperanzas condicionadas, si s < t a exp(aBt
2 E(Bt |Fs ) = E((Bt Bs + Bs )2 |Fs ) = E((Bt Bs )2 |Fs ) + 2E((Bt Bs ) Bs |Fs ) 2 +E(Bs |Fs ) 2 = E (Bt Bs )2 + 2Bs E((Bt Bs ) |Fs ) + Bs 2 = t s + Bs .
36
a2 t ) 2
tendremos
a2 t 2
|Fs ) )
a2 s 2
2 a(Bt Bs ) a2 t
= eaBs
Las martingalas con trayectorias continuas cumplen la desigualdad fundamental siguiente debida a Doob: Desigualdad de Doob: Supongamos que {Mt , 0 t T } es una martingala con trayectorias continuas. Entonces, para todo p 1 y todo > 0 se cumple 1 P sup |Mt | > p E(|MT |p ). 0tT Obsevamos que se trata de una generalizacin de la desigualdad de Tchebyo chev. Como consecuencia de la desigualdad de Doob puede demostrarse que las integrales estocsticas indenidas tienen trayectorias continuas. a Proposicin 7 Supongamos que u es un proceso de la clase L2 . Entonces, o a,T t la integral estocstica 0 us dBs tiene una versin con trayectorias continuas. a o Demostracin: Consideremos una sucesin de procesos elementales u(n) tal o o
que
n T
lim E
0
ut ut
(n)
dt
= 0.
Pongamos
t
I(t) =
0 t
us dBs ,
(n) us dBs .
In (t) =
0
El proceso In tiene trayectorias continuas y es una martingala respecto de la familia creciente de -lgebras Ft . En efecto, si s < t y j es el valor del proceso a
37
=
stj1 tj t
=
stj1 tj t
E j E Bj |Ftj1 |Fs = 0.
Por consiguiente, la diferencia In Im ser una martingala, y la desigualdad de a Doob con p = 2 nos permite escribir
0tT
n,m
0.
0tT
2k .
tienen probabilidades
Los sucesos Ak := sup0tT |Ink+1 (t) Ink (t)| > 2k que forman una serie convergence, es decir,
P (Ak ) < .
k=1
El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un nmero u innito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad cero tal que para todo N podemos encontrar un / ndice k1 () tal que si k
k1 ()
0tT
Por lo tanto, si N , la sucesin Ink (t, ) es uniformemente convergente en / o [0, T ] hacia una funcin continua Jt (). Por otra parte, sabemos que para cada o t a t [0, T ], Ink (t) converge en media cuadrtica hacia 0 us dBs . Por consiguiente,
38
Jt () =
t 0
us dBs casi seguramente, para todo t [0, T ], y ello nos dice que la
t
La integral indenida Mt = 0 us dBs es una martingala respecto de la familia de -lgebras Ft y se cumple la desigualdad siguiente, para todo a > 0, T 1 P sup |Mt | > 2 E (17) u2 dt . t 0tT 0 En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad t (n) de martingala de las integrales indenidas 0 us dBs que hemos obtenido en la demostracin anterior. La desigualdad (17) se deduce de la desigualdad o de Doob y de la propiedad de isometr de la integral estocstica. a a t La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son irregulares como las del movimiento browniano. En particular, las trayectorias de las integrales indenidas tienen variacin cuadrtica nita como nos dice o a la propiedad siguiente: Proposicin 8 (Variacin cuadrtica ) Sea u un proceso de la clase L2 . o o a a,T Entonces,
n tj 2 t
us dBs
j=1 tj1
L1 ()
t 0
u2 ds s
jt . n
2
atj1 tj b
(Bj )2 2 (b a) .
Supongamos que u es un proceso arbitrario de la clase L2 . Existe una sucesin o a,T (k) u de procesos elementales tal que
T k
lim E
0
ut ut
(k)
dt
= 0.
39
Utilizando la notacin o
n tj 2
Vn (u) =
j=1 tj1
us dBs
tendremos
t
Vn (u)
0
u2 ds s
E +E +E
u(k) s
t
ds .
ds
0
u2 ds s
El primer sumando puede acotarse como sigue, utilizando la desigualdad de Schwartz y la isometr de la integral estocstica: a a
E = E
Vn (u) Vn (u(k) )
n tj tj1
us + u(k) dBs s
tj tj1 1/2
us u(k) dBs s
j=1
E Vn (u + u(k) ) E Vn (u u(k) )
t
E
0
us +
2 u(k) s
ds E
0
us
2 u(k) s
1/2
ds
Observemos que la acotacin obtenida no depende de n y converge hacia cero o cuando k tiende a innito. Por tanto, jado > 0 existe un k0 tal que
t
Vn (u)
0
u2 ds s
+E
Vn (u )
0
(k)
u(k) s
ds
2.2
Tiempos de paro
Un tiempo de paro relativo a una familia creciente de -lgebras {Ft , t 0} a es una variable aleatoria : [0, ] 40
tal que para todo t 0, { t} Ft . Es decir, podemos decidir si nos paramos o no antes de un instante t a partir de la informacin contenida en o Ft . Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt , t 0} a un nivel a denido como a := inf{t > 0 : Xt = a} es un tiempo de paro. En efecto, { a t} = sup Xs a = sup
0st,s
0st
Xs a
Ft .
Ms generalmente, el tiempo de llegada de un proceso n-dimensional cona tinuo y adaptado {Xt , t 0} a un conjunto de Borel U de Rn es un tiempo de paro siempre que la familia de -lgebras {Ft , t 0} sea continua por la a derecha. Podemos asociar a todo tiempo de paro la -lgebra F formada por a los conjuntos G tales que G { t} Ft para todo t 0. Los tiempos de paro satisfacen las dos propiedades siguientes: Si {Mt , t [0, T ]} es una martingala continua y y es un tiempo de paro acotado por T , entonces E(MT |F ) = M . (19) (18)
Si u es un proceso de la clase L2 y es un tiempo de paro acotado por a,T T , el proceso u1[0, ] tambin pertenece a L2 y se verica la relacin e o a,T siguiente:
T
ut 1[0, ] (t)dBt =
0 0
ut dBt .
(20)
41
Demostracin de (20): La demostracin se har en dos etapas: o o a 1. Supongamos primero que el proceso u es de la forma ut = F 1(a,b] (t), donde 0 a < b T y F L2 (, Fa , P ). Los tiempos de paro n iT iT n = 2 ti 1Ai , donde ti = 2n , Ai = (i1)T < 2n forman una n n i=1 n n 2n sucesin decreciente que converge hacia . Para cada n tendremos o
n
ut dBt = F (Bb n Ba n )
0 T 0 2n T
ut 1[0, n ] (t)dBt =
i=1 2n
Ai n
=
i=1
= F (Bb n Ba n ).
Tomando el l mite cuando n tiende a innito se deduce la igualdad en el caso de un proceso elemental.
2. En el caso general, basta con aproximar el proceso u por procesos elementales. La convergencia del miembro de la derecha de (20) se deduce de la desigualdad maximal de Doob.
La siguiente aplicacin de los tiempos de parada permite el clculo de la o a ley del instante de llegada del movimiento browniano a un cierto nivel.
Ejemplo 16 Sea Bt un movimiento browniano y Ft la ltracin generada o por Bt . Consideremos el tiempo de paro a = inf{t 0 : Bt = a}, donde a > 0. Consideremos la martingala Mt = eBt E(Mt ) = E(M0 ) = 1. La propiedad (19) nos permite obtener E(M a N ) = 1, 42
2 t 2
que cumple
para todo N 1. Observemos que M a N = exp B a N Por otra parte, limN M a N = M a si a < limN M a N = 0 si a = y el teorema de convergencia dominada implica E 1{ a <} M a = 1, es decir E 1{ a <} exp Haciendo 0 obtenemos P ( a < ) = 1, y, por consiguiente E Con el cambio de variable 2 a exp 2
2 2
2 ( a N ) 2
ea .
2 a 2
= ea .
= ea .
= , tendremos
2a
E ( exp ( a )) = e
(21)
A partir de esta expresin puede calcularse la densidad de probabildad de la o variable a : 2 t aea /2s P ( a t ) = ds. 2s3 0 Por otra parte, la esperanza de a puede obtenerse calculando la derivada en = 0 de la expresin (21): o ae E ( a exp ( a )) = y haciendo 0 se obtiene E( a ) = +. 43
2a
2.3
La integral estocstica de It 0 us dBs puede denirse para clases de proa o cesos mas amplias que L2 . a,T A) En primer lugar, podemos substituir la familia creciente de -lgebras a Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una martingala respecto de Ht . En efecto, en todas las demostraciones anteriores solo se ha utilizado la propiedad E(Bt Bs |Fs ) = 0. Como ejemplo de esta situacin, consideremos el caso en que Ft es o la familia creciente de -lgebras generadas por un movimiento browniano a n-dimensional Bt . Cada componente Bk (t) es una martingala respecto de (n) (n) Ft , pero Ft no es la familia de -lgebras generada por Bk (t). De esta a forma, con la extensin indicada antes, se pueden denir integrales como o
T (n)
B2 (s)dB1 (s),
0 T 0 2 2 sin(B1 (s) + B1 (s))dB2 (s). T 0
u2 dt < t
u2 dt < = 1. t
La clase de procesos que cumplen las propiedades a) y b) la designaremos por La,T . Extenderemos la integral estocstica a la clase La,T mediante un a argumento de localizacin. o Consideremos un proceso estocstico u de La,T . Para cada n 1 denia mos el tiempo de paro
t
n = inf t 0 :
0 T
u2 ds = n , s
(22)
donde suponemos que n = T si 0 u2 ds < n. De esta forma tendremos una s sucesin creciente de tiempos de paro tal que n T . Adems, o a
t
t < n
0
u2 ds < n. s
44
ut
(n) T 0
= ut 1[0, n ] (t) us
(n) 2
ds
n. Para cada n m, en el
u(n) dBs = s
t 0
u(m) dBs s
ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden en este conjunto. Por consiguiente, existir un proceso continuo y adaptado a t que denotaremos por 0 us dBs tal que
t 0 (n) us dBs t
=
0
us dBs
si t n . La integral estocstica de procesos de la clase La,T satisface las propiedades a de linealidad y continuidad de trayectorias de la integral indenida. En cambio, la integral de procesos de la clase La,T puede no tener esperanza ni varianza nitas. Proposicin 9 Consideremos un proceso u La,T . Para todo K, > 0 se o cumple la desigualdad siguiente:
T T
P
0
us dBs K
P
0
u2 ds + s
. K2
n = inf t 0 :
0
u2 ds = , s
con la convencin n = T si o
T
T 0
u2 ds < .Tendemos s
T
P
0
us dBs K
P
0
u2 ds s
T T
+P
0
us dBs K,
0
u2 ds < , s
45
P
0
us dBs K,
0
u2 ds s
<
= P
0
us dBs K, = T us dBs K, = T
0 2
= P 1 E K2 = 1 E K2
us dBs
0 0
u2 ds s
. K2
Como consecuencia de la proposicin anterior, si u(n) es una sucesin o o de procesos de la clase La,T que converge hacia un proceso u La,T en probabilidad:
T 0
u(n) us s
P
ds 0
T
entonces,
0
u(n) dBs s
us dBs .
0
2.4
Frmula de It o o
La frmula de It es la versin estocstica de la clsica regla de la cadena en o o o a a el clculo diferencial ordinario. a Consideremos el ejemplo
t 0
1 2 1 Bs dBs = Bt t, 2 2
t
2Bs dBs + t.
0
Podemos comprobar que la igualdad es cierta tomando esperanzas y uti2 lizando la propiedad de media nula de la integral estocstica: E(Bt ) = t. En a notacin diferencial podemos escribir o
2 dBt = 2Bt dBt + dt.
46
2 Vemos que el proceso estocstico Bt es la suma de una integral estocstica a a y de una funcin diferenciable. Ms generalmente cualquier funcin f (Bt ), o a o donde f es dos veces continuamente diferenciable, puede expresarse como una suma de una integral estocstica y de un proceso con trayectorias difera enciables. Esto nos lleva a introducir la nocin de proceso de It que ser o o a una suma de una integral estocstica ms una integral ordinaria. La clase a a de los procesos de It ser invariante por transformaciones funcionales rego a ulares. Designaremos por L1 la clase de los procesos v que satisfacen las a,T propiedades a) y
b) P
T 0
|vt | dt < = 1.
t t
us dBs +
0
vs ds,
(23)
donde u pertenece a la clase La,T y v pertenece a la clase L1 . a,T En notacin diferencial escribiremos o dXt = ut dBt + vt dt. Teorema 11 (Frmula de It) Supongamos que X es un proceso de It o o o de la forma (23). Sea f (t, x) una funcin dos veces derivable respecto de la o variable x y una vez respecto de la variable t, con todas las derivadas parciales continuas (diremos que f es de clase C 1,2 ). Entonces el proceso Yt = f (t, Xt ) es tambin un proceso de It con la representacin e o o Yt
t f f = f (0, X0 ) + (s, Xs )ds + (s, Xs )us dBs 0 t 0 x t f 1 t 2f + (s, Xs )vs ds + (s, Xs )u2 ds. s 2 2 0 x 0 x t
1.- En notacin diferencial la frmula de It puede escribirse de la forma o o o df (t, Xt ) = f f 1 2f (t, Xt )dt + (t, Xt )dXt + (s, Xs ) (dXt )2 , t x 2 x2 dBt dt 47 dBt dt 0 dt 0 0
Yt = Y0 +
0
us dBs +
0
vs ds,
donde Y0 = f (0, X0 ), f ut = (t, Xt )ut , x f 1 2f f (t, Xt ) + (t, Xt )vt + (t, Xt )u2 . vt = t t x 2 x2 3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es precisamente el movimiento browniano Bt , y la frmula de It adopta la o o expresin ms simple siguiente o a
t
f (t, Bt ) = f (0, 0) +
0
f (s, Bs )dBs + x
t 0
f (s, Bs )ds t
1 + 2
t 0
2f (s, Bs )ds. x2
4.- En el caso particular en que la funcin f no depende del tiempo se obtiene o la frmula o
t t
f (Xt ) = f (0) +
0
f (Xs )vs ds +
1 2
t 0
La frmula de It se deduce del desarrollo de Taylor hasta el orden dos. o o Indicaremos seguidamente, de forma heur stica, las ideas principales que conducen a la frmula de It. Supongamos v = 0. Fijemos un instante de tiempo o o t > 0. Consideremos los instantes tj = jt . La frmula de Taylor hasta el segundo o n orden nos da
n
f (Xt ) f (0) =
j=1 n
=
j=
f (X j ) (Xj )2 ,
j=1
(24)
donde Xj = Xtj Xtj1 y X j es un valor comprendido entre Xtj1 y Xtj . El primer sumando de la expresin anterior converge en probabilidad o t hacia 0 f (Xs )us dBs , mientras que el segundo sumando converge en probat bilidad hacia 1 0 f (Xs )u2 ds. s 2 Veamos algunos ejemplos de aplicacin de la fmula de It. o o o Ejemplo 17 Si f (x) = x2 y Xt = Bt , tendremos
2 Bt = 2 t
Bs dBs + t,
0
Bs ds,
0
ya que f (x) = 3x2 y f (x) = 6x. Ms generalmente, si n 2 es un nmero a u natural, t n(n 1) t n2 n1 n Bs dBs + Bs ds. Bt = n 2 0 0
a2
a2
Yt = 1 + a
0
Ys dBs
ya que
f 1 2f + = 0. (25) t 2 x2 Este importante ejemplo nos permite deducir las observaciones siguientes: 1.- Si una funcin f (t, x) satisface la igualdad (25), entonces, el proceso o estocstico f (t, Bt ) ser una integral estocstica indenida (ms un a a a a 49
trmino constante), y por lo tanto, ser una martingala, suponiendo e a que f satisface la propiedad:
t
E
0
f (s, Bs ) x
ds <
2.- La solucin de la ecuacin diferencial estocstica o o a dYt = aYt dBt no es Yt = eaBt , como en el caso del clculo diferencial ordinario, sino a 2 aBt a t 2 . Yt = e Como consecuencia de la frmula de It, podemos deducir la siguiente o o frmula de integracin por partes: o o Supongamos que f (t) es una funcin continuamente diferenciable en [0, T ]. o En tal caso tendremos
t t
fs dBs = f (t)Bt
0 0
Bs fs ds.
f (t)Bt =
0
fs dBs +
0
Bs fs ds.
Veamos seguidamente la versin multidimensional de la frmula de It. o o o 1 2 m Supongamos que Bt = (Bt , Bt , . . . , Bt ) es un movimiento browniano mdimensional, es decir, las componentes son movimientos brownianos independientes. Consideremos un proceso de It n-dimensional de la forma o t 1 t t m 1 1 Xt1 = X0 + 0 u11 dBs + + 0 u1m dBs + 0 vs ds s s . . . . n t n t nm t n1 m 1 n Xt = X0 + 0 us dBs + + 0 us dBs + 0 vs ds En notacin diferencial y vectorial podemos escribir o dXt = ut dBt + vt dt, 50
donde Xt , vt , son procesos n-dimensionales, y ut es un proceso con valores en el conjunto de las matrices n m. Supondremos que las componentes de u pertenecen a La,T y las de v pertenecen a L1 . a,T Entonces, si f : [0, ) Rn Rp es una funcin de clase C 1,2 , el proceso o Yt = f (t, Xt ) es tambin un proceso de It con la representacin (en notacin e o o o diferencial) dYtk = fk (t, Xt )dt + t
n 2 n
i=1
fk (t, Xt )dXti xi
El producto de los diferenciales dXti dXtj se calcula aplicando las reglas siguientes:
j i dBt dBt = i dBt dt = 0 (dt)2 = 0.
0 si i = j dt si i = j
dXti dXtj
=
k=1
uik ujk t t
2.5
En las sumas de Riemann-Stieltjes que elegimos para denir la integral est tocstica 0 us dBs de un proceso continuo u, se toman siempre los valores a del proceso u en el punto tj1 de cada intervalo [tj1 , tj ] . De esta forma la integral estocstica tiene media cero y su varianza puede calcularse a partir a de la propiedad de isometr Tambin, la integral indenida es una mara. e tingala. El inconveniente de esta eleccin consiste en que en la regla de la o cadena nos aparece un trmino correctivo. e T La integral de Stratonovich 0 us dBs se dene como el l mite en probabilidad de la sucesin o
n
i=1
suponiendo ti = forma
iT . n
ut = u0 +
0
s dBs +
0
s ds.
(26)
Utilizando la descomposicin o 1 (ut + uti )(Bti Bti1 ) = uti1 (Bti Bti1 ) 2 i1 1 + (uti uti1 )(Bti Bti1 ), 2 se obtiene la siguiente frmula que relaciona las integrales de It y de Stratonovich: o o
T t
us dBs =
0 0
1 us dBs + 2
s ds.
0
(27)
dus dBs =
0 0
s (dBs ) +
0
s dsdBs =
s ds.
0
Puede comprobarse que la integral estocstica de Stratonovich sigue las a reglas del clculo diferencial ordinario. Es decir, si u es un proceso de la a forma (26) y
t t
Xt = X0 +
0 t
us dBs +
0 t
vs ds 1 vs + s ds, 2
= X0 +
0
us dBs +
0
entonces, 1 df (Xt ) = f (Xt )dXt + f (Xt )(dXt )2 2 1 = f (Xt )ut dBt + f (Xt ) vt + t dt 2 1 + f (Xt )u2 dt. t 2 52
(28)
Por otra parte, 1 f (Xt )ut dBt = f (Xt )ut dBt d [f (Xt )ut ] dBt . 2 En el clculo de d [f (Xt )ut ] dBt hemos de tener en cuenta solo los diferena ciales estocsticos de d [f (Xt )ut ] que son a f (Xt )t dBt + f (Xt )u2 dBt . t Por consiguiente, se obtiene f (Xt )ut dBt = f (Xt )ut dBt 1 f (Xt )t + f (Xt )u2 dt t 2
y substituyendo esta expresin en (28) obtenemos o df (Xt ) = f (Xt )ut dBt + f (Xt )vt dt = f (Xt ) dXt .
2.6
Tiempo local
|x|
1 2
si |x| <
La derivada de esta funcin vale o g (x) = sign(x) si |x| . x si |x| < y vale
Siempre que una funcin sea de clase C 2 excepto en un nmero nito de o u puntos y la segunda derivada est acotada se verica todav la frmula de e a o It. Por ello, tendremos o g (Bt ) = + 2
t 0
g (Bs )dBs + 53
1 2
Cuando tiende a cero, g (Bt ) converge en media cuadrtica hacia |Bt |. Por a 2 otra parte, g (Bs ) converge en L ([0, t] ) hacia sign(Bs ). En efecto,
t
E
0
|sign(Bs ) g (Bs )| ds
t
2E
0 t
4E
0 t
= 4
0
P (|Bs | = 0)ds = 0.
De esta forma obtenemos la frmula de It para el valor absoluto del movimiento o o browniano, conocida como frmula de Tanaka: o
t
|Bt | =
0
|Bt x| =
0
El proceso {Lt (x), t 0, x R} se denomina el tiempo local del movimiento browniano. Para cada t 0, Lt (x) es la densidad de la medida de ocupacin, es decir, o
b t
Lt (x)dx =
a 0
Puede demostrarse que existe una versin del tiempo local que es cono tinua en las dos variables (t, x). 54
En el caso de una funcin diferenciable b(t), se tiene o d|b(t)| = sign(b(s))b (s)ds, y la densidad de la medida de ocupacin en [0, t] vale o Lt (x) =
s[0,t]:b(s)=x
1 . b (s)
2.7
us dBs
es una martingala respecto de la ltracin Ft . En este apartado demostraremos o que todas las martingalas de cuadrado integrable respecto de esta ltracin o son de este tipo. Veamos un resultado preliminar. Lema 12 El conjunto de variables que son combinaciones lineales de exponenciales de la forma
T
exp
0
hs dBs
1 2
T 0
h2 ds , s
T 0
(29)
h2 ds < , es denso en s
Demostracin: Sea Y una variable de L2 (, FT , P ) ortogonal a todas las o exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m instantes 0 t1 < tm T y m nmeros reales 1 , . . . , m sabemos que u E Y e1 Bt1 ++m Btm = 0.
Esto implica que la medida
55
E(Y 1G ) = 0
para todo suceso G de la -lgebra generada por las variables Bt1 , . . . , Btm . Por a un argumento de clases montonas, esto ser cierto para todo G de la -lgebra o a a FT , y por lo tanto, Y = 0.
Teorema 13 (Teorema de representacin de It) Consideremos una vario o 2 able aleatoria F de L (, FT , P ). Entonces existe un unico proceso es tocstico u de la clase L2 tal que a a,T
T
F = E(F ) +
0
us dBs .
exp
0
hs dBs
1 2
T 0 T 0
h2 ds , s
h2 ds < . Denimos s
t 0
Yt = exp
0
hs dBs
1 2
h2 ds . s
t 0
hs dBs
h2 ds, s
obtenemos
Yt = 1 +
0
Ys h(s)dBs .
T
Por lo tanto,
F = YT = 1 +
0
Ys h(s)dBs
56
E
0
Ys2 h2 (s)ds
=
0
E Ys2 h2 (s)ds
T
exp
0
h2 ds s
T 0
h2 ds < s
ya que
E Yt2
= E exp 2
0 t
hs dBs
0
h2 ds s
= exp
0
h2 ds . s
Por linealidad, la representacin se cumplir en el caso en que F sea una como a binacin lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos o permite aproximar una variable arbitraria F de L2 (, FT , P ) por una sucesin Fn o de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,
T
Fn = E(Fn ) +
0
u(n) dBs . s
E (Fn Fm )2
= E
E(Fn Fm ) +
0
= (E(Fn Fm ))2 + E
T
E
0
(m) u(n) us s
ds .
E (Fn Fm )2
y, en consecuencia,
T
n,m
E
0
(n) us u(m) s
ds
n,m
0.
57
Esto nos dice que la sucesin u(n) es de Cauchy en L2 ([0, T ] ). Por lo tanto o ser convergente hacia un proceso u de L2 ([0, T ] ). Por otra parte, puede a comprobarse que u pertenece a la clase L2 , teniendo en cuenta que una sucesin o a,T (n) parcial de u (t, ) converge casi por todo (t, ) hacia u(t, ). Aplicando de nuevo la propiedad de isometr y teniendo en cuenta que E(Fn ) converge hacia a, E(F ), se obtiene
T
F =
lim Fn = lim
T
E(Fn ) +
0
u(n) dBs s
= E(F ) +
0
us dBs .
Finalmente, la unicidad sale tambin de la propiedad de isometr Suponge a: (1) (2) 2 amos que u y u fuesen dos procesos de La,T tales que
T
F = E(F ) +
0
T 0
u(2) dBs . s
Entonces
T 2
0=E
0 (1)
u(1) s
u(2) s
dBs
=E
0
u(1) u(2) s s
ds
(2)
Teorema 14 (Teorema de representacin de martingalas) Supongamos o que {Mt , t [0, T ]} es una martingala respecto de la ltracin Ft , tal que o 2 E(MT ) < . Entonces existe un unico proceso estocstico u de la claseL2 a a,T tal que
t
Mt = E(M0 ) +
0
us dBs
para todo t [0, T ]. Demostracin: Aplicando el teorema de representacin de It a F = MT o o o obtenemos que existe un unico proceso u L2 tal que T
T T
MT = E(MT ) +
0
us dBs = E(M0 ) +
0
us dBs .
58
us dBs |Ft ]
= E(M0 ) +
0
us dBs .
2.8
Teorema de Girsanov
El teorema de Girsanov nos dice que el movimiento browniano con deriva Bt + t puede verse como un movimiento browniano sin deriva, cambiando la probabilidad. Analizaremos primero como funcionan los cambios de probabilidad mediante densidades. Si en un espacio de probabilidad (, F, P ) consideramos una variable aleatoria L 0 de esperanza uno, entonces, Q(A) = E (1A L) dene una nueva probabilidad. Que la esperanza de L sea igual a 1 nos garantiza que Q() = E(L) = 1. Se dice que L es la densidad de Q respecto de P y se escribe formalmente dQ = L. dP La esperanza de una variable aleatoria X en el espacio de probabilidad (, F, Q) se calcula de la forma siguiente EQ (X) = E(XL). La probabilidad Q es absolutamente continua respecto de P , lo que signica que P (A) = 0 = Q(A) = 0.
59
Si la variable L es estrictamente positiva, entonces las probabilidades P y Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que signica P (A) = 0 Q(A) = 0. Veamos seguidamente un ejemplo simple de cambio de probabilidades que representa una versin sencilla del teorema de Girsanov: o Ejemplo 20 Sea X una variable aleatoria con ley normal N (m, 2 ). Existe una probabilidad Q respecto de la cual la variable X tenga ley N (0, 2 )? Consideremos la variable L = e 2 X+ 22 . Es fcil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en a el espacio de probabilidad (, F, Q) la variable X tiene por funcin caraco ter stica: EQ (eitX ) = E(eitX L) = = 1 2 2
m m2
1 2 2
x2
2 (xm)2 mx + m 2 +itx 2 2 2 2
dx
e 22 +itx dx = e
2 t2 2
es decir, X tiene una ley N (0, 2 ). Veremos que en el caso del movimiento browniano se obtiene un resultado similar. Teniendo en cuenta que el movimiento browniano es el l mite de paseos aleatorios, analizaremos primero el problema de la eliminacin de la o deriva en un paseo aleatorio: Consideremos una succesin {Xn , n 1} de variables aleatorias indepeno dientes tales que Xn = +1, con probabilidad 1/2 . 1, con probabilidad 1/2
Pongamos S0 = 0, y Sn = X1 + + Xn + na, donde a > 0. La succesin Sn o representa un paseo aleatorio con deriva igual a a, y no es una martingala ya que E(Sn |Fn1 ) = Sn1 + a, 60
donde Fn es la -lgebra generada por X1 , ..., Xn si n 1, y F0 = {, }. a Podemos cambiar la asignacin de probabilidades de manera que Sn sea una o martingala. Si suponemos que P (Xn = +1) = p, P (Xn = 1) = 1 p, necesitaremos que E(a + Xn ) = 0, es decir, p= 1a , 2
suponiendo que a < 1. Multipliquemos valores de la constante a por t y los valores de las los variables Xn por t. O sea supondremos que S0 = 0, Sn = at + Xn , 1 P (Xn = t) = . 2 En tal caso el valor de la probabilidad p respecto de la cual las Sn forman una martingala es P (Xn = P (Xn Podemos escribir 1 P (Xn = t) = 2 1 a Xn . 1 a t) = p = t, 2 2 1 a = t) = 1 p = + t. 2 2
Si consideramos un camino de longitud N formado por los sucesivos valores que toman las variables Xn , la probabilidad P de este camino seria 2N , a mientras que la probabilidad Q seria 2N N 1 Xn . Es decir, poden=1 mos escribir N a Q(camino) = 1 Xn . P (camino) n=1 61
lo cual es cierto siempre que t sea sucientement pequeo. n Supongamos ahora que las variables aleatorias Sn se observan en instantes que distan t. Si t tiende a cero y N tiende a innito de manera que N t = t, entonces, Sn converge hacia un movimiento browniano con deriva at + Bt . Por otra parte, el cociente entre las probabilidades Q y P converge hacia un trmino exponencial: e Q(camino) = P (camino)
N
1
n=1 N
a Xn log 1 a Xn
= exp
n=1 N
exp
n=1
a2 2 a Xn 2 Xn 2
N
Xn
n=1
a2 t . 2 2
Q(camino) a a2 = exp Bt 2 t . P (camino) 2 Sea{Bt , t [0, T ]} un movimiento browniano. Fijemos un nmero real . u Consideremos la martingala Lt = exp Bt
2 t 2
(30)
Observemos que el proceso estocstico {Lt , t [0, T ]} es una martingala posa itiva de esperanza uno que satisface la ecuacin diferencial estocstica o a
t
Lt = 1
0
Ls dBs . 62
La variable LT es una densidad de probabilidad en el espacio (, FT , P ) que dene una probabilidad Q dada por Q(A) = E (1A LT ) , para todo A FT . La propiedad de martingala del proceso Lt implica que en el espacio (, Ft , P ), la probabilidad Q tiene densidad igual a Lt . En efecto, si A pertenece a la -lgebra Ft se tiene a Q(A) = E (1A LT ) = E (E (1A LT |Ft )) = E (1A E (LT |Ft )) = E (1A Lt ) . Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (, FT , Q) el proceso estocstico a Wt = Bt + t, es un movimiento browniano. Antes de demostrar este teorema probaremos un resultado tcnico: e Lema 16 Supongamos que X es una variable aleatoria real y G es una lgebra tales que a u2 2 E eiuX |G = e 2 . Entonces, la variable X es independiente de la -lgebra G y tiene una ley a 2 normal N (0, ). Demostracin: Para todo suceso A G se cumplir o a E 1A eiuX = P (A)e
u2 2 2
Por lo tanto, eligiendo A = obtenemos la funcin caracter o stica de X , y en consecuencia, X tiene una ley N (0, 2 ). Por otra parte, jado un suceso A G , la funcin caracter o stica de la variable X respecto de la probabilidad condicionada por A ser tambin a e
EA eiuX = e
u2 2 2
63
Es decir, la ley de X condicionada por A es tambin una ley normal N (0, 2 ). e Por consiguiente, tendremos
PA (X x) = (x/) ,
y
(31)
donde representa la funcin de distribucin de la ley N (0, 1). La igualdad (31) o o nos da la independencia entre la variable X y la -lgebra G . a
Demostracin del teorema de Girsanov: Ser suciente con demostrar o a que, en el espacio de probabilidad (, FT , Q), para todo s < t T el incremento Wt Ws es independiente de Fs y tiene ley normal N (0, t s).
Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la frmula siguiente, para todo s < t, A Fs , u R, o
EQ 1A eiu(Wt Ws ) = Q(A)e
Para demostrar la frmula (32) ponemos o
u2 (ts) 2
(32)
EQ 1A eiu(Wt Ws )
Ls
2 (ts) 2
= Q(A)e
El teorema de Girsanov admite la siguiente generalizacin: o Teorema 17 Sea {t , t [0, T ]} un proceso adaptado y tal que cumple la denominada condicin de Novikov: o E exp Entonces, el proceso W t = Bt +
0
1 2
T 0
2 dt t
t
< .
(33)
s ds
64
es un movimiento browniano respecto de la probabilidad Q denida por Q(A) = E (1A LT ) , donde Lt = exp
0 t
s dBs
1 2
t 0
2 ds . s
Lt = 1
0
s Ls dBs .
Para que el proceso Lt sea una martingala y tengamos E(Lt ) = 1, necesitamos que s Ls pertenezca a la clase L2 . La condicin (33) sirve para asegurar o a,T esta propiedad.
Como aplicacin del teorema de Girsanov deduciremos la ley del instante o de llegada del movimiento browniano con deriva a un nivel a. Sea {Bt , t 0} un movimiento browniano. Fijado un valor , denimos la martingala Lt como en (30). Sea Q la probabilidad en t0 Ft tal que para todo t 0 dQ |F = Lt . dP t Por el teorema de Girsanov, para todo T > 0, en el espacio de probabilidad (, FT , Q) el proceso Bt + t := Bt es un movimiento browniano en el intervalo de tiempo [0, T ]. Es decir, en este espacio Bt es un movimiento browniano con deriva t. Sea a = inf{t 0, Bt = a}, donde a = 0. Para cada t 0 el suceso { a t} pertenece a la -lgebra a F a t ya que para todo s 0 { a t} { a t s} = { a t} { a s} = { a t s} Fst Fs .
65
Por consiguiente, utilizando la propiedad de martingala respecto de los tiempos de paro obtenemos Q{ a t} = E 1{ a t} Lt = E 1{ a t} E(Lt |F a t ) = E 1{ a t} L a t = E 1{ a t} L a = E 1{ a t} ea 2
t
1 2
=
0
ea 2 s f (s)ds,
Por lo tanto, respecto de Q la variable aleatoria a tiene una densidad igual a |a| (a+s)2 e 2s , s > 0. 2s3 Haciendo, t obtenemos Q{ a < } = ea E e 2
1 2
= ea|a| .
Si = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna vez a un nivel dado es igual a uno. Si a > 0 (la deriva y el nivel a tienen el mismo signo) esta probabilidad es tambin igual a uno. Si a < 0 e (la deriva y el nivel a tienen signo distinto) la probabilidad vale e2a .
f (s)2 ds < .
fn (t) = 66
f (s)ds,
1 t n
(f (s) fn (s))2 ds 0 0.
Indicacin: Sabemos que para cada > 0 podemos encontrar una o funcin continua g tal que o
T 0
2.2 Consideremos un proceso estocstico M = {Mt , t 0} que es una mara tingala respecto de una ltracin {Mt , t 0}. Demostrar que el proo ceso M tambin es una martingala respecto de la ltracin natural e o M Ft = (Ms , 0 s t) Mt . 2.2 Consideremos una martingala M = {Mt , t 0} respecto de una ltracin {Mt , t 0} tal que E(Mt2 ) < para todo t 0. Demostrar o que si s < t
2 E((Mt Ms )2 |Ms ) = E(Mt2 Ms |Ms ).
2.3 Demostrar que si es un tiempo de paro, F denida en (18) es una lgebra y es F -medible. Si X = {Xt , t 0} es un proceso adaptado a con trayectorias continuas, y es nito, demostrar que la variable X es F -medible. 2.4 Sea Y una variable aleatoria integrable y {Mt , t 0} una familia creciente de -lgebras. Demostrar que a Mt = E(Y |Mt ) es una martingala. a 2.5 Comprobar si los siguientes procesos estocsticos, denidos a partir de
67
Xt = t2 Bt 2
0
sBs ds
1 Xt = (Bt + t) exp(Bt t) 2 Xt = B1 (t)B2 (t). En el ultimo caso, B1 y B2 son dos movimientos brownianos indepen dientes. 2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea f : Rn R una funcin de clase C 2 . Utilizando la frmula de It o o o demostrar que
t
f (Bt ) = f (0) +
0
f (Bs )ds +
1 2
f (Bs )ds.
0
F = E(F ) +
0
us dBs
F =
0 3 BT
Bt dt
F = F = sin BT 2.8 Sea p(t, x) = 1/ 1 t exp(x2 /2(1 t)), para 0 t < 1 y x R, y p(1, x) = 0. Denimos Mt = p(t, Bt ), donde {Bt , 0 t 1} es un movimiento browniano. 68
a) Demostrar que Mt = M0 +
0
p (s, Bs )dBs . x
1 0
b) Sea Ht = pero E
que
2.9 Sean Yt y Xt procesos de It. Demostrar la siguiente frmula de inteo o gracin por partes: o
t t t
Xt Yt = X0 Y0 +
0
Xs dYs +
0
Ys dXs +
0
dXs dYs .
Los coecientes b(t, x) y (t, x) se denominan, respectivamente, coeciente de deriva y coeciente de difusin. Si el coeciente de difusin se o o anula, entonces, tendremos una ecuacin diferencial ordinaria: o dXt = b(t, Xt ), dt que puede resolverse, si conocemos la condicin inicial X0 . Por ejemplo, en o el caso lineal b(t, x) = b(t)x, la solucin es o Xt = X0 + e
Rt
0
b(s)ds
Una ecuacin diferencial del tipo (34) se denomina una ecuacin difereno o cial estocstica. La solucin ser un proceso estocstico {Xt , t 0} con a o a a trayectorias continuas adaptado a la ltracin browniana. Los procesos o solucin se denominan procesos de difusin. o o Una interpretacin heur o stica de la ecuacin diferencial (34) ser la siguo a iente: El incremento Xt = Xt+t Xt se expresa como una suma de b(t, Xt )t ms un trmino que depende del incremento del movimiento browa e niano: (t, Xt )Bt y que se interpreta como una impulso aleatorio. Por 69
tanto, el incremento Xt tendr una ley normal de media b(t, Xt )t y varia 2 anza (t, Xt ) t. La formalizacin de estas ecuaciones se realiza transformndolas en ecuao a ciones integrales y utilizando integrales estocsticas: a
t t
Xt = X0 +
0
b(s, Xs )ds +
0
(s, Xs )dBs .
(35)
El resultado fundamental sobre la existencia y unicidad de soluciones es el siguiente: Teorema 18 Fijemos un intervalo de tiempo [0, T ]. Supongamos que los coecientes de la ecuacin (34) verican: o |b(t, x) b(t, y)| |(t, x) (t, y)| |b(t, x)| |(t, x)| D1 |x y| D2 |x y| C1 (1 + |x|) C2 (1 + |x|), (36) (37) (38) (39)
para todo x, y R, t [0, T ]. Supongamos que Z es una variable aleatoria independiente de la -lgebra FT generada por el movimiento browniano en a 2 [0, T ], tal que E(Z ) < . Entonces, existe un unico proceso {Xt , t [0, T ]} continuo, adaptado, solucin de (35) y tal que o
T
E
0
|Xs |2 ds
< .
Observaciones: 1.- Este resultado es cierto en dimensin superior, cuando Bt es un movimiento o browniano m-dimensional, la solucin Xt es un proceso estocstico no a dimensional, y los coecientes son funciones b : [0, T ] Rn Rn , : [0, T ] Rn Rnm . 2.- La condicin de crecimiento lineal (38,39) garantiza que la solucin no o o explota antes del tiempo nal T . Por ejemplo, la ecuacin diferencial o determinista dXt = Xt2 , X0 = 1, dt 70
que diverge en el instante t = 1. o a 3.- La condicin de Lipschitz (36,37) garantiza que no exista ms de una solucin. Por ejemplo, la ecuacin diferencial determinista o o dXt 2/3 = 3Xt , X0 = 0, dt tiene innitas soluciones ya que para cada a > 0, la funcin o Xt = 0 si t a (t a)3 si t > a
es solucin. En este ejemplo la funcin b(x) = 3x2/3 no cumple la o o condicin de Lipschitz ya que la derivada de b no est acotada. o a 4.- Si los coecientes b(t, x) y (t, x) son diferenciables en la variable x, la b condicin de Lipschitz signica que las derivadas parciales x y estn o a x acotadas por las constantes D1 y D2 , respectivamente. Demostracin del Teorema 18: Consideremos el espacio L2 de los o a,T
procesos adaptados a la ltracin FtZ = (Z) Ft y tales que E o . En este espacio introducimos la siguiente norma
T 1/2 T 0
|Xs |2 ds <
X =
0
2 Xs
ds
2 2 donde es una constante tal que > 2 (T D1 + D2 ). Denimos un operador en este espacio de la forma siguiente t t
(LX)t = X0 +
b(s, Xs )ds +
0 0
(s, Xs )dBs .
Este operador est bien denido debido a la propiedad de crecimiento lineal (38,39) a de los coecientes de la ecuacin. o
71
E |(LX)t (LY )t |
2E
0
(b(s, Xs ) b(s, Ys )) ds
t 2
+2E
0 t
2T E
0 t
+2E
0
(Xs Ys )2 ds .
et E |(LX)t (LY )t |2 dt C C C
T 0
et E
0 T s
(Xs Ys )2 ds dt
T 0 T 0
et dt E (Xs Ys )2 ds
es E (Xs Ys )2 ds.
Por lo tanto,
LX LY
y como
C
C X Y
L2 . El teorema del punto jo nos asegura que este operador tiene un unico punto a,T
jo, lo que implica la unicidad y existencia de solucin de la ecuacin (35). o o
72
3.1
La frmula de It permite resolver expl o o citamente algunas ecuaciones diferenciales estocsticas. Veamos algunos ejemplos. a A) Ecuaciones lineales. El movimiento browniano geomtrico e Xt = X0 e satisface la ecuacin lineal o dXt = Xt dt + Xt dBt . Ms generalmente, la solucin de la ecuacin lineal homognea a o o e dXt = b(t)Xt dt + (t)Xt dBt ser a Xt = X0 exp
t 0
2 t+Bt 2
b(s) 1 2 (s) ds + 2
t 0
(s)dBs
B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuacin diferencial o estocstica a dXt = a (m Xt ) dt + dBt X0 = x, donde a, > 0 y m es un nmero real. Como se trata de una ecuacin u o lineal no homognea, utilizaremos el mtodo de variacin de las cone e o stantes. La solucin de la ecuacin homognea o o e dxt = axt dt x0 = x es xt = xeat . Entonces hacemos el cambio de variable Xt = Yt eat , es decir, Yt = Xt eat . El proceso Yt satisface dYt = aXt eat dt + eat dXt = ameat dt + eat dBt . 73
eas dBs ,
El proceso estocstico Xt es gaussiano. La media y varianza de cada a variable Xt pueden calcularse fcilmente: a E(Xt ) = m + (x m)eat , V arXt = 2 e2at E
0 t 2
= e2at
0
e2as ds =
La distribucin de Xt cuando t tiende a innito converge hacia la ley o normal 2 N (m, ). 2a Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0 este proceso se denomina el proceso de Ornstein-Uhlenbeck. C) Consideremos una ecuacin diferencial estocstica del tipo o a dXt = f (t, Xt )dt + c(t)Xt dBt , X0 = x, (40)
donde f (t, x) y c(t) son funciones deterministas continuas, tales que f satisface las condiciones de crecimiento lineal y propiedad de Lipschitz en la variable x. Esta ecuacin se puede resolver siguiendo los pasos o siguientes: a) Se considera el factor integrante
t
Ft = exp
0
c(s)dBs +
1 2
t 0
c2 (s)ds ,
es solucin de la ecuacin (40) si f = 0 y x = 1. El o o tal que proceso Yt = Ft Xt cumple dYt = Ft f (t, Ft1 Yt )dt, Y0 = x. 74 (41)
Ft1
b) La ecuacin (41) es una ecuacin diferencial determinista, parametrizada o o por , que podr resolverse mediante mtodos habituales. a e Por ejemplo, supongamos que f (t, x) = f (t)x. En tal caso la ecuacin o (41) es dYt = f (t)Yt dt, de lo que se deduce
t
Yt = x exp
0
f (s)ds
f (s)ds +
t 0
c(s)dBs
1 2
t 2 c (s)ds 0
D) Ecuacin diferencial estocstica lineal general. Consideremos la ecuacin o a o dXt = (a(t) + b(t)Xt ) dt + (c(t) + d(t)Xt ) dBt , con condicin inicial X0 = x, donde a, b, c y d son funciones continuas. o Utilizando el mtodo de variacin de las constantes propondremos una e o solucin de la forma o Xt = Ut Vt (42) donde dUt = b(t)Ut dt + d(t)Ut dBt y dVt = (t)dt + (t)dBt , con U0 = 1 y V0 = x. Por el apartado C sabemos que
t t
Ut = exp
0
b(s)ds +
0
d(s)dBs
1 2
t 0
d2 (s)ds .
Por otra parte, diferenciando la igualdad (42) obtenemos a(t) c(t) = Ut (t) + (t)d(t)Ut = Ut (t) 75
Xt = X0 +
0
b(s, Xs )ds +
0
(s, Xs )dBs ,
puede transformarse en una ecuacin de Stratonovich, utilizando la frmula o o (27) que nos relaciona ambos tipos de integral. As se obtiene ,
t t
Xt = X0 +
0
b(s, Xs )ds
0
1 ( ) (s, Xs )ds + 2
t
(s, Xs ) dBs ,
0
ya que la expresin del proceso (s, Xs ) como proceso de It ser o o a (t, Xt ) = (0, X0 ) +
0 t
1 b 2 (s, Xs )ds 2
+
0
( ) (s, Xs )dBs .
Yamada y Watanabe demostraron en 1971 que la condicin de Lipschitz o pod debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales a estocsticas unidimensionales. Supongamos que los coecientes b y no dea penden del tiempo, el coeciente b es Lipschitz, pero el coeciente satisface la condicin de Hlder o o |(x) (y)| D|x y| , donde 1 . En tal caso existe una unica solucin de la ecuacin. o o 2 Por ejemplo, la ecuacin o dXt = |Xt |r dBt X0 = 0 tiene una solucin unica si r 1/2. o 76
3.2
La solucin Xt que hemos encontrado antes es una solucin fuerte porque es o o un proceso adaptado a la familia de -lgebras a FtZ = (Bs , s t, Z). Podemos plantear el problema de forma diferente. Nos dan los coecientes b(t, x) y (t, x) y nos piden que encontremos un par de procesos Xt , Bt en un espacio de probabilidad (, F, P ) tales que Bt es un movimiento browniano relativo a una ltracin Ht y Xt satisface la ecuacin (34) en este espacio. Dio o remos entonces que (, F, P, Ht , Xt , Bt ) es una solucin dbil de la ecuacin o e o (34). Pueden demostrarse los siguientes resultados: Toda solucin fuerte es tambin una solucin dbil. o e o e Una ecuacin con coecientes b(t, x) y (t, x) se dice que tiene unicidad o dbil si dos soluciones dbiles tienen la misma ley (las mismas distribue e ciones en dimensin nita). Si los coecientes satisfacen las condiciones o del Teorema (18) entonces se satisface la unicidad dbil. e La existencia de soluciones dbiles puede asegurarse suponiendo solae mente que los coecientes b(t, x) y (t, x) son funciones continuas y acotadas. La ecuacin de Tanaka o dXt = sign (Xt ) dBt , X0 = 0, no tiene ninguna solucin fuerte pero tiene una solucin dbil unica. o o e
3.3
Aproximaciones numricas e
Muchas ecuaciones diferenciales estocsticas no pueden resolverse expl a citamente. Por ello es conveniente disponer de mtodos numricos que permiten la sime e ulacin de soluciones. o
77
Consideremos la ecuacin diferencial estocstica con coecientes indepeno a dientes del tiempo dXt = b(Xt )dt + (Xt )dBt , (43) con condicin inicial X0 = x. o Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivisin foro mada por los puntos iT tj = , i = 0, 1, . . . , n. n La longitud de cada subintervalo ser n = T . a n El mtodo de Euler consiste en el esquema recursivo siguiente: e X (n) (ti ) = X (n) (ti1 ) + b(X (n) (ti1 )) n + (X (n) (ti1 ))Bi , i = 1, . . . , n, donde Bi = Bti Bti1 . El valor inicial ser X0 = x. a (n) En los puntos de cada intervalo (ti ti+1 ) el valor del proceso X se deduce por interpolacin lineal. El proceso X (n) es una funcin del movimiento o o browniano y podemos medir el error comerido al aproximar X por X (n) : en = E XT XT
(n) 2 (n)
Puede demostrarse que en es del orden 1/2 es decir, n en c 1/2 n si n n0 . Para simular una solucin mediante el mtodo de Euler, basta con obtener o e valores de n variables aleatorias 1 , . . . ., n independientes con ley N (0, 1), y substituir Bi por n i . El mtodo de Euler puede mejorarse mediante una correccin adicional. e o Esto nos lleva a introducir el mtodo de Milstein. e El valor exacto del incremento entre dos puntos de la particin es o
ti ti
X(ti ) = X(ti1 ) +
ti1
b(Xs )ds +
ti1
(Xs )dBs .
(44)
En el mtodo de Milstein, aplicaremos la frmula de It a los procesos b(Xs ) y e o o (Xs ) que aparecen en (44), con objeto de obtener una aproximacin mejor. o De esta forma obtenemos X(ti ) X(ti1 )
ti s ti1 ti s
=
ti1
1 bb + b 2 (Xr )dr + 2
s
(b ) (Xr )dBr ds
ti1 s
(ti1 )) +
ti1
1 b + 2 (Xr )dr + 2
= b(X (n) (ti1 )) n + (X (n) (ti1 ))Bi + Ri . El trmino dominante en el resto es la integral estocstica doble e a
ti ti1 s
y puede demostrarse que las dems componentes del resto son de rdenes a o inferiores y pueden despreciarse. La integral estocstica doble puede, a su a vez, aproximarse por ( ) (X (n) (ti1 ))
ti ti1 s
dBr dBs .
ti1
Las reglas del clculo estocstico nos permiten calcular la integral doble que a a nos queda:
ti ti1 s ti
dBr dBs =
ti1 ti1
En conclusin, el mtodo de Milstein consiste en el sistema recursivo siguiente o e X (n) (ti ) = X (n) (ti1 ) + b(X (n) (ti1 )) n + (X (n) (ti1 )) Bi 1 + ( ) (X (n) (ti1 )) (Bi )2 2 . n 2 79
3.4
Propiedad de Markov
Consideremos un proceso de difusin n-dimensional {Xt , t 0} que satisface o una ecuacin diferencial estocstica del tipo o a dXt = b(t, Xt )dt + (t, Xt )dBt , (45)
donde B es un movimiento browniano m-dimensional y los coecientes b y son funciones que satisfacen las hiptesis del Teorema (18). o Seguidamente demostraremos que los procesos de difusin satisfacen la o propiedad de Markov. Esta propiedad nos dice que el comportamiento futuro del proceso, conociendo la informacin hasta el instante t solo depende del o valor del proceso en el instante presente, Xt . Denicin 19 Diremos que un proceso estocstico n-dimensional {Xt , t o a 0} es un proceso de Markov si para todo s < t se tiene E(f (Xt )|Xr , r s) = E(f Xt )|Xs ), para toda funcin medible y acotada f en Rn . o La ley de probabilidad de los procesos de Markov se caracteriza mediante las denominadas probabilidades de transicin: o P (C, t, x, s) = P (Xt C|Xs = x), donde 0 s < t, C BRn y x Rn . Es decir, P (, t, x, s) es la ley de probabilidad de la variable Xt condicionada por Xs = x. Si esta ley condicionada tiene densidad, la designaremos por p(y, t, x, s). Por ejemplo, el movimiento browniano real Bt es un proceso de Markov con probabilidades de transicin o dadas por (xy)2 1 e 2(ts) . p(y, t, x, s) = 2(t s) 80
Designaremos por {Xts,x , t s} la solucin de la ecuacin diferencial eso o s,x tocstica (45) en el intervalo de tiempo [s, ) y con condicin inicial Xs = a o x. Si s = 0, escribiremos Xt0,x = Xtx . Puede demostrarse que existe una versin continua en los tres parmetros o a del proceso estocstico a {Xts,x , 0 s t, x Rn } . Por otra parte, para cada 0 s t se cumple la siguiente propiedad: Xtx = Xt
x s,Xs
(46)
x y substituyendo y por Xs obtenemos que los procesos Xtx y Xt s son solux ciones de la misma ecuacin en el intervalo [s, ) con condicin inicial Xs . o o Por la unicidad de soluciones deben coincidir.
o Teorema 20 (Propiedad de Markov de las difusiones) Sea f una funcin medible y acotada denida en Rn . Entonces, para cada 0 s < t tendremos E [f (Xt )|Fs ] = E [f (Xts,x )] |x=Xs . Demostracin: Tenemos, utilizando (46) y la Regla 7 de la esperanza condio
cionada:
3.5
Consideremos un proceso de difusin n-dimensional {Xt , t 0} que satisface o una ecuacin diferencial estocstica del tipo o a dXt = b(t, Xt )dt + (t, Xt )dBt . donde B es un movimiento browniano m-dimensional. Supondremos que los coecientes b y satisfacen las hiptesis del Teorema 18 y que X0 es o constante. Podemos asociar a un proceso de difusin un operador diferencial de seo gundo orden. Dicho operador, que denotaremos por As , s 0, se denomina el generador de la difusin, y se dene por o As f (x) =
n f i=1 bi (s, x) xi
1 2
n i,j=1
f ( )i,j (s, x) xi xj .
(47)
En esta expresin f es una funcin en Rn dos veces derivable con derivadas o o 1,2 parciales continuas (de clase C ). La matriz ( ) (s, x) es simtrica y e semidenida positiva:
n
( )i,j (s, x) =
k=1
La relacin entre el operador As y la difusin viene dada por la siguiente o o propiedad, consecuencia de la frmula de It: Si f (t, x) es una funcin de o o o clase C 1,2 , entonces, f (t, Xt ) es un proceso de It con diferencial o df (t, Xt ) = +
i=1 j=1
f (t, Xt ) + At f (t, Xt ) dt t
n m
82
E
0
<
(48)
Mt = f (t, Xt )
0
f + As f s
(s, Xs )ds
(49)
ser una martingala. Condiciones sucientes para (48) son: a a) Las derivadas parciales
f xi
estn acotadas. a
b) Existen constantes ct , kt tales que para cada s [0, t] f f 2f (s, x) + (s, x) + (s, x) ct ekt |x| . s xi xi xj En particular si f satisface la ecuacin o
f t
+ At f = 0
(50)
y se cumple a) o b), entonces f (t, Xt ) es una martingala. La propiedad de martingala de este proceso nos permite dar una interpretacin probabilista de la solucin de una ecuacin parablica con condicin o o o o o n terminal jada: Si la funcin f (t, x) satisface (50) en [0, T ] R con la o condicin terminal f (T, x) = g(x), entonces o
t,x f (t, x) = E(g(XT ))
casi por todo respecto de la ley de Xt . En efecto, la propiedad de martingala del proceso f (t, Xt ) implica
t,x f (t, Xt ) = E(f (T, XT )|Xt ) = E(g(XT )|Xt ) = E(g(XT ))|x=Xt .
Consideremos una funcin q(x) continua y acotada inferiormente. Eno tonces, aplicando de nuevo la frmula de It puede demostrarse que, si la o o
83
q(Xs )ds
f (t, Xt )
0
Rs
0
q(Xr )dr
f + As f qf s
(s, Xs )ds
Rt
0
n q(Xs )ds
i=1 j=1
(51) (52)
q(Xs )ds
f (t, Xt )
ser una martingala. a Supongamos que f (t, x) satisface (51) en [0, T ] Rn con condicin termio nal f (T, x) = g(x). Entonces, f (t, x) = E e
RT
t t,x q(Xs )ds
t,x g(XT ) .
RT
t
q(Xs )ds
f (T, XT )|Ft .
RT
t
f (T, XT )|Ft = E e
f + As f s
(s, Xs )ds.
Esta es la denominada frmula de Dynkin que tiene una extensin a tiempos o o n 2 de paro. Designaremos por C0 (R ) el conjunto de las funciones f en Rn con dos derivadas parciales continuas y soporte compacto. 84
2 Teorema 21 (Frmula de Dynkin) Sea f C0 (Rn ) y consideremos un o proceso de difusin {Xt , t 0} que satisface la ecuacin diferencial eso o tocstica (45), con condicin inicial constante. Entonces, si es un tiempo a o de paro tal que E( ) < ,
E [f (X )] = f (X0 ) + E
0
En particular si es el tiempo de salida de un conjunto acotado, la condicin E( ) < siempre se cumple. o Demostracin: Utilizando la frmula de It es suciente con ver que o o o
n m
E
i=1 k=1 0
N =
=
0
E [ N ] = E
Por otra parte, como la funcin f tiene soporte compacto, el proceso o est acotado por una constante c y por consiguiente, a
E ( N )
=E
0
ds N c2 E( ) < .
La acotacin uniforme de los momentos de orden 2 de las variables N , y la o convergencia casi segura de la sucesin N hacia la variable implican o
E() = lim E( N ) = 0.
N
85
Como aplicacin consideremos el siguiente problema. Sea Bt un movimiento o browniano n-dimensional tal que B0 = a, y supongamos |a| < R. Cual es la esperanza del tiempo de salida K de la bola de radio R : K = {x Rn : |x| < R}. Apliquemos la fmula de Dynkin a X = B, = K N y sea f una funcin o o 2 n 2 2 de C0 (R ) tal que f (x) = |x| para |x| R. Tendremos
1 E[f (B )] = f (a) + E f (Bs )ds 2 0 = |a|2 + nE [ ] .
1 R2 |a|2 n
1 R2 |a|2 . n
3.6
Existe una relacin interesante entre procesos de difusin y ecuaciones en o o derivadas parciales. En general, los procesos de difusin permiten dar ino terpretaciones probabilistas de ecuaciones en derivadas parciales de segundo orden. Consideremos el siguiente ejemplo sencillo. Si Bt es un movimiento browniano, y f es una funcin continua y con crecimiento polinomial, la funcin o o u(t, x) = E(f (Bt + x)) satisface la ecuacin de la calor: o u 1 2u = , t 2 x2
(53)
con condicin inicial u(0, x) = f (x). Esto es debido a que podemos escribir o E(f (Bt + x)) =
f (y) 86
1 (xy)2 e 2t dy, 2t
1 y la funcin 2t e 2t para cada y jo, satisface la ecuacin (53). o o La funcin x u(t, x) representa la distribucin de temperaturas en una o o barra de longitud innita, suponiendo un perl inicial de temperaturas dado por la funcin f (x). o Consideremos una difusin es homognea en el tiempo. En tal caso, el o e generador A no depende del tiempo y vale: n
(xy)2
Af (x) =
i=1
(54)
La frmula de Dynkin, suponiendo X0 = x, nos dice que o E [f (Xtx )] = f (x) + Consideremos la funcin o u(t, x) = E [f (Xtx )]. (56)
t 0 x E [Af (Xs )] ds.
(55)
La frmula (55) nos dice que esta funcin es diferenciable y satisface la siguo o iente ecuacin o u = E [Af (Xtx )] . t x El trmino E [Af (Xt )] puede tambin expresarse en funcin de u. Para ello e e o necesitamos introducir el dominio del generador de la difusin: o o Denicin 22 El dominio DA del generador de la difusin {Xt } es el cono junto de funciones f : Rn R tales que el l mite siguiente existe para todo x Rn E [f (Xtx )] f (x) . (57) Af (x) = lim t0 t
2 C0 (Rn ), 2 La expresin (55) nos dice que C0 (Rn ) DA y para toda funcin f o o el l mite (57) es igual a al valor Af dado por (54). El siguiente resultado nos dice que la funcin u(t, x) denida en (56) sato isface una ecuacin en derivadas parciales, denominada ecuacin retrgrada o o o (bakward) de Kolmogorov. Esto nos proporciona una interpretacin probao bilista de las ecuaciones en derivadas parciales de tipo parablico. o 2 Teorema 23 Sea f C0 (Rn ).
87
a) Denimos u(t, x) = E [f (Xtx )]. Entonces, u(t, ) DA para cada t y = Au u(0, x) = f (x)
u t
(58)
b) Si w C 1,2 ([0, ) Rn ) es una funcin acotada que satisface la ecuacin o o x (58), entonces w(t, x) = E [f (Xt )]. Demostracin: a) Hemos de calcular el l o mite cuando r 0 de la expresin o
x E [u(t, Xr )] u(t, x) . r
Yt = (s t, Xtx ).
La frmula de It aplicada a este proceso y a la funcin w nos da o o o
t
w(Yt ) = w(s, x) +
t n 0 m
Aw
w r
x (s r, Xr )dr
+
0 i=1 j=1
obtenemos
w(Yt ) = w(s, x) +
0 i=1 j=1
88
Ahora deseamos tomar esperanzas, pero como no hemos impuesto ninguna condicin o de crecimiento sobre las derivadas parciales de la funcin w no sabemos si la inteo gral estocstica tiene esperanza cero. Por ello, debemos introducir un tiempo de a paro, para un R > 0, jado, denido por
Notemos por pt (x, y) la solucin fundamental de la ecuacin parablica o o o (58). Es decir, tal solucin se obtiene formalmente tomando como funcin o o f la delta y . Entonces, y pt (x, y) es la densidad de probabilidad de la variable aleatoria Xtx : u(t, x) = E [f (Xtx )] =
Rn
Esto nos dice tambin que p(y, t, x, s) = pts (x, y) sern las probabilidades e a de tansicin del proceso de Markov Xt . o Ejemplo 21 En el caso b = 0, = I, el proceso de difusin Xt es el movimiento o browniano Bt n-dimensional. Su generador ser el operador de Laplace: a =
1 2 n 2 i=1 x2 . i
La solucin fundamental de esta ecuacin es la densidad gaussiana: o o pt (x, y) = (2t)n/2 exp |x y|2 2t .
La frmula de Feynman-Kac es una generalizacin de la ecuacin de Kolo o o mogorov que hemos obtenido en el apartado anterior.
2 Teorema 24 Sean f C0 (Rn ) y q C(Rn ). Suponemos que la funcin q o est acotada inferiormente. Consideremos un proceso de difusin {Xt , t 0} a o que satisface la ecuacin diferencial estocstica (45). o a
(59)
o b) Si w C 1,2 ([0, ) Rn ) es una funcin acotada en cada [0, T ] Rn que satisface la ecuacin (59), entonces w(t, x) = v(t, x). o Demostracin: a) Pongamos Yt = f (Xtx ), Zt = exp o
Entonces
t 0 x q(Xs )ds .
v(t, x) = f (x)
0
x E [Ys Zs q(Xs )] ds +
t 0
ya que el trmino de integral estocstica tiene esperanza cero, teniendo en cuenta e a que f tiene soporte compacto y q est acotada inferiormente. Por consiguiente, a
90
= E[E[exp
0 t
= E[E[exp
0 t
= E[exp
0 r
= E[exp
0
= v(t + r, x) + E
exp
0
1 E r
obtenemos
exp
0
r0
Yt = (s t, Xtx )
t
Rt =
0
x q(Xs )ds.
Aw
w x qw (s r, Xr )eRr dr r
+
0 i=1 j=1
obtenemos
Rt
w(Yt ) = w(s, x) +
0 i=1 j=1
91
est acotado. a
E exp
0
Ejercicios 3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferenciales estocsticas indicadas: a (i) El proceso Xt =
Bt 1+t
dXt = X0 = 0
(ii) El proceso Xt = sin Bt , con B0 = a , es solucin de o 2 2 1 dXt = Xt dt + 2 (iii) (X1 (t), X2 (t)) = (t, et Bt ) satisface 0 1 dX1 dt + X1 dBt = e X2 dX2 92 1 Xt2 dBt ,
(iv) (X1 (t), X2 (t)) = (cosh(Bt ), sinh(Bt )) satisface 1 X1 dX1 X2 = dt + dBt . dX2 2 X2 X1 (v) Xt = (cos(Bt ), sin(Bt )) satisface 1 dXt = Xt dt + Xt dBt , 2 donde M = 0 1 . Las componentes del proceso Xt cumplen 1 0 X1 (t)2 + X2 (t)2 = 1, y por lo tanto, Xt puede considerarse como un movimiento browniano en la circunferencia de radio 1. (vi) El proceso Xt = (x1/3 + 1 Bt )3 , x > 0, cumple 3 1 1/3 2/3 dXt = Xt dt + Xt dBt . 3 3.2 Consideremos un movimiento browniano n-dimensional Bt y jemos constantes i , i = 1, . . . , n. Resolver la ecuacin diferencial estocstica o a
n
dXt = rXt dt + Xt
k=1
k dBk (t).
3.3 Resolverde las ecuaciones diferenciales estocsticas siguientes: a dXt = rdt + Xt dBt , X0 = x 1 dXt = dt + Xt dBt , X0 = x > 0 Xt dXt = Xt dt + Xt dBt , X0 = x > 0. Para que valores de las constantes , hay explosin? o 3.4 Resolver las ecuaciones diferenciales estocsticas siguientes: a (i) dX1 = dX2 1 dt + 0 93 1 0 0 X1 dB1 . dB2
(ii) dX1 (t) = X2 (t)dt + dB1 (t) dX2 (t) = X1 (t)dt + dB2 (t) 3.5 La ecuacin diferencial estocstica no lineal o a dXt = rXt (K Xt )dt + Xt dBt , X0 = x > 0 es utiliza como modelo para el crecimiento de una poblacin de tamao o n Xt , en un medio aleatorio. La constante K > 0 se denomina la capacidad del medio, la constante r R mide la calidad del medio y la constante R es una medida del nivel de ruido del sistema. Comprobar que exp rK 1 2 t + Bt 2 Xt = t x1 + r 0 exp rK 1 2 s + Bs ds 2 es la unica solucin. o 3.6 Encontrar el generador de los siguientes procesos de difusin: o a) dXt = Xt dt + dBt , (proceso de Ornstein-Uhlenbeck) y r son constantes b) dXt = rXt dt + Xt dBt , (movimiento browniano geomtrico) y r e son constantes c) dXt = rdt + Xt dBt , y r son constantes d) dYt = e) f) dX1 dX2 dX1 dX2 dt dXt = = donde Xt es el proceso introducido en a) 1 X2 1 0 dt + dt + 0 eX1 1 0 0 X1 dBt dB1 dB2
n
kj dBj , 1 k n
b) Af (x) =
f t
2 + cx f + 1 2 x2 f , f C0 (R2 ) x 2 x2
2 1
1 2f , 2 x2 2
2 C0 (R2 )
3.8 Demostrar que la solucin u(t, x) del problema con valor inicial o u 1 2 2 2u u + x , t > 0, x R = x 2 t 2 x x 2 u(0, x) = f (x), f C0 (R) puede expresarse como 1 u(t, x) = E f (x exp{Bt + ( 2 )t} . 2
Consideremos el modelo de Black y Scholes para la curva de precios de un activo nanciero. El precio St en un instante t viene dado por un movimiento browniano geomtrico: e St = S0 et
2 t+Bt 2
donde S0 es el precio inicial, es una constante que representa la tendencia a crecer (observemos que E(St ) = S0 et ), y se denomina la volatilidad. Sabemos que St satisface una ecuacin diferencial estocstica lineal: o a dSt = St dBt + St dt. Este modelo tiene las propiedades siguientes: a) Las trayectorias t St son continuas. b) Para todo s < t, el incremento relativo lgebra generada por {Su , 0 u s}. a
St Ss Ss
es independient de la -
95
(t s), (t s).
St Ss 2
Fijemos un intervalo de tiempo [0, T ]. Una cartera de valores (o estrategia de inversin) ser un proceso estocstico o a a = {(t , t ) , 0 t T } tal que sus componentes son procesos progresivamente medibles y verican
T
|t | dt < ,
0 T 0
( t )2 dt < .
La componente t representa el capital (activo nanciero sin riesgo) al tipo de inters r. La componente t representa la cantidad de acciones de que e disponemos. En esta situacin el valor de la cartera en cada instante t ser o a Vt () = t ert + t St . Diremos que la cartera t es autonanciada si su valor es un proceso de It con diferencial o dVt () = rt ert dt + t dSt . Esto signica que el incremento del valor solo depende del incremento de los precios. Se introducen los precios actualizados como St = ert St = S0 exp ( r) t 2 t + Bt . 2
El valor actualizado de una cartera ser, por denicin, a o Vt () = ert Vt () = t + t St . Observemos que dVt () = rert Vt ()dt + ert dVt () = r t St dt + ert t dSt = t dSt . 96
Se dice que un modelo es viable si existe una probabilidad equivalente respecto de la cual los precios actualizados forman una martingala. Esta condicin es equivalente a que no haya arbitrajes (carteras autonanciadas o con valor inicial cero y tales que VT () 0 y P (VT () > 0) > 0). Tales probabilidades se denominan probabilidades sin riesgo. El teorema de Girsanov nos dice que existe una probabilidad Q respecto de la cual el proceso r Wt = Bt + t es una martingala. En funcin del proceso Wt los precios se escriben o St = S0 exp rt 2 t + Wt , 2
es decir, Q ser una probabilidad sin riesgo. a El valor actualizado de una cartera autonanciada valdr a
t
Vt () = V0 () +
0
u dSu ,
(60)
Observemos que una tal cartera no puede ser un arbitraje ya que si su valor inicial es nulo, entonces, EQ VT () = V0 () = 0. Consideremos un contrato derivado sobre el activo nanciero que permita hacer un benecio a su propietario dado por una variable aleatoria h 0, FT -medible y de cuadrado integrable respecto de Q. El tiempo T ser la a fecha de vencimiento del contrato.
97
En el caso de una opcin de compra europea de vencimiento T y precio o de ejercicio K, tendremos h = (ST K)+ . En el caso de una opcin de venta europea de vencimiento T y precio o de ejercicio K, tendremos h = (K ST )+ . Diremos que una cartera autonanciada que cunple (60) cubre el derivado si VT () = h, y se dice entonces que la variable h es replicable. El precio del derivado en cualquier instante t T se determina como el valor de una cartera de cobertura, suponiendo que el benecio h es replicable. Vendr dado por la frmula a o Vt () = EQ (er(T t) h|Ft ), que se deduce de la propiedad de martingala de Vt () respecte de Q: EQ (erT h|Ft ) = EQ (VT ()|Ft ) = Vt () = ert Vt (). En particular, V0 () = EQ (erT h). Se dice que un modelo es completo si toda variable de cuadrado integrable respecto de la probabilidad sin riesgo es replicable. El modelo de Black y Scholes es completo, como consecuencia del teorema de representacin de o martingalas: Consideremos la martingala de cuadrado integrable Mt = EQ erT h|Ft . Sabemos que existe un proceso estocstico Kt adaptado y de cuadrado intea T 2 grable, o sea, 0 EQ (Ks )ds < , tal que
t
(61)
Mt = M0 +
0
Ks dWs .
98
Vt () = t + t St = Mt , y, por lo tanto, su valor nal ser a VT () = erT VT () = erT MT = h. Consideremos el caso particular h = g(ST ). El valor del derivado en el instante t ser a Vt = EQ er(T t) g(ST )|Ft = er(T t) EQ g(St er(T t) e(WT Wt ) Por lo tanto, Vt = F (t, St ), donde F (t, x) = er(T t) EQ g(xer(T t) e(WT Wt )
2 /2(T t) 2 /2(T t)
)|Ft .
(62) ) . (63)
Bajo hiptesis muy generales sobre g (por ejemplo si es continua y derivo able a trozos)que incluyen, en particular, las funciones g(x) = (x K)+ , g(x) = (K x)+ , la funcin F (t, x) es derivable respecto de t y dos veces derivable respecto de o x, con todas las derivadas parciales continuas. Supondremos que existe una funcin F (t, x) de este tipo tal que se cumple (62). Entonces, aplicando la o
99
+
0
Ku du.
Vt = V0 +
0
Hu Su dWu +
0
rVu du.
Comparando estas dos expresiones se deduce F Ht = (t, St ), x F 1 2 2 2F rF (t, St ) = (t, St ) + St (t, St ) t 2 x2 F +rSt (t, St ). x El soporte de la ley de probabilidad de la variable aleatoria St es [0, ). Per tanto, estas igualdades nos dicen que F (t, x) satisface la ecuacin o F F 1 2F (t, x) + rx (t, x) + (t, x) 2 x2 = rF (t, x), t x 2 x2 F (T, x) = g(x). Por otra parte, la cartera recubridora ser a F t = (t, St ), x t = ert (F (t, St ) Ht St ) . La frmula (63) puede escribirse como o F (t, x) = er(T t) EQ g(xer(T t) e(WT Wt ) 1 = er 2
2 /2(T t)
(64)
g(xer 100
2 + 2
)ey
2 /2
dy,
donde = T t. En el caso particular de una opcin de compra europea de o precio de ejercicio K y vencimiento T , g(x) = (x K)+ , se obtiene 1 F (t, x) = 2 = donde d d+
x log K + r 2 (T t) = , T t x log K + r + 2 (T t) = T t
2 2
ey
2 /2
xe
2 + 2
Ker
dy
x(d+ ) Ker(T t) (d ),
Por tanto, el precio en el instante t ser a Ct = F (t, St ). La composicin de la cartera de cobertura ser o a Ht = F (t, St ) = (d+ ). x
References
[1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus. Springer-Verlag 1991 [2] F. C. Klebaner: Introduction to Stochastic Calculus with Applications. [3] T. Mikosh: Elementary Stochastic Calculus. World Scientic 2000. [4] B. ksendal: Stochastic Dierential Equations. Springer-Verlag 1998 [5] D. Revuz and M. Yor: Continuous Martingales and Brownian motion. Springer-Verlag, 1994.
101