Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
2.1. Introduccion
Sea T R y (, F , P ) un espacio de probabilidad. Un proceso aleatorio es una funcion
X :T R
En cuanto a los valores del proceso llamaremos E al espacio de estados y consideraremos tambien dos
casos:
2.2. Definiciones
Hablando informalmente, un proceso de Markov es un proceso aleatorio con la propiedad de que dado
el valor actual del proceso Xt , los valores futuros Xs para s > t son independientes de los valores pasados
Xu para u < t. Es decir, que si tenemos la informacion presente del proceso, saber como llego al estado
actual no afecta las probabilidades de pasar a otro estado en el futuro. En el caso discreto la definicion
precisa es la siguiente.
Definicion 2.1 Una Cadena de Markov a tiempo discreto es una sucesion de variables aleatorias Xn ,
n 1 que toman valores en un conjunto finito o numerable E , conocido como espacio de estados, y que
satisface la siguiente propiedad
En general, es comodo designar los estados de la cadena usando los enteros no-negativos {0, 1, 2, . . . }
y diremos que Xn esta en el estado i si Xn = i.
La probabilidad de que Xn+1 este en el estado j dado que Xn esta en el estado i es la probabilidad de
nn+1
transicion en un paso de i a j y la denotaremos P ij :
En general, las probabilidades de transicion dependen no solo de los estados sino tambien del instante
en el cual se efectua la transicion. Cuando estas probabilidades son independientes del tiempo (o sea, de
n) decimos que la cadena tiene probabilidades de transicion estacionarias u homogeneas en el tiempo.
En este caso Pijnn+1 = Pij no depende de n y Pij es la probabilidad de que la cadena pase del estado
i al estado j en un paso. A continuacion solo consideraremos cadenas con probabilidades de transicion
estacionarias.
que sera finita o infinita segun el tamano de E . P se conoce como la matriz de transicion o la matriz
de probabilidades de transicion de la cadena. La i-esima fila de P para i = 0, 1, . . . es la distribucion
condicional de Xn+1 dado que Xn = i. Si el numero de estados es finito, digamos k entonces P es una
matriz cuadrada cuya dimension es k k. Es inmediato que
X
X
Pij = P (Xn+1 = j |Xn = i) = 1, para i = 0, 1, 2, . . . (2.4)
j=0 j=0
de modo que cada fila de la matriz representa una distribucion de probabilidad. Una matriz con esta
propiedad se llama una matriz estocastica o de Markov.
y veamos que esta sucesion es una cadena de Markov con espacio de estados Z y determinemos sus
probabilidades de transicion.
Es evidente que el espacio de estados del proceso X es Z ya que la suma de dos enteros es un entero.
Para demostrar la propiedad de Markov bastara con probar que para todo n N y para cualesquiera
x0 , . . . , xn , xn+1 se tiene que
P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P (Xn+1 = xn+1 |Xn = xn ) (2.5)
P (Xk = xk , . . . , X1 = x1 , X0 = x0 ), x0 , x1 , . . . , xk Z y k N
Pn
Teniendo en cuenta que Xn = i=0 Yi , n N se obtiene que
P (Xk = xk , . . . , X1 = x1 , X0 = x0 ) = P (Y0 = x0 , Y1 = x1 x0 , . . . , Yk = xk xk 1 )
= pY (x0 )pY (x1 x0 ) pY (xk xk 1 ).
Usando este calculo es inmediato que
P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = pY (xn+1 xn ).
Un calculo similar muestra que
P (Yn+1 = xn+1 xn , Xn = xn )
P (Xn+1 = xn+1 |Xn = xn ) = = pY (xn+1 xn ) (2.6)
P (Xn = xn )
y por lo tanto (2.5) se satisface. Las probabilidades de transicion estan dadas por la ecuacion (2.6). N
2.2.
48 DEFINICIONES 48
CAPITULO 2. CADENAS DE MARKOV
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) (2.7)
ya que cualquier probabilidad que involucre a Xj1 , . . . , Xjk , j1 < j2 < < jk se puede obtener usando
la Ley de la Probabilidad Total y sumando terminos como (2.7). Tenemos
= P xn 1 xn P xn 2 xn 1 P (X0 = x0 , . . . , Xn 2 = xn 2 )
= P xn 1 xn P xn 2 xn 1
Px0 x1 (x0 ). (2.8)
Un calculo similar muestra que (2.1) es equivalente a
Demostracion. Comenzamos por suponer cierta la propiedad de Markov. Para probar que la propiedad
de Markov implica esta propiedad basta demostrar que para todo n N y x0 , x1 , . . . , xn , xn+1 se tiene
que
P (X0 = x0 , . . . , Xn 1 = xn 1 , Xn+1 = xn+1 |Xn = xn )
(2.9)
= P (X0 = x0 , . . . , Xn 1 = xn 1 |Xn = xn ) Pxn ,xn+1 .
y en particular = {Xi E }, para calcular la probabilidad P (Xn+1 = y |Xn = x, X0 = z). Se tienen las
siguientes igualdades:
P (Xn+1 = y, Xn = x, Xn 1 E , . . . , X1 E , X0 = z)
P (Xn+1 = y |Xn = x, Xm = z) =
P (Xn = x, X0 = z)
X P (Xn+1 = y, Xn = x, Xn 1 = xn 1 , . . . , X1 = x1 , X0 = z)
=
x1 ,...,xn1 E
P (Xn = x, X0 = z)
X
= P (Xn+1 = y |Xn = x, Xn 1 = xn 1 , . . . , X1 = x1 , X0 = z)
x1 ,...,xn1 E
P (Xn = x, Xn 1 = xn 1 , . . . , X1 = x1 , X0 = z)
P (Xn = x, X0 = z)
X
= P (Xn+1 = y |Xn = x)
x1 ,...,xn1 E
P (Xn = x, Xn 1 = xn 1 , . . . , X1 = x1 , X0 = z)
P (Xn = x, X0 = z)
= P (Xn+1 = y |Xn = x)
X P (Xn = x, Xn 1 = xn 1 , . . . , X1 = x1 , X0 = z)
P (Xn = x, X0 = z)
x1 ,...,xn1 E
P (Xn = x, Xn 1 E , . . . , X1 E , X0 = z)
= P (Xn+1 = y |Xn = x)
P (Xn = x, X0 = z)
2.2.
50 DEFINICIONES 50
CAPITULO 2. CADENAS DE MARKOV
= P (Xn+1 = y |Xn = x)
= Px,y ,
para justificar estas igualdades utilizamos el hecho de que la probabilidad de la union numerable de
conjuntos disjuntos es igual a la suma de las probabilidades de dichos conjuntos y la propiedad de
Markov.
De manera analoga se puede demostrar que al condicionar con respecto a cualquier evento del pasado
la propiedad de Markov sigue siendo valida en el sentido siguiente.
Otra forma de probar este resultado es utilizando la forma equivalente de la propiedad de Markov que fue
enunciada en la Proposicion 2.1. En efecto, basta con darse cuenta que el lado izquierdo de la identidad
de la Proposicion 2.3 puede ser escrita como sigue
P (Xn+1 = y, Xn 1 A, . . . , X0 A0 | Xn = z)
P (Xn+1 = y |Xn = z, Xn 1 A, . . . , X0 A0 ) =
P (Xn 1 A, . . . , X0 A0 |Xn = z)
2.2.2. Ejemplos
Ejemplo 2.3
Sea i , i 1 v.a.i.i.d. con valores sobre los enteros positivos: P (i = j) = pj para j 0. Construiremos
varios ejemplos con base en esta sucesion.
a) El primer ejemplo es la sucesion (i ) con 0 fijo. La matriz de transicion es
p0 p 1 p 2 p3
p0 p 1 p 2 p3
P = p0 p 1 p2 p3
. . . .
2.2.
51 DEFINICIONES 51
CAPITULO 2. CADENAS DE MARKOV
El hecho de que todas las filas sea identicas refleja la independencia de las variables.
b) Sea Sn = 1 + + n , n = 1, 2, . . . y S0 = 0 por definicion. Este proceso es una cadena de Markov:
. . . . . .
p 1 p0 p1 p2 p3 p4
P = p 2 p 1 p0 p1 p2 p3
p 3 p 2 p 1 p0 p1 p2
. . . . . .
Q0 p1 p2 p3
0 Q1 p2 p3
P = 0 0 Q2 p3
0 0 0 Q3
. . . .
donde Qk = p0 + p1 + + pk para k 0.
N
capital llega a N o si nos arruinamos. El capital inicial es X0 y Xn es nuestro capital al cabo de n juegos.
Sea i el resultado del i-esimo juego:
(
+1, con probabilidad p,
i =
1, con probabilidad q,
entonces
Xn = X 0 + 1 + + n
y estamos en la situacion del ejemplo anterior,
P (Xn+1 = j |Xn = i, Xn 1 = in 1 , . . . , X1 = i1 )
= P (Xn + n+1 = j |Xn = i, Xn 1 = in 1 , . . . , X1 = i1 )
= P (Xn + n+1 = j |Xn = i) = P (n+1 = j i|Xn = i)
0.4, si j = i + 1,
= P (n+1 = j i) = 0.6, si j = i 1,
0, en otro caso.
1 0 0 0 0 0 0
0.6 0 0.4 0 0 0 0
0 0.6 0 0.4 0 0 0
P =
. . . . . . . .
0 0 0 0 0.6 0 0.4
0 0 0 0 0 0 1
Con mayor generalidad podemos pensar que una partcula describe el paseo al azar cuyos estados son
un conjunto de enteros finito o infinito, por ejemplo a, a + 1, . . . , b 1, b. Si la partcula se encuentra en
el estado i, en una transicion puede quedarse en i o pasar a los estados i + 1 o i 1. Supongamos que las
probabilidades de transicion son estacionarias y llamemoslas r, p y q, respectivamente, con r + p + q = 1.
Hay dos casos especiales en los extremos de la cadena. Si ponemos a = 0 y b = N entonces
y la matriz de transicion es
r0 p0 0 0 0 0 0
q r p 0 0 0 0
0 q r p 0 0 0
P = 0 0 q r 0 0 0
. . . . . . . .
0 0 0 0 q r p
0 0 0 0 0 qN rN
N i i
Pii+1 = , Pii 1 = .
N N
0 1 0 0 0 0
1/5 0 4/5 0 0 0
0 2/5 0 3/5 0 0
P =
0 0 3/5 0 2/5 0
0 0 0 4/5 0 1/5
0 0 0 0 1 0
N
Esta cadena es un ejemplo de una poltica de control de inventarios (s, S) con s = 1 y S = 5: cuando el
stock disponible cae a s o por debajo de s, se ordena suficiente mercanca para llevar el stock a S = 5.
Sea Dn la demanda en el n-esimo da. Tenemos
(
(Xn Dn+1 )+ si Xn > s,
Xn+1 = (2.10)
(S Dn+1 )+ si Xn s.
que etiquetamos n = 0, 1, 2, . . . y suponemos que la demanda total durante un perodo n es una v.a. Xn
cuya distribucion es independiente del perodo (es decir, es estacionaria):
P (Dn = k) = pk , k = 0, 1, 2, . . .
P
donde pk 0, k pk = 1.
El nivel del inventario se verifica al final de cada perodo y la poltica (s, S) de reposicion (s < S)
estipula que si el nivel de inventario no esta por encima de s, se ordena una cantidad suficiente para
llevar el inventario a S. Si, en cambio, el inventario disponible es mayor que s, no se produce una orden.
Llamemos Xn al inventario disponible al final del n-esimo perodo.
Hay dos situaciones posibles cuando la demanda excede al inventario:
F E E E ... E
n-k n-k+1 n-k+2 n-k+3 n
Para estudiar este proceso como una cadena de Markov definimos los siguientes estados: Si el ensayo
resulta en fracaso, el estado es 0. Si resulta en exito, el estado es el numero de exitos que han ocurrido en
sucesion. Por lo tanto, desde cualquier estado i puede haber una transicion al estado 0 (si hay un fracaso
en el proximo juego) con probabilidad p, mientras que si hay un exito la racha continua y la transicion
es de i a i + 1. La matriz de transicion es
q p 0 0 0 ...
q 0 p 0 0 ...
P = q 0 0 p 0 ...
q 0 0 0 p ...
. . . . .
N
2.3.
55 MATRICES DE TRANSICIO N CAPITULO 2. CADENAS DE MARKOV
55
Ejemplo 2.8
Sean X0 una variable aleatoria que toma valores en E , {Yn : S, n N}, una sucesion de variables
aleatorias independientes y F : E S E . En general, cualquier fenomeno descrito por una relacion en
recurrencia aleatoria de la forma
para n N y x0 , . . . , xn 1 , x, y E . Para ello observemos que existe una sucesion de funciones deter-
ministas gn : E S n E , tal que Xn = gn (X0 , Y1 , . . . , Yn ). En efecto, estas pueden ser definidas por la
recurrencia g0 (x) = x, x E , y para z0 E y z1 , . . . , zn S
P (Xn+1 = y |X0 = x0 , . . . , Xn 1 = xn 1 , Xn = x)
P (X0 = x0 , . . . , Xn 1 = xn 1 , Xn = x, Xn+1 = y)
=
P (X0 = x0 , . . . , Xn 1 = xn 1 , Xn = x)
P (X0 = x0 , g1 (x0 , Y1 ) = x1 , . . . , gn (x0 , xe1 , . . . ,xen 1 , Yn ) = x, F (x, Yn+1 ) = y)
=
P (X0 = x0 , g1 (x0 , Y1 ) = x1 , . . . , gn (x0 , ex1, . . . , e xn 1 , Yn ) = x)
P (X0 = x0 , g1 (x0 , Y1 ) = x1 , . . . , gn (x0 ,xe1 , . . . ,xen 1 , Yn ) = x)P (F (x, Yn+1 ) = y)
=
P (X0 = x0 , g1 (x0 , Y1 ) = x1 , . . . , gn (x0 , ex1, . . . , e
xn 1 , Yn ) = x)
= P (F (x, Yn+1 ) = y).
Donde e representa los valores tales que F (x , e ) = x . Por otro lado, usando la independencia se
xi i 1 xi i+1
tiene que
P (F (Xn , Yn+1 ) = y, Xn = x)
P (Xn+1 = y |Xn = x) =
P (Xn = x)
P (F (x, Yn+1 ) = y, Xn = x)
=
P (Xn = x)
P (F (x, Yn+1 ) = y)P (Xn = x)
=
P (Xn = x)
= P (F (x, Yn+1 ) = y).
N
Recordamos que estamos trabajando con procesos cuyas matrices de transicion son estacionarias.
para cualquier par fijo de enteros no-negativos r y s que satisfagan r + s = n, donde definimos
(
(0) 1, i = j,
Pij =
0, i = j
Demostracion.
(n)
Para calcular P ij hacemos una particion segun los valores posibles de la cadena en el instante r:
(n)
Pij = P (Xn = j |X0 = i)
X
= P (Xn = j, Xr = k |X0 = i)
k
X P (Xn = j, Xr = k, X0 = i)
=
k
P (X0 = i)
X P (Xn = j, Xr = k, X0 = i) P (Xr = k, X0 = i)
=
P (Xr = k, X0 = i) P (X0 = i)
k
X
= P (Xn = j |Xr = k, X0 = i)P (Xr = k |X0 = i)
k
X
= P (Xn = j |Xr = k)P (Xr = k |X0 = i)
k
X (r) (s)
= P Pkj .
ik
k
Observamos que la relacion (2.11) representa la multiplicacion de las matrices P (r) y P (s) , de modo
que P (n) es simplemente la n-esima potencia de P . Por esta razon eliminamos de ahora en adelante los
parentesis en la notacion del exponente.
Si la probabilidad de que el proceso este inicialmente en j es (j):
P (X0 = j) = (j)
En general no es sencillo calcular las matrices de transicion a n pasos. En el proximo ejemplo presen-
tamos un caso particular en el cual esto se puede hacer explcitamente.
Usando la notacion
A = B =
tenemos
1
Pn = (A + (1 )n B).
+
Comenzamos por calcular los siguientes productos
1
AP = =A
1
1
BP =
1
= 2 + 2 +
+ + 2 2
= (1 )B
Para completar la prueba por induccion supongamos cierta la formula para n, entonces
1
P nP = (A + (1 )n B)P
+
1
= (A + (1 + + )n+1 B) = P n+1
+
N
En otros casos podemos utilizar el siguiente resultado de algebra lineal, que enunciamos sin de-
mostracion.
Teorema 2.2 Sea A una matriz de transicion de n n con n valores propios distintos 1 , 2 , . . . , n .
Sean v1 , v2 , . . . , vn vectores columna de Rn tales que vi es un vector propio correspondiente a i para
i = 1, 2, . . . , n. Sea C la matriz n n que tiene a vi como i-esimo vector columna. Entonces C es
invertible y C 1 AC = D, con D la matriz cuyas entradas estan dadas por di,i = i y di,j = 0 si i = j,
i, j {1, 2, . . . , n}. Ademas, la k-esima potencia de A, esta dada por
2.3.
58 MATRICES DE TRANSICIO N A(k) = C D (k)
CAPC 1ITULO
, 2. CADENAS DE MARKOV
58
= dk para i, j {1, 2, . . . , n}.
(k)
y las entradas de D (k) estan dadas por d
i,j i,j
2.3.
59 MATRICES DE TRANSICIO N CAPITULO 2. CADENAS DE MARKOV
59
A(k) x = r1 1 v1 + r2 2 v2 + + rn n vn ,
C 1 x = (r1 , r2 , . . . , rn )t
Ejemplo 2.10
Sea X = {Xn , n 0} una cadena con matriz de transicion
0 1 0
P = 0 1/2 1/2 .
1/2 0 1/2
El objetivo de este ejercicio es encontrar la forma general de la entrada (1, 1) de la matriz P (n) , es decir
(n)
P1,1 , para toda n 0. Usando el teorema 2.2 calculemos la ecuacion caracterstica de P.
0 = det{P xI }
= ( 1)(x/4 x2 + x3 1/4)
Los valores propios de P son todos distintos 1 = 1, 2 = i/2, 3 = i/2. Se tiene entonces que:
1 0 0 1 0 0
P =C 0 i/2 0 C 1 y Pn = C 0 (i/2)n 0 C 1 ,
0 0 i/2 0 0 ( i/2)n
(n)
Usando esto podemos escribir a P 11 como
n n
1 1
(n)
P
11 = + cos(n/2) +
2 2
sin(n/2), n 0.
donde = a, = b + c, = i(b c). Para terminar determinemos a , , , (los cuales seran a fortiori
(n)
numeros reales dado que P 11 es un numero real). Basta con resolver el siguiente sistema de ecuaciones:
(0)
1 = P 11 = +
(1) 1
0 = P 11 = +
2
(2) 1
0 = P 11 = ,
4
para ver que = 1/5, = 4/5, = 2/5. De donde vemos que
2.3.
60 N
MATRICES DE TRANSICIO ITULO 2. CADENAS DE MARKOV
CAP 60
(n) 1 4 1 n 2 1 n
P cos(n/2) sin(n/2), n 0.
11 = +
5 5 2 5 2
El mismo metodo puede ser empleado para calcular el resto de las entradas de la matriz P (n) . N
2.4.
59 CLASIFICACIO N DE LOS ESTADOS CAPITULO 2. CADENAS DE MARKOV
59
Observamos que
Pi (Tj = 1) = Pi (X1 = j) = Pij
y ademas X X
Pi (Tj = 2) = Pi (X1 = k, X2 = j) = Pik Pkj .
k=j k=j
X
Pi (Tj = n + 1) = Pik Pk (Tj = n), n 1. (2.15)
k=j
Definicion 2.3 Definimos
ij = Pi (Tj < ) = P (Tj < |X0 = i), (2.16)
la probabilidad de que una cadena que comienza en i visite el estado j. En particular, jj es la probabilidad
de que una cadena que comienza en j, regrese a j.
Observamos que
X
ij = Pi (Tj < ) = Pi (Tj = m). (2.17)
m=1
0 0 0 0 1
Los estados 0 y 4 son absorbentes, y por lo tanto son recurrentes. Veamos que los otros estados, 1, 2 y 3,
son transitorios.
Si estamos en 1 y la cadena pasa a 0, nunca regresara a 1, de modo que la probabilidad de nunca
regresar a 1 es
P1 (T1 = ) = P (T1 = |X0 = 1) P10 = 0.6 > 0.
2.4.
60 CLASIFICACIO N DE LOS ESTADOS CAPITULO 2. CADENAS DE MARKOV
60
N
Sea 1j (x) la funcion indicadora del estado j, definida por
(
1, si x = j,
1j (x) =
0, si x = j.
Proposicion 2.5 La probabilidad de que una cadena que comienza en i visite el estado j por primera
vez en el instante m y que la proxima visita ocurra n unidades de tiempo despues es
Demostracion. Tenemos
Por lo tanto usando (2.20)y (2.17)
X
X
Pi (N (j) 2) = Pi (Tj = m)Pj (Tj = n)
m=1 n=1
X
X
= Pi (Tj = m) Pj (Tj = n)
m=1 n=1
= ij jj .
Pi (N (j) m) = ij m 1
jj , m 1. (2.21)
Como
Pi (N (j) = m) = Pi (N (j) m) Pi (N (j) m + 1)
2.4.
61 CLASIFICACIO N DE LOS ESTADOS CAPITULO 2. CADENAS DE MARKOV
61
obtenemos que
Pi (N (j) = m) = ij m
jj
1
(1 jj ), m 1, (2.22)
y ademas
Pi (N (j) = 0) = 1 Pi (N (j) 1) = 1 ij . (2.23)
Recordemos que la notacion Ei [X ] indica la esperanza de la variable aleatoria X dado que la cadena
de Markov comienza en i. Entonces
(n)
Ei [1j (X (n))] = Pi (Xn = j) = P ij . (2.24)
G(i, j) denota el valor esperado del numero de visitas a j de una cadena de Markov que comienza en i.
X X 1
G(i, j) = Ei [N (j)] = mPi (N (j) = m) = mij m
jj (1 jj ).
m=1 m=1
X 1
mtm 1 = , para |t| < 1,
(1 t)2
m=1
ij (1 jj ) ij
G(i, j) = = < .
(1 jj ) 2 1 jj
2.4.
62 CLASIFICACIO N DE LOS ESTADOS CAPITULO 2. CADENAS DE MARKOV
62
y en particular, Pj (N (j) = ) = 1. Si una v.a. no negativa tiene probabilidad positiva de ser infinita, su
valor esperado es infinito. Por lo tanto
G(j, j) = Ej [N (j)] =
Si ij = 0 entonces Pi (Tj = m) = 0 para todo m N y por (2.14) obtenemos que P nij = 0, n 1. Por
lo tanto G(i, j) = 0 en este caso. Si ij > 0 entonces Pi (N (j) = ) = ij > 0 y en consecuencia
G(i, j) = Ei [N (j)] = .
Observacion 2.1
P
1. Sea j un estado transitorio, como n=1 P ijn = G(i, j) < , i E , vemos que
lim Pij(n) = 0,
n
i E. (2.28)
2. Una cadena de Markov con espacio de estados finito debe tener al menos un estado recurrente: Si
E es finito y todos los estados son transitorios, por (2.28),
X X (n)
= lim Pi (Xn E ) = 1,
(n)
0= lim P = lim P
n ij
n
ij
n
j E j E
que esto es cierto para i = j s y solo s ij > 0. Por lo tanto desde i se accede a j si hay una probabilidad
positiva de que en un numero finito de pasos, se pueda llegar al estado j partiendo del estado i. Notacion:
i j.
Si i j y j i decimos que los estados se comunican y escribimos i j. Si dos estados no se
n 0, o bien P ji = 0, n 0, o ambos. Esta es una relacion de
(n) (n)
comunican, o bien P ij = 0,
equivalencia:
a) i i : P ij = ij .
(0)
b) i j j i
c) Si i j y j k entonces i k.
i j n t. q. P j i m t. q. P
(n) (m)
ij > 0, j > 0,
y usando ahora las ecuaciones de Chapman-Kolmogorov
X (n) (m)
Pir Prk Pij Pjk > 0.
(n+m) (n) (m)
Pik =
r
(s)
Un argumento similar muestra que existe s tal que P ki > 0.
2.5.
63 DESCOMPOSICIO N DEL ESPACIO DE CAP
ESTADOS
ITULO 2. CADENAS DE MARKOV
63
Esta relacion de equivalencia divide el espacio de estados E en clases de equivalencia que tambien
llamaremos clases de comunicacion. Los estados de una clase de equivalencia son aquellos que se comunican
entre s.
Puede ocurrir que partiendo de una clase de equivalencia, la cadena entre en otra. Si esto ocurre,
claramente la cadena no puede regresar a la clase inicial, pues si lo hiciera las dos clases se comunicaran
y formaran una sola clase.
Definicion 2.5 Decimos que la cadena es irreducible si hay una sola clase de equivalencia, es decir, si
todos los estados se comunican entre s.
= min{k : P ij > 0}
(k)
(2.29)
()
el menor numero de pasos necesarios para ir de i a j. Como P ij > 0 existe una sucesion de estados
j1 , j2 , . . . , j 1 tal que
Pij1 Pj1 j2 Pj1 j > 0
Como es el mnimo, todos los jr = i, 1 r < , pues en caso contrario habra una sucesion mas corta,
y tenemos
Pi (Ti = ) Pij1 Pj1 j2 Pj1 j (1 ji ).
Si j 9 i tenemos ji = 0 y por lo tanto Pi (Ti = ) > 0, es decir ii = Pi (Ti < ) < 1, lo que implica
que i es transitorio. Esto demuestra (a).
Supongamos ahora que i es recurrente, entonces el lado izquierdo es 0, de modo que si ji < 1
tendramos una contradiccion. Por lo tanto ji = 1 y j i. Para completar la demostracion de (b) falta
ver que j es recurrente y que ij = 1.
(N )
Como ji = 1 existe un entero positivo N tal que P ji > 0 y tenemos
(N +n+)
P jj = Pj (XN +n+ = j)
Pj (XN = i, XN +n = i, XN +m+ = j)
(N ) (n) ()
=P Pii Pij .
ji
Por lo tanto
X
X
G(j, j) = Pjj
(m)
(m)
Pjj
m=1 m=N +n+
X (N +n+) (N ) ()
X (n)
= P
jj Pji Pij Pii
n=1 n=1
(N ) ()
=P
ji Pij G(i, i) =
Corolario 2.1 Sea C una clase de comunicacion. Entonces todos los elementos de C son recurrentes o
todos son transitorios.
2.5.
64 DESCOMPOSICIO N DEL ESPACIO DE CAP
ESTADOS
ITULO 2. CADENAS DE MARKOV
64
Ejemplo 2.12
Consideremos una cadena con matriz de transicion
0.3 0.7 0
P = 0.2 0.4 0.4
0.1 0.6 0.3
Veamos que todos los estados son recurrentes. En primer lugar observemos que no importa en cual estado
estemos, siempre hay una probabilidad positiva de ir al estado 1 en el paso siguiente. Esta probabilidad
es de, al menos, 0.1 y en consecuencia la probabilidad de no visitar el estado 1 en el paso siguiente es, a
lo sumo, 0.9. En consecuencia, la probabilidad de no visitar el estado 1 en los proximos n pasos es, a lo
sumo, (0.9)n y obtenemos
Por lo tanto
P1 (T1 < ) = P1 (
n=1 {T1 = n}) = 1 P1 (( n=1 {T1 = n}) )
c
= 1 P1 (n=1 {T1 = n}c )
k c
= 1 lim P1 (n=1 {T1 = n} )
k
= 1 lim P1 (T1 > k) = 1.
k
Un argumento similar funciona para el estado 2, solo que ahora la probabilidad de hacer una transicion
desde cualquier estado al 2 es, al menos, 0.4.
Este argumento no funciona para el estado 3 ya que P13 = 0. Sin embargo, si efectuamos el producto
de P por si misma, P 2 , obtenemos las probabilidades de transicion a dos pasos:
Ejemplo 2.13
Consideremos una cadena de Markov con E = {1, 2, 3, 4, 5, 6, 7} y la siguiente matriz de transicion
0.3 0 0 0 0.7 0 0
0.1 0.2 0.3 0.4 0 0 0
0 0 0.5 0.5 0 0 0
0 0 0 0.5 0 0.5 0
0.6 0 0 0 0.4 0 0
0 0 0 0 0 0.2 0.8
0 0 0 1 0 0 0
Las transiciones posibles entre estados diferentes se presentan en la figura 2.1. Una grafica de este tipo
se conoce como la grafica de transiciones de la cadena.
2.5.
65 DESCOMPOSICIO N DEL ESPACIO DE CAP
ESTADOS
ITULO 2. CADENAS DE MARKOV
65
1 2 4 6
5 3 7
Figura 2.1
Observamos que 2 4 pero 4 9 2 y algo similar ocurre con 3, de modo que 2 y 3 son estados
transitorios. El resto de los estados se separan en dos clases de equivalencia, {1, 5} y {4, 6, 7}. Veremos
luego que ambas son recurrentes. N
Definicion 2.6 Un conjunto no vaco C E es cerrado si desde ningun estado de C se se tiene acceso a
ningun estado fuera de C , es decir,
ij = 0 si i C, j
/ C.
i C, j
/ C y n 1.
n
P ij = 0,
Ejemplo 2.14
En el ejemplo 2.13 los conjuntos {1, 5}, {1, 4, 5, 6, 7} y {1, 3, 4, 5, 6, 7} son cerrados, pero solo el primero es
irreducible.
De los resultados anteriores vemos que si C es cerrado e irreducible entonces todos los estados de C
son recurrentes o todos son transitorios. El siguiente resultado es consecuencia del teorema 2.4.
Corolario 2.2 Sea C un conjunto cerrado e irreducible de estados recurrentes. Entonces ij = 1, Pi (N (j) =
) = 1 y G(i, j) = para cualesquiera i, j C .
Una cadena de Markov irreducible es una cadena en la cual cada estado se comunica consigo mismo
y con cualquier otro estado. Una cadena de este tipo es necesariamente transitoria o recurrente.
Vimos anteriormente que si E es finito, tiene al menos un estado recurrente. El mismo argumento
muestra que cualquier conjunto cerrado finito C tiene al menos un estado recurrente. Por lo tanto, todos
los estados de C lo son:
Teorema 2.5 Sea C un conjunto finito, irreducible y cerrado. Entonces todos los estados de C son
recurrentes.
Consideremos una cadena de Markov con espacio de estados finito. Por el teorema 2.5 si la cadena es
irreducible entonces debe ser recurrente. Si la cadena no es irreducible, podemos usar el teorema 2.4 para
determinar cuales estados son recurrentes y cuales transitorios.
2.5.
66 DESCOMPOSICIO N DEL ESPACIO DE CAP
ESTADOS
ITULO 2. CADENAS DE MARKOV
66
Ejemplo 2.15
Determine cuales estados son recurrentes y cuales transitorios para la cadena de Markov con la siguiente
matriz de transicion.
1 0 0 0 0 0
1/4 1/2 1/4 0 0 0
0 1/5 2/5 1/5 0 1/5
0 0 0 1/6 1/3 1/2
0 0 0 1/2 0 1/2
0 0 0 1/4 0 3/4
La siguiente grafica presenta las transiciones posibles (en un paso) entre estados diferentes para esta
cadena
3
0 1 2 4
5
Figura 2.2
Vemos que hay tres clases de equivalencia {0}; {1, 2} y {3, 4, 5}. La primera clase es recurrente porque
0 es un estado absorbente. La clase {1, 2} es transitoria porque es posible salir de ella y no regresar nunca,
por ejemplo, pasando de 1 a 0. Finalmente, la tercera clase es recurrente. N
Teorema 2.6 Supongamos que el conjunto ER de estados recurrentes no es vaco. Entonces es la union
de una coleccion finita o numerable de conjuntos cerrados, disjuntos e irreducibles C1 , C2 , . . . .
Demostracion. Escogemos i ER y sea C el conjunto de todos los estados j ER tales que i j. Como
i es recurrente, ii = 1 y por lo tanto i C . Veamos ahora que C es un conjunto cerrado e irreducible.
Supongamos que j C y j k. Como j es recurrente, por el teorema 2.4 sabemos que k tambien es
recurrente. Por transitividad i k y por lo tanto k C . Esto muestra que C es cerrado.
Supongamos ahora que j y k estan en C . Como i es recurrente y i j, por el teorema 2.4 vemos que
j i. Como j i k vemos que j k, de modo que C es irreducible.
Para completar la demostracion necesitamos ver que si C y D son dos conjuntos cerrados irreducibles
de ER , o bien son disjuntos o bien son identicos. Supongamos que no son disjuntos y sea i C D.
Escojamos j C entonces i j porque i C y C es irreducible. Como D es cerrado, i D, i j
entonces j D. Por lo tanto, todo estado de C tambien esta en D. El recproco tambien es cierto, de
modo que C y D son identicos.
Ejemplo 2.16
Consideremos la cadena de Markov con la siguiente matriz de transicion
1 0 0
0 0 1
con > 0, > 0, > 0, + + = 1. Si la cadena comienza en 1, permanece en este estado por un
tiempo aleatorio y luego pasa al estado 0 o al estado 2, donde se queda para siempre. Nos hacemos las
siguientes preguntas:
1. En cual de los dos estados, 0 o 2, se queda la cadena?
2. Cuanto tiempo toma, en promedio, alcanzar uno de estos estados?
Sea A = {0, 2} el conjunto de los estados absorbentes y llamemos HA el tiempo que transcurre hasta
que la cadena es absorbida por 0 o por 2:
HA = min{n 0 : Xn = 0 o Xn = 2}.
La diferencia entre HA y TA , que definimos anteriormente esta en que H incluye al estado inicial.
Para responder las preguntas anteriores debemos hallar
Para hacer el analisis de la primera transicion consideramos por separado lo que puede ocurrir en el
primer paso:
X1 = 0, X1 = 1 o X1 = 2,
con probabilidades respectivas , y . Consideremos u,
Si X1 = 0 entonces HA = 1 y XHA = 0. Esto ocurre con probabilidad .
Si X1 = 2 entonces HA = 1 y XHA = 2. Esto ocurre con probabilidad .
Si X1 = 1, el problema se repite y esto ocurre con probabilidad .
Tenemos, por lo tanto,
u = P (XHA = 0|X0 = 1)
2
X
= P (XHA = 0|X0 = 1, X1 = k)P (X1 = k |X0 = 1)
k=0
X2
= P (XHA = 0|X1 = k)P (X1 = k |X0 = 1)
k=0
= 1 + u + 0 = + u
y obtenemos
u= =
1 +
= 1 + 0 + + 0 = 1 +
2.6.
68 ESTUDIO DE LAS TRANSICIONES INICIALES 68
CAPITULO 2. CADENAS DE MARKOV
de donde
1
= .
1
En el ejemplo que estamos estudiando es posible hacer un calculo directo. Observemos que
X
E[X ] = kpk
k0
.
= P (X 1) + P (X 2) + P (X 3) +
X X
= P (X k) = P (X > k).
k=1 k=0
Ejemplo 2.17
Consideremos ahora una cadena con 4 estados y matriz de transicion
1 0 0 0
P10 P11 P12 P13
P = P20 P21 P22 P23
0 0 0 1
Vemos que 0 y 3 son absorbentes mientras que 1 y 2 son transitorios. La probabilidad de que la cadena
sea absorbida en el estado 0, por ejemplo, depende ahora del estado transitorio en el cual comenzo la
cadena.
Modificamos las definiciones del ejemplo anterior de la siguiente manera
HA = min{n 0 : Xn = 0 o Xn = 3}
ui = P (XHA = 0|X0 = i) i = 1, 2,
i = E[HA |X0 = i], i = 1, 2.
Para el analisis de la primera transicion tenemos que considerar los dos posibles estados iniciales
X0 = 1 y X0 = 2 separadamente. Si X0 = 1, en el primer paso podemos tener
u1 = P (XHA = 0|X0 = 1)
3
X
= P (XHA = 0|X0 = 1, X1 = k)P (X1 = k |X0 = 1)
k=0
X3
= P (XHA
= 0|X1 = k)P (X1 = k |X0 = 1)
k=0
Teorema 2.7 Supongamos que el conjunto de estados transitorios ET es finito y sea C un conjunto
cerrado e irreducible de estados recurrentes. Entonces el sistema de ecuaciones
X X
f (i) = Pij + Pij f (j), i ET , (2.30)
j C j ET
Demostracion
Si (2.30) vale entonces
X X
f (j) = Pjk + Pjk f (k), j ET . (2.31)
kC kET
X X X X X
f (i) = Pij + Pij Pjk + Pij Pjk f (k).
j C j ET kC j ET kET
de modo que
X
f (i) = Pi (HC 2) +
(2)
P ij f (j).
j ET
lim Pij(n) = 0,
n
i E , j ET . (2.33)
Por hipotesis, ET es finito y por lo tanto de (2.33) se sigue que la suma de (2.32) tiende a 0 cuando
n . En consecuencia, para i ET
f (i) = lim Pi (HC n) = Pi (HC < ) = C (i).
n
Homogeneidad espacial
Homogeneidad Temporal
Homogeneidad temporal.
Es una consecuencia facil de la independencia y del hecho que las v. a. i son identicamente distribuidas
que el lado derecho es igual a:
Pn+m Pm
P S0 + i=1 i = j, S0 + i=1 i = a m+n n
X X
Pm =P i = j a = P i = j a ;
P (S0 + i=1 i = a) i=m+1 i=1
0 en otro caso.
Demostracion. Se tiene que una trayectoria que lleva del punto (0, a) al punto (n, b) tiene r pasos
para arriba (+1) y l pasos hacia abajo ( 1). Estos son tales que r + l = n y r l = b a (pues
Sn = r(+1) + l( 1) = b a). Estas ecuaciones determinan a l y r, lo que implica que r = (n +b a)/2 y
l = (n b + a)/2. Cada trayectoria que lleva de a a b en n pasos tiene probabilidad pr q l , y hay (n+bn a)/2
trayectorias posibles. El resultado sigue.
Ahora vamos a considerar el problema de la ruina de un jugador que apuesta 1 peso en cada juego y
tiene probabilidad p de ganar y q = 1 p de perder. Definamos
La diferencia entre Hj y Tj que definimos anteriormente esta en que H incluye el estado inicial; h(i) es
la probabilidad de que el jugador con capital inicial i alcance una fortuna N antes de arruinarse.
Proposicion 2.7 Sea h(i) la probabilidad de que un paseo al azar que parte del estado i llegue al nivel
N antes que al nivel 0. Entonces
( i
1 si p = q
h(i) = i 1
N
N
si p = q = 0.5,
donde = q/p.
2.7.
72 PASEO AL AZAR 72
CAPITULO 2. CADENAS DE MARKOV
Demostracion. Por la definicion de Hi tenemos h(0) = 0 y h(N ) = 1. Para calcular h(i) para 1 < i < N
estudiamos la primera transicion y obtenemos
Entonces
N
X
1 = h(N ) h(0) = (h(i) h(i 1)) = N C
i=1
Xi
h(i) = h(i) h(0) = (h(j) h(j 1)) = ,
i j=1
N
es decir, si p = 1/2,
i
P (HN < H0 ) = para 0 i N.
N
Como consecuencia la probabilidad de ruina es
i N i
P (H0 < HN ) = 1 = .
N N
Si p = 1/2 los detalles son un poco mas difciles. Poniendo C = h(i) h(0), (2.34) implica que para
i 1,
1 pi 1
h(i) h(i 1) = C = C i 1 ,
p
con = q/p. Sumando de i = 1 a N obtenemos
N
X N
X
1 = h(N ) h(0) = h(i) h(i 1) = C i 1
i=1 i=1
Recordemos que si = 1,
N 1 N
X 1
j = ,
j=0
1
y vemos que
1
C= .
1 N
Usando de nuevo que h(0) = 0 y sumando
j
1j 1 j
X
h(j) = h(j) h(0) = C i 1 = C =
1 1 N
i=1
2.7.
73 PASEO AL AZAR 73
CAPITULO 2. CADENAS DE MARKOV
i 1 N i
Pi (HN < H0 ) = , Pi (H0 < HN ) =
N 1 N 1
1 p
con = p .
Ejemplo 2.18
En la siguiente tabla presentamos algunos valores de la probabilidad de ruina en diferentes circunstancias.
p es la probabilidad de exito en cada juego, i es el capital inicial, N el objetivo y PR la probabilidad
de ruina. Las probabilidades 0.4865 y 0.4737 representan la probabilidad de ganar en ruleta cuando se
apuesta al color o a par-impar. En el primer caso la ruleta solo tiene un 0 (ruleta europea) mientras
que en el segundo tiene 0 y 00 (ruleta americana). La probabilidad 0.493 corresponde al juego de dados
(craps).
1 si q p
j
P (H0 < |S0 = j) = q
, si q < p.
p
Demostracion. Para n 1 sea An el evento An = {H0 < Hn }. Observemos que si n > j, An An+1
puesto que Hn Hn+1 , para todo n. Es decir que la sucesion An es una sucesion creciente de eventos y
ademas
{H0 < } = n1 {H0 < Hn },
y por la continuidad por debajo de la probabilidad se tiene que
lim P (An |S0 = j) = P (H0 < |S0 = j).
n
Sean a, b Z y n N . Denotaremos por Nn (a, b) al numero de trayectorias que van de a a b en
n pasos y a N n0 (a, b) a aquellas que van de a a b en n pasos pasando por 0 por lo menos una vez. Un
resultado fundamental sobre el paseo al azar simple es el principio de reflexion.
N n0 (a, b) = Nn ( a, b).
2.7.
74 PASEO AL AZAR 74
CAPITULO 2. CADENAS DE MARKOV
Demostracion. En la figura 2.3 vemos que cada trayectoria que lleva de (0, a) a (n, b) cruza el eje x
por lo menos una vez; denotemos por (k, 0) el punto en el cual esto ocurre por la primera vez. Reflejando
el segmento de la trayectoria anterior a (k, 0) respecto al eje x se obtiene una trayectoria lleva de (0, a)
a (b, n) y que intercepta al eje x al menos una vez.
Podemos hacer algo similar en sentido contrario para las trayectorias que inician en (0, a) y pasan por
0.
Sm
s
r r r
b
a r r r
r r r
r r
r r r r r
r
r
k r r r r
a r n m
Figura 2.3
Teorema 2.9 (Teorema del Escrutinio (Ballot Theorem)) Si b > 0, entonces el numero de trayec-
torias que llevan de (0, 0) a (n, b) y que no visitan el eje x despues del primer paso es igual a
b
Nn (0, b).
n
Demostracion Observemos que el primer paso de dichas trayectorias lleva a (1, 1), por lo tanto el numero
que buscamos calcular est dado por
tiene probabilidad 1/ +
. La trayectoria que deben seguir los escrutinios para que A tenga la mayora
durante toda la jornada de votaciones va del punto (0, 0) al punto ( + , ) y no regresa al origen.
Por lo tanto la probabilidad buscada esta dada por
1
N+ (0, ) + = .
+
+
Veamos ahora una aplicacion del teorema de las votaciones a las caminatas aleatorias.
E(|Sn | )
P (S1 S2 Sn = 0) = n
.
P (Sn = b) si b r
P (Mn r, Sn = b) = r b
q
P (S = 2r b) si b < r.
p n
Demostracion. Supongamos que r 1 y que b < r. Sea N nr (0, b) el numero de trayectorias que van de
(0, 0) a (n, b) pasando por r en n pasos. Cualquiera de estas trayectorias visita el nivel r por lo menos
una vez, denotemos por Tr el menor de estos instantes (ver figura 2.4). Reflejando la trayectoria entre Tr
y n respecto a la recta r se obtiene una trayectoria que va de (0, 0) a (n, 2r b). Recprocamente, a una
trayectoria de esta forma le aplicamos la transformacion inversa y obtenemos una trayectoria que va de
(0, 0) a (n, b) pasando por el nivel r, de longitud n. Por lo tanto podemos afirmar que
N nr (0, b) = Nn (0, 2r b).
P (Sn = 2r b).
2.7.
77 PASEO AL AZAR 77
CAPITULO 2. CADENAS DE MARKOV
Sm
2r b r
r
r r r r r r
r r
r r r r r r r
r r r r
r r
r r
r r r r r rr
b r r r s
rr r r
r
r
r r r
r r
s
Tr n m
Figura 2.4
Cual es la probabilidad de que una caminata aleatoria alcance un maximo en un instante n dado?
Mas precisamente, cual es la probabilidad de que una caminata aleatoria que parte de 0 alcance un
nivel b por la primera vez al tiempo n? Denotemos por fb (n) a esta probabilidad. Tenemos el siguiente
teorema.
Teorema 2.12 La probabilidad de que una caminata aleatoria simple alcance el nivel b por la primera
vez al tiempo n habiendo empezado de 0 esta dada por
| b|
fb (n) =
n P (Sn = b), n 1.
Demostracion.
fb (n) = P (Mn 1 = Sn 1 = b 1, Sn = b)
= P (Sn = b|Mn 1 = Sn 1 = b 1)P (Mn 1 = Sn 1 = b 1)
= p (P (Mn 1 b 1, Sn 1 = b 1) P (Mn 1 b, = Sn 1 = b 1))
q
= p P (Sn 1 = b 1) P (Sn 1 = b + 1)
p
b
= P (S = b).
n
n
El
2.7.mismo
78 razonamiento
PASEO AL AZAR es valido si b < 0.
78
CAPITULO 2. CADENAS DE MARKOV
2.8.
77 PROCESOS DE RAMIFICACIO N CAPITULO 2. CADENAS DE MARKOV
77
todos viven el mismo perodo de tiempo y todos siguen la misma ley (2.35) para generar su descendencia.
El proceso (Xn )n1 donde Xn representa el tamano de la n-esima generacion, es una cadena de Markov
y se conoce como un proceso de ramificacion.
El espacio de estados de esta cadena es {0, 1, 2, . . . }. 0 es un estado absorbente. Por otro lado, si
Xn = k, los k miembros de esta generacion producen
(n) (n) (n)
+ 2 + + k = Xn+1 (2.36)
1
+ + k = j |Xn = k).
(n) (n) (n)
Pkj = P (1 + 2 (2.37)
Si una partcula produce = 0 descendientes, lo interpretamos como que la partcula muere o desa-
parece. Puede ocurrir que luego de varias generaciones todos los descendientes de la partcula inicial
hayan muerto o desaparecido. Decimos entonces que todos los descendientes de la partcula inicial se
extinguieron. Un problema interesante es calcular la probabilidad de extincion U de un proceso de
ramificacion que comienza con una sola partcula. Una vez que resolvamos este problema, podemos hallar
la probabilidad de que una cadena que comienza con k partculas se extinga, pues como las partculas
actuan independientemente, esta probabilidad es (U )k .
X0 = 1
0
1
Figura 2.5
Supongamos que E[] = , Var[] = 2 y sean M (n) y V (n) la media y varianza de la n-esima generacion
Xn bajo la condicion inicial X0 = 1, M (n) = E1 [Xn ], V (n) = Var1 [Xn ]. Usando las propiedades de sumas
aleatorias tenemos
M (n + 1) = M (n), (2.38)
V (n + 1) = M (n) + V (n).
2 2
(2.39)
La condicion inicial X0 = 1 hace que las relaciones recursivas (2.38) y (2.39) comiencen con M (0) = 1 y
V (0) = 0. A partir de (2.38) obtenemos M (1) = 1 = , M (2) = M (1) = 2 , y en general
Por lo tanto, el tamano medio de la poblacion crece geometricamente si > 1, decrece geometricamente
si < 1 y es constante si = 1.
Sustituyendo M (n) = n en (2.39) obtenemos V (n + 1) = 2 n + 2 V (n), y con V (0) = 0 se tiene
V (1) = 2
V (2) = 2 + 2 V (1) = 2 + 2 2
V (3) = 2 2 + 2 V (2) = 2 2 + 2 3 + 2 4
y en general
V (n) = 2 (n 1 + n + + 2n 2 )
= 2 n 1 (1 + + + n 1 )
(
n si = 1,
= 2 n 1
1 n (2.41)
1 si = 1.
Probabilidades de Extincion.
X
Un = pk (Un 1 )k , n = 1, 2, . . . (2.43)
k=0
con U0 = 0 y U1 = p0 .
2.8.
79 PROCESOS DE RAMIFICACIO N CAPITULO 2. CADENAS DE MARKOV
79
P ( = k) = pk , k = 0, 1, . . .
Tenemos los siguientes resultados fundamentales, algunos de los cuales estudiamos en el captulo 1.
Supondremos que p0 + p1 < 1, para evitar trivialidades:
1. La relacion entre funciones de probabilidad y funciones generadoras es 1-1. Es posible obtener las
probabilidades (pk ) a partir de usando la siguiente formula
1 dk (s)
pk = . (2.45)
k! dsk s=0
3. Los momentos de una variable que toma valores en los enteros no-negativos se pueden obtener
derivando la funcion generadora y evaluando en 1:
d(s)
= p1 + 2p2 + 3p3 + = E[]. (2.47)
ds s=1
de modo que
2 d 2(s) d2 (s) d(s)
E[ ] = + E[] = + ,
ds2 s=1 ds2 s=1 ds s=1
y en consecuencia
d
2 (s)
d(s) d2 (s) 2
Var[] = E[ ] (E[]) =
2 2
+ .
ds2 s=1 ds s=1 ds2
s=1
4. es estrictamente convexa y creciente en [0, 1]. Esto es una consecuencia inmediata del hecho que
es una serie de potencias.
es decir, si conocemos la funcion generadora de probabilidades (s), podemos calcular iterativamente las
probabilidades de extincion Un comenzando con U0 = 0: U1 = (U0 ) = (0), U2 = (U1 ), etc.
Ejemplo 2.19
Un individuo no tiene descendientes con probabilidad 1/4 o tiene dos descendientes con probabilidad 3/4.
La relacion recursiva (2.43) es en este caso
1 + 3(Un 1 )2
Un = .
4
(s)
1
U2 = (U1 )
U1 = (0)
s
U0 = 0 U1 U2 1
Figura 2.6
La funcion generadora es
1 3 1 + 3s2
(s) = E[s ] = 1
+s 2
=
4 4 4
y vemos que Un = (Un 1 ).
Representamos esta funcion en la Figura 2.6. Podemos ver que las probabilidades de extincion con-
vergen de manera creciente a la menor solucion de la ecuacion u = (u).
Esto tambien ocurre en el caso general: Si U es la menor solucion de la ecuacion u = (u), entonces
U es la probabilidad de que la poblacion se extinga en algun momento finito. La alternativa es que la
poblacion crezca indefinidamente, lo que ocurre con probabilidad 1 U .
En este ejemplo la ecuacion u = (u) sera
1 3 2
u= + u ,
4 4
con soluciones 1 y 1/3, y la menor solucion es 1/3. N
2.8.
81 PROCESOS DE RAMIFICACIO N CAPITULO 2. CADENAS DE MARKOV
81
Puede ocurrir que U = 1, en cuyo caso es seguro que la poblacion desaparece en algun momento.
Ejemplo 2.20
Si las probabilidades son ahora p0 = 3/4 y p2 = 1/4, la funcion generadora es
3 1 2
(s) = + s .
4 4
La ecuacion u = (u) es ahora
3 1 2
u=
+ u
4 4
con soluciones 1 y 3. Como la menor solucion es 1, U = 1.
(s)
1
U2 = (U1 )
U1 = (0)
s
U0 = 0 U1 U2 1
Figura 2.7
Para determinar en cual caso nos encontramos hay que ver si la curva de la funcion generadora (s)
cruza la recta y = x por debajo de 1, y esto se puede determinar por la pendiente de en 1:
d(s)
0 (1) = = E() = .
ds s=1
Si 0 < 1 entonces (t) > t, para todo t [0, 1). Para probarlo, definimos una funcion g(t) =
(t) t, esta funcion satisface que g(0) = (0), g(1) = 0 y es estrictamente decreciente puesto que su
derivada g 0 (t) = 0 (t) 1 es estrictamente negativa, y esto se debe al hecho que 0 es estrictamente
creciente y 0 (1) = 1. Entonces, g(t) > 0, para 0 t < 1. En particular, la ecuacion (t) = t, no
tiene races en (0, 1).
Si > 1, entonces la ecuacion (t) = t tiene una unica solucion en [0, 1). Esto implica que lmt1 0 (t) =
(1) = > 1. Por continuidad existe un t0 < 1, tal que 0 (t) > 1 para todo t0 < t 1, por el teorema
0
de donde sigue que g(t0 ) = (t0 ) t0 < 0, y puesto que g es continua y g(0) = P ( = 0) > 0, podemos
afirmar que existe un 0 < < 1 con g() = 0. Por la convexidad estricta de es claro que g no puede
tener ninguna otra raz en (, 1), ni en (0, ).
2.8.
82 PROCESOS DE RAMIFICACIO N CAPITULO 2. CADENAS DE MARKOV
82
Sea la raz mas pequena a la ecuacion (t) = t, en [0, 1]. Los hechos anteriores implican que esta
solucion existe y ademas: si 1, entonces = 1; si > 1, entonces < 1.
Tenemos entonces
El caso lmite corresponde a E[] = 1. En este caso E[Xn |X0 = 1] = 1 para todo n de modo que el
tamano promedio de la poblacion es constante pero la poblacion desaparece con seguridad, a menos que
la varianza sea 0, es decir, que con probabilidad 1 todo individuo tenga exactamente un descendiente, en
cuya caso la poblacion no se extingue nunca.
Ejemplo 2.21
Supongamos que el tamano de las familias se distribuye segun una ley geometrica con parametro q,
Cual es la probabilidad de extincion en este caso? Usaremos la forma explcita de n para responder
a esta pregunta. Recordemos que
n si p = q = 1/2,
n +1
P (Xn = 0) = n (0) = q (pn n
q )
si p = q,
n+1
p q n+1
por lo que al hacer tender n , vemos que
(
1 si p q
lm P (Xn = 0) = q
n
p,
si p > q.
Observemos que si para algun n 1 Zn = 0 entonces Zn+k = 0, para toda k 0. Es decir que la
poblacion se extingue en un tiempo anterior o igual a n. Tenemos que
P (extincion en un tiempo finito) = lm P (extincion antes del instante n)
n
= lm P (Xn+k = 0, k 0)
n
= lm P (X = 0)
n n
(
1 si p q
= q
p , si p > q.
2.9.
83 CADENAS DE NACIMIENTO Y MUERTE. 83
CAPITULO 2. CADENAS DE MARKOV
Conclusion: La extincion ocurre con probabilidad 1, solamente en el caso en que p/q = = E(X1 ) 1;
la cual es una condicion bastante natural, puesto que E(Xn ) = E(X1 )n 1, y es entonces de esperarse
que Zn = 0 tarde o temprano.
Veremos que el resultado de los ejercicios anteriores es consecuencia de un resultado mas general.
donde es la solucion mas pequena a la ecuacion, t = (t). Ademas, = 1, si < 1, (el caso subcrtico)
y < 1, si > 1 (caso super-crtico), mientras que en el caso en que = 1, (el caso crtico) = 1 si el
tamano de las familias tiene varianza estrictamente positiva.
Demostracion. Sea Un = P1 (Xn = 0). Sabemos que
Un = (Un 1 ).
Es claro que {Xn = 0} {Xn+1 = 0}, para todo n 1, entonces Un es una sucesion creciente y acotada;
por la continuidad el limite de Un existe y debe de satisfacer
= lm Un 1, = ().
n
Veamos ahora que si es otra raz positiva de la ecuacion, entonces . Dado que es una funcion
estrictamente creciente, tenemos que
U1 = (0) ( ) = ,
y se sigue que
U2 = (U1 ) ( ) = ,
y por induccion se ve que Un , para todo n 1, y por lo tanto que . En consecuencia, es la
menor solucion de la ecuacion t = (t).
Ya vimos que si > 1 entonces la ecuacion t = (t), tiene una unica solucion en [0, 1), y de hecho
otra solucion a la ecuacion es t = 1. La menor solucion es < 1. Por otro lado, en el caso en que < 1,
vimos que (t) > t para todo t [0, 1), y es claro que (1) = 1, por lo tanto la solucion positiva mas
pequena a la ecuacion (t) = t es = 1. En el caso especial en que = 1, el caso crtico, necesitamos
distinguir entre el caso en que 2 = 0, donde (s) = s y por lo tanto = 0, y el caso 2 > 0, donde
(s) > s, s [0, 1) y por lo tanto = 1.
Hj = nf {n 0 : Xn = i}, i E.
Supongamos que pj > 0 y qj > 0 para todo j {1, 2, . . . , N 1} y que p0 > 0 y qN > 0 si N < . Se
tiene que la cadena es recurrente y para todo a < b, a, b E , a < k < b,
b 1
X k
X 1
j j
j=k j=a
Pk (Ha < Hb ) = , Pk (Hb < Ha ) = ,
b 1
X 1
bX
j j
j=a j=a
con
j
Y qi
j = , j > 0, y 0 = 1.
i=1
pi
Es claro que h(a) = 1 y h(b) = 0. Haciendo un estudio de las transiciones iniciales se demuestra que la
funcion h satisface
h(j) = qj h(j 1) + rj h(j) + pj h(j + 1), j (a, b).
En efecto,
h(j) = Pj (Ha < Hb )
X
= P (Ha < Hb |X1 = i, X0 = j)Pj,i
iE
X
= P (Ha < Hb |X1 = i)Pj,i
iE
para todo j (a, b), multiplicando y dividiendo por j 1 se ve que el sistema anterior es equivalente a
qj
pj j 1
h(j + 1) h(j) = (h(j) h(j 1)) , j (a, b),
j 1
j j 1 a+1
h(j + 1) h(j) = (h(a + 1) h(a)) , j (a, b),
j 1 j 2 a
Pb 1
j=a+1 j a
h(a + 1) = Pb h(a) h(a + 1) h(a) = Pb 1
1
j=a j j=a j
Recordemos que
j j a j
!
y la probabilidad de que Pz (Hb < Ha ) se calcula usando que Pz (Hb < Ha ) = 1 Pz (Ha < Hb ).
P1 (B) = lm P1 (Bn ).
n
ya que 0 = 1.