Unidad 1 Cadenas de Markov
Unidad 1 Cadenas de Markov
Unidad 1 Cadenas de Markov
0.4 A B 0.3
0.7
• La existencia de probabilidades de transición (de un paso) estacionarias
también implica que:
• P{Xt+n = j | Xt = i} = P{Xn=j | X0=i} i; j; n = 0, 1, 2,…; t = 0, 1,…
• Estas probabilidades condicionales se llaman probabilidades de transición
de n pasos.
• Para simplificar la notación de las probabilidades de transición
estacionarias se denotará:
• Pij = P{Xt+1 = j | Xt = i} i; j; t = 0, 1,…
• Pij(n) = P{Xt+n = j | Xt = i} i; j; n = 0, 1, 2,…; t = 0, 1,…
• Asi, las probabilidades de transición de n pasos Pij(n) son simplemente la
probabilidad condicional de que el sistema se encuentre en el estado j
exactamente después de n pasos (unidades de tiempo), dado que comenzó
en el estado i en cualquier tiempo t.
• Propiedades:
• Pij(n) ≥ 0 i; j; n = 0, 1, 2,…
(𝒏)
• σ𝑴𝒋=𝟎 𝒊𝒋 = 𝟏 i; n = 0, 1, 2,…
𝑷
• Una notación conveniente para representar las probabilidades de
transición de n pasos es la Matriz de transición de n pasos:
𝐸𝑠𝑡𝑎𝑑𝑜 0 1 … 𝑀
(𝑛) (𝑛) (𝑛)
0 𝑃00 𝑃01 … 𝑃0𝑀
(𝑛) (𝑛) (𝑛)
• 𝑷𝒏 = 1 𝑃10 𝑃11 … 𝑃1𝑀
⋮ … … … …
(𝑛) (𝑛) (𝑛)
𝑀 𝑃𝑀0 𝑃𝑀1 … 𝑃𝑀𝑀
• Cuando n = 1, el superíndice n no se escribe y se hace referencia a
ésta como una matriz de transición.
• Las cadenas de Markov que estudiaremos tienen las siguientes
propiedades:
• Los estados son finitos.
• Las probabilidades de transición son estacionarias.
• Se conocen las probabilidades iniciales P{X0 = i} i
Clasificación de estados en una Cadena de
Markov
• Estados transitorios
• Un estado i es transitorio si y solo si existe un estado j (j ≠ i) que es accesible
desde el estado i; pero el estado i no es accesible desde el estado j.
• Estados recurrentes
• Un estado es recurrente si y solo si no es transitorio.
• Un estado recurrente podría ser visitado un número infinito de veces si el
proceso continúa por siempre.
• Estados absorbentes
• Un estado k recurrente es además absorbente si, después de haber entrado
a él, ya no se puede salir del mismo. Es decir: 𝑷𝒌𝒌 = 𝟏
• Estados periódicos
• Un estado i es periódico con período k > 1, si k es el número más pequeño tal
que todos los caminos que parten del estado i y regresan al mismo estado i,
tiene una longitud que es múltiplo de k.
• Conjunto de estados cerrados
• Dada una cadena de Markov, un conjunto de estados C es cerrado si cualquier
estado dentro de C es accesible desde cualquier otro estado de C y ningún
otro estado fuera de C puede ser accesible desde cualquier estado dentro de
C.
• Cadena Ergódica
• Una cadena de Markov es ergódica si todos sus estados son recurrentes y no
son periódicos.
Ejemplo 1: