Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
o tambin
), de all que la probabilidad condicional para esa variable viene dada por
.
Entonces, se define una cadena de Markov como un proceso estocstico a tiempo discreto
{
.
Cabe destacar, que la definicin matemtica anterior, tomar en cuenta a la variable
discreta n como un elemento temporal, de tal manera que n+1 representa un tiempo
futuro, n un tiempo presente y los tiempos 0,1,n-1 como tiempos pasados. Entonces,
se puede evidenciar que la distribucin de probabilidad del estado de proceso a tiempo
futuro, depende exclusivamente del estado del proceso en el tiempo presente.
Utilizando la regla de multiplicacin para probabilidades condicionales, se deduce
que las probabilidades de una cadena de Markov debe satisfacer la relacin
(Degroot, M; 1988, p. 70)
Cadenas de Markov de Tiempo Continuo
Existen ciertos casos (como en algunos modelos de lneas de espera) en los que se
requiere un parmetro, generalmente denotado como t, de tiempo continuo, debido a
que la evolucin de un proceso se est observando de manera continua a travs del tiempo.
Un proceso estocstico de tiempo continuo { } es una cadena de Markov
de tiempo continuo que cumple con la propiedad markoviana. En este sentido, las cadenas
de Markov deben cumplir con las siguientes propiedades.
a) Un nmero finito de estados.
b) Probabilidades de transicin estacionaria.
Variables Aleatorias Importantes:
Cada vez que el proceso entra en el estado , la cantidad de tiempo que pasa en ese
estado antes de cambiar a un estado diferente, es una variable aleatoria donde
.
La distribucin exponencial posee la propiedad de que la distribucin de
probabilidad de tiempo que falta para que el proceso haga una transicin fuera de un estado
siempre es la misma, independientemente de cunto tiempo haya pasado el proceso en ese
estado.
Tiene solo un parmetro, llmese , donde la media es y la funcin de
distribucin acumulada es:
{
Para
Este resultado lleva a una forma equivalente de definir una cadena de Markov de
tiempo continuo.
a) La variable aleatoria
Para toda y
Para toda
c) El siguiente estado visita despus el estado es independiente del tiempo que
paso en el estado .
Las intensidades de transicin son
para
Para
Donde
, y
todos los estados previos
, . . . ,
y no dependen de los
estados anteriores
(op.cit; p. 70)
Estados Absorbentes
El estado K se llama estado absorbente si la probabilidad de transicin (de un paso)
, de manera que cada vez que la cadena llegue al estado permanece ah para
siempre.
Si es u estado absorbente y el proceso comienza en el estado , la probabilidad de
llegar en algn momento a se llama probabilidad de absorcin al estado dado que el
sistema comenz en .
Si el estado es absorbente, entonces el conjunto de probabilidades de absorcin
Para
Sujeta a las condiciones:
.
Si el estado es recurrente e
A partir de esto se deduce que una cadena de Markov se puede considerar como
absorbente si tiene por lo menos un estado absorbente; as como tambin si es posible ir de
cada estado no absorbente hasta por lo menos un estado absorbente, para lo que no es
necesario efectuar esta transicin en un solo paso, ni tener la probabilidad de alcanzar cada
estado absorbente a partir de uno no absorbente.
Cabe destacar, que a partir de este anlisis se puede encontrar el nmero esperado
de pasos antes de que el proceso sea absorbido, el nmero esperado de veces que el proceso
est en cualquier estado no absorbente, y la probabilidad de absorcin por cualquier estado.
Una vez, que una cadena llega a un estado absorbente, permanece all para siempre,
entonces si una cadena posee dos estados absorbentes, es claro que el proceso de elimina en
uno de ellos.
Las Propiedades de Markov y Matrices de Transicin
Los procesos estocsticos tienen ciertas restricciones como:
Que el proceso sea de tiempo discreto.
Que tenga un espacio de estado numerable o finito.
Que el proceso satisfaga la propiedad de Markov.
Si los procesos estocsticos satisfacen las tres restricciones anteriormente
mencionadas se les llama cadenas de Markov.
Ecuaciones de Chapman Kolmogorov
Al considerar la probabilidad condicional para dos estados sucesivos de una variable
aleatoria, en n pasos, se utiliza un desarrollo matemtico denominado ecuaciones de
Chapman - Kolmogorov, las cuales permiten calcular probabilidades de transicin en n
pasos.
0, la cual existe
solo para valores de n que se corresponden al conjunto (d, 2d, 3d,). Si d = 1 decimos que
el estado es aperidico.
Tambin se puede considerar un estado peridico, si partiendo de ese estado, solo se
puede volver a l en un numero de etapas que sea mltiplo de un cierto numero entero
mayor que uno.
Un estado es recurrente, en la medida que comenzando en l se tenga la certeza de
volver en algn momento del tiempo (una determinada cantidad de etapas) sobre si mismo;
y es transciente si no hay certeza de regresar a si mismo, generalmente debido a la
existencia de una probabilidad no nula de acceder a un estado absorbente.
Finalmente, en una cadena de Markov con una cantidad finita de estados, estos
pueden ser recurrente positivo; mientras que si la cantidad de estados es infinita entonces
son recurrente nulo.
Cadenas de Markov con parmetros continuos:
Las cadenas de Markov pueden operarse en tiempos continuos en los cuales las
variables toman valores enteros. { } , de tal manera que inicia en un estado
al
tiempo cero. El proceso permanece en ese estado un tiempo aleatorio
y seguidamente
salta a un nuevo estado
y as en forma
sucesiva. Entonces, los tiempos aleatorios T son los tiempos en los que el proceso est
constante en alguno de sus estados y se denominan tiempos de estancia, mientras que los
momentos en donde el proceso tiene saltos son los tiempos
para
. De all que el proceso se puede representar como:
El proceso anteriormente descrito, representa un proceso de saltos, el cual
necesariamente no tiene que estar definido para tiempos continuos. En un proceso de
Markov a tiempo continuo, las probabilidades de saltos
y las probabilidades de
transicin representas caractersticas diferentes del proceso. Las probabilidades de saltos
son probabilidades de cambio de un estado a otro cuando tiene un salto, mientras que las
probabilidades de transicin son las probabilidades de encontrar al proceso en un estado j
partiendo de i, al trmino de un intervalo de tiempo de longitud t.
Adems, un proceso de Markov a tiempo queda completamente especificado por
una distribucin de probabilidad inicial en el espacio de estados, el conjunto de los
parmetros no negativos de y las probabilidades de saltos entre los estados i y j.
Aplicaciones de las Cadenas de Markov:
Las cadenas de Markov tienen aplicaciones en diversas ramas de la ciencia, como
en la electrnica, donde se emplean tcnicas que pueden contribuir con la deteccin de
blancos areos mediante un RADAR como por ejemplo, todo esto usando mtodos
estocsticos de Markov. Tambin posee aplicacin en el reconocimiento de gestos faciales
mediante visin artificial.
Por otra parte, en la fsica las tcnicas markovianas son usadas en muchos
problemas de la termodinmica y la fsica estadstica.
En la meteorologa de considerarse el clima de una regin especifica a lo largo de
diferentes das, puede determinarse que el estado actual es intrnseco del ltimo estado y no
de toda la cadena o historia en s, de modo que se pueden usar cadenas de Markov para
formular modelos climatolgicos bsicos.
En la simulacin las cadenas de Markov son utilizadas para proveer una solucin
analtica a ciertos problemas de electrnica y a otras ramas de la ingeniera ms puntuales
como el estudio de la investigacin de operaciones.
En internet la utilizacin la utilizacin de google en sus motores de bsqueda, es
definido por medio de una cadena de Markov, donde la posicin que tendr una pgina en
el buscador ser determinada por su peso en la distribucin estacionaria de la cadena.
En los procesos epidemiolgicos es importante destacar la aplicacin de las cadenas
de Markov con especial nfasis en el proceso Galton-Watson. Este es un proceso de
ramificacin que se puede usar, entre otras cosas, para modelar el desarrollo de una
epidemia.
En los juegos de azar con muchos los problemas que se pueden modelar mediante
una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de
que una persona que apuesta en un juego de azar finalmente termine sin dinero por ejemplo.
En la economa y finanzas los procesos markovianas se utilizan para modelos
simples de valuacin de opciones que permitan determinar cuando existe oportunidad de
arbitraje, as como en el modelo de colapsos de la bolsa de valores o para determinar la
volatidad de los precios. En los negocios, las cadenas de Markov se han utilizado para
analizar los patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de quipo.
En la msica se utilizan diferentes algoritmos de composicin musical que usan
cadenas de Markov, por ejemplo el software Csound o Max.
Ejemplo de Aplicaciones:
1. Deteccin de blancos areos por parte de un RADAR primario de
vigilancia:
Objetivo: Detectar de forma positiva un blanco areo sin la colaboracin de
este.
Se utiliza el mtodo HRR (High Resolution Radar). Se basa en el estudio de las
caractersticas del eco recibido. Tal y como lo muestra la figura.
Figura 4: Deteccin de blancos areos.
Figura 5: Forma de onda recibida.
Se produce una reflexin radar diferente de en funcin de la forma del
blanco.
Todo esto depende de los centros de scatter:
Figura 6: Reflexin del Blanco
las seales a clasificar son muy parecidas entre s.
Dependen del ngulo de observacin.
Las regiones de decisin estn muy solapadas.
La correlacin equivoca a menudo la clasificacin.
Figura 7: Posibles Blancos Figura 8: Modelado en MATLAB
Figura 8: Proceso Markov
Resultados:
Se utilizan secuencias de entrenamiento para cada modelo y existe una base de
datos de observaciones con 800 arreglos de 10 elementos.
PORCENTAJE DE ERROR MODELOS DE MARKOV CORRELACIN
Modelo 2 0% 40%
Modelo 3 0% 50%
Modelo 4 0% 40%
Modelo 5 0% 40%
Modelo 6 0% 40%
Modelo 7 0% 40%
Modelo 8 0% 30%
Modelo 9 0% 40%
2. Reconocimiento de Gestos:
Se han colocado unas pegatinas en la cara del usuario y se estudia su
evolucion en la realizacion de gestos mediante cadenas de Markov.
Las pegatinas se segmentan mediante un algoritmo de deteccin de color
con funciones gaussianas a priori.
Se han creado HMMs: Dos modelan la apertura de la boca y el ltimo del
estiramiento de la boca.
Figura 9: Proceso Markov
Figura 10: Matriz de Transicin
Como observacion para obtener el grado de apertura del ojo se usa la coleanidad
presentada por su contorno.
Como observacin para estimar la apertura de la boca se utiliza la diferencia entre
los centros de gravedad de las pegatinas superior e inferior de la boca.
Para el estiramiento se utiliza la diferencia de componentes x de las pegatinas
izquierda y derecha.
Definicin de estados:
Para los ojos: Cerrado, semicerrado y abierto.
Para la apertura de la boca: Abierta, semiabierta y cerrada.
Para el estiramiento de la boca: Estirada, semiestirada y encogida.
Se capturan abservaciones de cada tipo (boca y ojos) y se efecta el entrenamiento
de los 4 HMM.
El entrenamiento ajusta los valores de [A], [B] y [].
Figura 11: Estados Posteriores
Figura 11: Estados de Posteriores
Referencias Bibliogrficas:
Fonollosa, J y otros (2002). Mtodos Cuantitativos de Organizacin Industrial II.
UPC. Espaa. [En lnea] Disponible en: http://books.google.co.ve/
Rincn, L. (2012). Introduccin a los procesos estocsticos. UNAM. Mxico.
Castro, A y Otros (2008). Manual de Investigacin de Operaciones II. Instituto
Tecnolgico de Cerro Azul, Mxico. [En lnea], Disponible en:
http://es.scribd.com/doc/61178886/23/ESTADOS-ABSORBENTES
Torres, H (2012). Cadenas de Markov con estados absorbentes. Blog Digital [En
lnea], Disponible en: http://invop2.blogspot.com/2011/06/cadenas-de-markov-con-
estados.html
S/A (2012). Cadenas de Markov estados absorbentes y de tiempo continuo.
Instituto Tecnolgico de Reynosa [En lnea], Disponible en:
http://www.slideshare.net/albertojeca/cadenas-de-markov-estados-absorbentes-y-de-
tiempo-continuo#btnNext
Pacheco, J. (2003). Solucin de un proceso markoviano por programacin dinmica.
[En lnea], Disponible en: http://es.scribd.com/doc/52215031/8/ECUACIONES-DE-
CHAPMAN-KOLMOGOROV
Bergasa P. Luis M. Introduccin a los modelos ocultos de Markov. [En lnea],
disponible en,
http://www.bioingenieria.edu.ar/academica/catedras/metestad/Introduccion%20al%20Mode
lo%20oculto%20de%20Markov.pdf