Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Cadenas de Markov

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 20

CADENAS DE

MARKOV
INVESTIGACIÓN DE
OPERCIONES II
María Auxiliadora
Amador
1. Determinar los estados o las condiciones futuras
utilizando análisis de Markov.
2. Calcular las condiciones a largo plazo o de estado
estable, usando únicamente la matriz de probabilidades de
transición.
3. Entender el uso del análisis de estado absorbente
en la predicción de condiciones futuras.

Objetivos
Algunas veces se está interesado en
analizar cómo cambia una variable
aleatoria con el tiempo. Este estudio
incluye procesos estocásticos.
Variables aleatorias
Un tipo de proceso estocástico en
Proceso Estocástico particular es conocido como Cadena de
Markov que se han aplicado en áreas
Cadena de Markov como:
•Educación
•Comercio
•Finanzas
•Servicios de salud
•Contabilidad
•Producción
• Nació: 14 de junio de 1856 en Rusia
• Murió: 20 de julio de 1922 en Rusia
• Su intención era crear un modelo probabilístico para analizar la
frecuencia con la que aparecen las vocales en poemas y textos
literarios.
• El éxito del modelo propuesto por Markov radica en que es lo
suficientemente complejo como para describir ciertas
características no triviales de algunos sistemas, pero al mismo
tiempo es lo suficientemente sencillo para ser analizado
matemáticamente.
• Su trabajo sirvió de lanzamiento para la teoría de los procesos
estocásticos

Andrei Andreyevich
Markov
• Es un proceso que evoluciona en el tiempo
de una manera probabilística.
• Un proceso estocástico es una colección
indexada de variables aleatorias
parametrizadas por el tiempo
Variables aleatorias
{Xt}={X0, X1, X2, …}
Proceso Estocástico
Donde Xt representa una característica
Cadena de Markov
de interés medible en el tiempo t. Por
ejemplo puede representar los niveles
de inventario al final de la semana t.

• Es una descripción de la relación entre las


variables aleatorias X0, X1, X2, …
Característica Observable
Un juego de apuestas Capital disponible antes del
juego t
Observaciones sobre las Estado de la máquina
condiciones de una máquina al Funciona / No funciona
final de cada semana

Observación hecha cada 30 Número de clientes esperando


segundos sobre el número e en la cola
clientes esperando en una cola

Compras de detergente de un Marca de detergente cada vez


consumidor (suponiendo 7 que hace la compra
marcas diferentes
Registro del inventario al final Nivel del inventario al final de
de la semana la semana

Ejemplos de Procesos Estocástico


En la teoría de la probabilidad, se conoce
como cadena de Markov a un tipo
especial de proceso estocástico en el que la
probabilidad de que ocurra un evento
depende del evento inmediatamente
Variables aleatorias
anterior.
Proceso Estocástico
Ejemplos:
Cadena de Markov • El lugar adonde Pedro vaya el fin de
semana a parrandear, depende de donde
fue este fin de semana

• El comportamiento (sube/baja) del precio


del dólar hoy, depende de lo ocurrido
ayer
Si i y j representan estados del proceso (valores
posibles de X), entonces:

Pij = P( Xt+1=j | Xt=i )

Representa la probabilidad de que dado que el sistema


está en el estado i en el tiempo t, este pase al estado j
en el tiempo t + 1

Probabilidades de Transición en un paso


En la mayoría de las aplicaciones, las probabilidades de
transición se muestran como una matriz de probabilidad de
transición P de orden s x s. La matriz de probabilidad de
transición P se puede escribir como:

Matriz de Transición
• Es un grafo dirigido cuyos nodos son los estados y
cuyos arcos se etiquetan con la probabilidad de las
transiciones existentes.
• Es un arreglo donde se condensan las
probabilidades de pasar de un estado a otro.

p ij
i j

Diagramas de Transición
Ejemplo: La línea telefónica

Sea una línea telefónica de estados: desocupada (D) y


ocupada (O).

Si en el instante t está ocupada, en el instante t+1 estará


ocupada con probabilidad 0.7. Si en el instante t está
desocupada, en el instante t+1 estará ocupada con
probabilidad 0.1.

Haga:
1. La Matriz de Transición
2. El diagrama de Transición
0.1

0.9 D O 0.7

0.3
Cada año, durante la temporada de siembra de marzo a septiembre,
un jardinero realiza una prueba química para verificar la condición
de la tierra.
Según el resultado de la prueba, la productividad en la nueva
temporada puede ser uno de tres estados: (1) buena, (2) regular y
(3) mala.:

Ejemplo: Problema del Jardinero


El jardinero modifica las probabilidades de
transición P utilizando un fertilizante orgánico. En
este caso, la matriz de transición se vuelve:

Cont. ejemplo
• Libro de Taha. Cap. 17
• Conjunto de Problemas 17.1A
• Pg. 573
•1-4

Ejercicios:
Matriz de Transición

* Probabilidad de Estado Estable


• Libro de Taha. Cap. 17
• Conjunto de Problemas 17.2A
• Pg. 575
•1-5

Ejercicios:
Cada año, durante la temporada de siembra de marzo
a septiembre, un jardinero realiza una prueba química
para verificar la condición de la tierra.
Según el resultado de la prueba, la productividad en
la nueva temporada puede ser uno de tres estados:
(1) buena, (2) regular y (3) mala. La siguiente matriz
de transición muestra las probabilidades usando
fertilizante:
El jardín necesita dos sacos de fertilizante si la tierra es buena. La cantidad se
incrementa en 25% si la tierra es regular, y 60% si la tierra es mala. El costo
del fertilizante es de $50 por saco.
El jardinero estima un rendimiento anual de $250 si no se utiliza fertilizante, y
de $420 si se aplica el fertilizante. ¿Es redituable utilizar fertilizante?

Hay que calcular el costo de fertilizante anual esperado

Modelo de Costos
Cantidad de temporadas
para que vuelva
a ese estado

Tiempo Medio de Recurrencia o


Tiempo Medio del 1er Retorno
• Libro de Taha.
• Cap. 17
• Conjunto de Problemas 17.4A
• Pg. 580

Ejercicios:

También podría gustarte