Markov
Markov
Markov
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Introducción a los procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos
Procesos estocásticos
Un proceso estocástico es una variable aleatoria X (w , t) que
depende de dos argumentos:
un elemento del espacio muestral w ∈ Ω,
el tiempo t ∈ T , donde el conjunto T puede ser
discreto: T = {0, 1, 2, . . .}, o T = {. . . , −2, −1, 0, 1, 2, . . .},
continuo: T = [0, ∞) o T = [−∞, ∞).
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos
Procesos estocásticos
Un proceso estocástico es una variable aleatoria X (w , t) que
depende de dos argumentos:
un elemento del espacio muestral w ∈ Ω,
el tiempo t ∈ T , donde el conjunto T puede ser
discreto: T = {0, 1, 2, . . .}, o T = {. . . , −2, −1, 0, 1, 2, . . .},
continuo: T = [0, ∞) o T = [−∞, ∞).
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos
1
Resultados
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos. Ejemplos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos. Ejemplos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos. Ejemplos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos estocásticos. Ejemplos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
Cadena de Markov
Un proceso estocástico X (t) es un proceso de Markov si para
cualquier secuencia de valores t1 < · · · < tn < t y para cualquier
secuencia de sucesos A, A1 , . . . , An ,
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
P(FUTURO|PASADO, PRESENTE)
= P(FUTURO|PRESENTE).
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
P(FUTURO|PASADO, PRESENTE)
= P(FUTURO|PRESENTE).
Ejemplos:
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
P(FUTURO|PASADO, PRESENTE)
= P(FUTURO|PRESENTE).
Ejemplos:
Temperatura en un día determinado: no es un proceso de
Markov.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
P(FUTURO|PASADO, PRESENTE)
= P(FUTURO|PRESENTE).
Ejemplos:
Temperatura en un día determinado: no es un proceso de
Markov.
Número de conexiones registradas en un router de internet en
un instante determinado: sí es un proceso de Markov ya que la
gente se conecta aleatoriamente.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
P(FUTURO|PASADO, PRESENTE)
= P(FUTURO|PRESENTE).
Ejemplos:
Temperatura en un día determinado: no es un proceso de
Markov.
Número de conexiones registradas en un router de internet en
un instante determinado: sí es un proceso de Markov ya que la
gente se conecta aleatoriamente.
Precio de un stock en la bolsa en un día determinado: no es un
proceso de Markov.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Procesos de Markov
P(FUTURO|PASADO, PRESENTE)
= P(FUTURO|PRESENTE).
Ejemplos:
Temperatura en un día determinado: no es un proceso de
Markov.
Número de conexiones registradas en un router de internet en
un instante determinado: sí es un proceso de Markov ya que la
gente se conecta aleatoriamente.
Precio de un stock en la bolsa en un día determinado: no es un
proceso de Markov.
Ejemplo del lanzamiento de la moneda: sí es un proceso de
Markov.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Introducción
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Probabilidades de transición
Probabilidades de transición
Las probabilidades pij (t) se llaman probabilidades de transición.
La probabilidad
(h)
pij (t) = P(X (t + h) = j|X (t) = i),
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cadenas de Markov homogéneas
Notación:
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cadenas de Markov homogéneas
Notación:
pij = P(X (t + 1) = j|X (t) = i): probabilidad de transición.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cadenas de Markov homogéneas
Notación:
pij = P(X (t + 1) = j|X (t) = i): probabilidad de transición.
(h)
pij = P(X (t + h) = j|X (t) = i): probabilidad de transición en
h pasos.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cadenas de Markov homogéneas
Notación:
pij = P(X (t + 1) = j|X (t) = i): probabilidad de transición.
(h)
pij = P(X (t + h) = j|X (t) = i): probabilidad de transición en
h pasos.
Pt (x ) = P(X (t) = x ): distribución de la variable aleatoria X (t).
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cadenas de Markov homogéneas
Notación:
pij = P(X (t + 1) = j|X (t) = i): probabilidad de transición.
(h)
pij = P(X (t + h) = j|X (t) = i): probabilidad de transición en
h pasos.
Pt (x ) = P(X (t) = x ): distribución de la variable aleatoria X (t).
P0 (t) = P(X (0) = x ): distribución inicial o en el tiempo 0.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo
Ejemplo
Un ordenador es compartido por dos usuarios. Estudiamos cuantos
usuarios hay conectados cada minuto. Nos dicen que un usuario
puede desconectarse con probabilidad 0.3 y se puede conectar con
probabilidad 0.4.
Modelizamos la situación anterior con una cadena de Markov X (t)
que nos da el número de usuarios conectados al cabo de t minutos.
Los valores de X (t) pueden ser 0, 1 y 2. Por tanto, el conjunto de
estados será: Ω = {0, 1, 2}.
A continuación, calculemos las probabilidad de transición:
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo
Ejemplo
Si X (0) = 0, o no hay ningún usuario conectado, el número de
usuarios que habrá en el siguiente minuto es una variable aleatoria
binomial de parámetros n = 2 y p = 0.4:
!
2
p00 = · 0.40 · 0.62 = 0.36,
0
!
2
p01 = · 0.41 · 0.61 = 0.48,
1
!
2
p02 = · 0.42 · 0.60 = 0.16.
2
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo
Ejemplo
Si X (0) = 1, o hay un usuario conectado, el número de usuarios
nuevos que habrá en el siguiente minuto es una variable aleatoria
binomial de parámetros n = 1 y p = 0.4 y el número de
desconexiones en el minuto siguiente será una variable aleatoria
binomial de parámetros n = 1 y p = 0.3:
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo
Ejemplo
Si X (0) = 2, o hay los dos usuarios conectados, el número de
usuarios desconectados que habrá en el siguiente minuto es una
variable aleatoria binomial de parámetros n = 2 y p = 0.3.
!
2
p20 = · 0.70 · 0.32 = 0.09,
0
!
2
p21 = · 0.71 · 0.31 = 0.42,
1
!
2
p22 = · 0.72 · 0.30 = 0.49.
2
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Diagrama de transición
Diagrama de transición del ejemplo.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en R
Ejemplo en R
Las probabilidades anteriores se almacenarían en R de la forma
siguiente.
Vemos que la suma de las filas vale 1:
P=matrix(c(0.36,0.48,0.16,0.18,0.54,0.28,0.09,0.42,0.49),
3,3,byrow=T)
P
## [1] 1 1 1
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en python
Ejemplo en python
import numpy as np
P=np.matrix([[0.36,0.48,0.16],[0.18,0.54,0.28],
[0.09,0.42,0.49]])
P
## matrix([[1.],
## [1.],
## [1.]])
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición
Recordemos que pij = P(X (1) = j|X (0) = i). Por tanto el
vector (pi1 , . . . , pin ) representaría la función de masa de
probabilidad de la variable aleatoria discreta X (1)|X (0) = i.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo
Ejemplo anterior
La matriz de probabilidades de transición sería la siguiente:
0.36 0.48 0.16
P = 0.18 0.54 0.28 .
0.09 0.42 0.49
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición de h pasos
(h)
donde recordemos que pij = P(X (h) = j|X (0) = i).
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición de h pasos
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Matriz de transición de h pasos
(h) (h)
Por tanto el vector (pi1 , . . . , pin ) representaría la función de
masa de probabilidad de la variable aleatoria discreta
X (h)|X (0) = i.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cálculo de P(h)
(2)
Empecemos con el cálculo de P(2) , es decir pij , las
probabilidades de transición de 2 pasos:
(2)
pij =P(X (2) = j|X (0) = i)
n
X
= P(X (1) = k|X (0) = i) · P(X (2) = j|X (1) = k)
k=1
p1j
n
X ..
= pik · pkj = (pi1 , . . . , pin ) · . .
k=1 pnj
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cálculo de P(h)
(2)
La probabilidad pij se calcula como la suma de probabilidades
de ir del estado i a j pasando por el estado k, para k desde 1
hasta n:
i −→ k −→ j.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cálculo de P(h)
(2)
La probabilidad pij se calcula como la suma de probabilidades
de ir del estado i a j pasando por el estado k, para k desde 1
hasta n:
i −→ k −→ j.
En resumen P(2) = P · P = P2 .
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cálculo de P(h)
En general, las probabilidades de transición de h pasos se
pueden calcular en función de las probabilidades de transición
de h − 1 pasos razonando de forma similar:
(h)
pij =P(X (h) = j|X (0) = i)
n
X
= P(X (h − 1) = k|X (0) = i) · P(X (h) = j|X (h − 1) = k)
k=1
p1j
n
X (h−1) (h−1) (h−1) ..
= pik · pkj = (pi1 , . . . , pin ) · . .
k=1 pnj
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Cálculo de P(h)
En general, las probabilidades de transición de h pasos se
pueden calcular en función de las probabilidades de transición
de h − 1 pasos razonando de forma similar:
(h)
pij =P(X (h) = j|X (0) = i)
n
X
= P(X (h − 1) = k|X (0) = i) · P(X (h) = j|X (h − 1) = k)
k=1
p1j
n
X (h−1) (h−1) (h−1) ..
= pik · pkj = (pi1 , . . . , pin ) · . .
k=1 pnj
En conclusión,
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo
Ejemplo
Calculemos las probabilidades de transición de 2 y 3 pasos:
0.36 0.48 0.16 0.36 0.48 0.16
P(2) =P · P = 0.18 0.54 0.28 · 0.18 0.54 0.28
0.09 0.42 0.49 0.09 0.42 0.49
0.2304 0.4992 0.2704
= 0.1872 0.4956 0.3172 ,
0.1521 0.4758 0.3721
0.2304 0.4992 0.2704 0.36 0.48 0.16
P(3) (2)
=P · P = 0.1872 0.4956 0.3172 · 0.18 0.54 0.28
0.1521 0.4758 0.3721 0.09 0.42 0.49
0.197136 0.493728 0.309136
= 0.185148 0.490704 0.324148
0.173889 0.486222 0.339889
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en R
P2=P%*%P
P2
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en python
P2 = np.dot(P,P)
P2
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
n
X
Ph (j) =P(X (h) = j) = P(X (0) = k) · P(X (j) = j|X (0) = k)
k=1
(h)
n
p1j
X (h) .
= ..
P0 (k) · pkj = (P0 (1), . . . , P0 (n)) ·
k=1 (h)
pnj
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ejemplo anterior
Vamos a calcular la distribución de los usuarios conectados al cabo
de 2 y 3 minutos en dos casos:
Suponiendo que inicialmente hay un usuario conectado.
Suponiendo que el número de usuarios conectados inicialmente
es equiprobable.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ejemplo anterior
En el primer caso, la función de probabilidad de X (0) será
X (0) = (0, 1, 0).
La función de probabilidad de los usuarios conectados al cabo de 2 y
3 minutos será:
0.2304 0.4992 0.2704
P2 =(0, 1, 0) · P(2) = (0, 1, 0) · 0.1872 0.4956 0.3172
0.1521 0.4758 0.3721
0.1872
= 0.4956 ,
0.3172
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ejemplo anterior
0.197136 0.493728 0.309136
P3 =(0, 1, 0) · P(3) = (0, 1, 0) · 0.185148 0.490704 0.324148
0.173889 0.486222 0.339889
0.185148
= 0.490704 .
0.324148
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ejemplo anterior
En el segundo
caso,
la función de probabilidad de X (0) será
1 1 1
X (0) = 3 , 3 , 3 .
La función de probabilidad de los usuarios conectados al cabo de 2 y
3 minutos será:
0.2304 0.4992 0.2704
1 1 1 1 1 1
P2 = , , · P(2) = , , · 0.1872 0.4956 0.3172
3 3 3 3 3 3
0.1521 0.4758 0.3721
0.1899
= 0.4902 ,
0.3199
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución de X (h)
Ejemplo anterior
1 1 1
P3 = , , · P(3)
3 3 3
0.197136 0.493728 0.309136
1 1 1
= , , · 0.185148 0.490704 0.324148
3 3 3
0.173889 0.486222 0.339889
0.185391
= 0.490218 .
0.324391
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en R
X01=c(0,1,0)
(dist.X21 = t(X01)%*%P2)
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en python
X01= np.matrix([0,1,0])
dist_X21 = X01*P2
dist_X21
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en R
X02=c(1/3,1/3,1/3)
(dist.X22 = t(X02)%*%P2)
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Cadenas de Markov. Ejemplo en python
X02= np.matrix([1/3,1/3,1/3])
dist_X22 = X02*P2
dist_X22
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
π(x ) = lim Ph (x ), x = 1, . . . , n.
h→∞
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
π(x ) = lim Ph (x ), x = 1, . . . , n.
h→∞
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
Ph = Ph · P.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
Ph = Ph · P.
π = π · P.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
Ph = Ph · P.
π = π · P.
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
πP =π,
n
X
π =1.
k=1
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
πP =π,
n
X
π =1.
k=1
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio
Ejemplo
El vector propio de valor propio 1 de la matriz P> cuyas
componentes suman 1 y son positivas vale:
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio en R
Ejemplo
Para hallar la distribución de probabilidad en el equilibrio en R
haríamos lo siguiente:
(vectores.propios = eigen(t(P))$vectors)
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio en R
(vector.propio.vap.1=vectores.propios[,1])
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov
Distribución en el equilibrio en python
## matrix([[0.18367347],
## [0.48979592],
## [0.32653061]])
Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir Introducción a las cadenas de Markov