Saltar al contenido

¿Cuándo una cadena de Markov no tiene un estado estable?

Solución:

Cada cadena de Markov en un espacio de estados finito tiene una distribución invariante. Como dijiste, esto se sigue directamente de la condición de que las filas sumen $ 1 $.

Es posible que una cadena de Markov en un espacio de estados finito tenga múltiples distribuciones invariantes. Sin embargo, el teorema de Perron-Frobenius nos dice que estos pueden descomponerse en distribuciones que se concentran en componentes fuertemente conectados del espacio de estados. La descomposición del proceso en componentes fuertemente conectados da como resultado una o más cadenas de Markov diferentes, cada una de las cuales tiene una distribución invariante única. (Los estados transitorios de la cadena original no serán estados en ninguna de estas subcadenas, ya que no están en ningún componente fuertemente conectado.) En particular, una cadena de Markov de estado finito irreducible tiene una distribución invariante única que asigna probabilidad positiva a todos los Estados.

Por muchas distribuciones invariantes que tenga el proceso, puede suceder que no se acerque a ninguna distribución invariante a lo largo del tiempo. Cuando el espacio de estados es finito, resulta que esto solo sucede cuando la cadena es “periódica” (lo que significa que hay estados $ i, j $ y un entero $ n> 1 $ tal que todos los caminos desde $ i $ para $ j $ tener una longitud que es un múltiplo de $ n $). En este caso, la matriz de transición tiene un valor propio que no es $ 1 $ y tiene modulo $ 1 $. Si el vector propio correspondiente contribuye a la condición inicial, entonces su contribución no decae y no se acerca a una distribución invariante. El ejemplo clásico es $ P = begin {bmatrix} 0 & 1 \ 1 & 0 end {bmatrix} $.

Es posible que una cadena de Markov en un espacio de estados infinito no tenga distribuciones invariantes. Esto se debe aproximadamente a que la masa de probabilidad puede escapar al infinito. Un ejemplo simple es una cadena de Markov en $ mathbb {Z} $ que se mueve determinísticamente una unidad a la derecha en cada paso. Otro ejemplo es el paseo aleatorio simétrico simple: tiene un invariante la medida que es uniforme en $ mathbb {Z} $, pero esta medida no se puede normalizar.

Estás en lo correcto. Si $ P $ es una matriz de transición de Markov, entonces $ P ^ n $ converge como $ n a infty $ si y solo si el único valor propio del módulo uno de $ P $ es $ lambda = 1. $

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *