Cadena de Markov

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 28 de diciembre de 2019; las comprobaciones requieren 9 ediciones .

Una cadena de Markov  es una secuencia de eventos aleatorios con un número finito o contable de resultados , donde la probabilidad de que ocurra cada evento depende únicamente del estado alcanzado en el evento anterior [1] . Se caracteriza por la propiedad de que, en términos generales, con un presente fijo, el futuro es independiente del pasado. Nombrado en honor a A. A. Markov (senior) , quien introdujo por primera vez este concepto en el trabajo de 1906. [2]

Cadena de Markov en tiempo discreto

Definición

Una secuencia de variables aleatorias discretas se denomina cadena de Markov simple (con tiempo discreto) si

.

Por lo tanto, en el caso más simple, la distribución condicional del siguiente estado de la cadena de Markov depende solo del estado actual y no depende de todos los estados anteriores (a diferencia de las cadenas de Markov de orden superior).

El rango de variables aleatorias se denomina espacio de estado de la cadena y el número  es el número de paso.

Matriz de transición y cadenas homogéneas

matriz , donde

se llama la matriz de probabilidades de transición en el -ésimo paso, y el vector , donde

— la distribución inicial de la cadena de Markov.

Obviamente, la matriz de probabilidad de transición es estocástica derecha , es decir

.

Una cadena de Markov se llama homogénea si la matriz de probabilidad de transición no depende del número de paso, es decir

.

De lo contrario, la cadena de Markov se llama no homogénea. En lo que sigue, supondremos que estamos tratando con cadenas de Markov homogéneas.

Distribuciones de dimensión finita y la matriz de transición de n pasos

A partir de las propiedades de probabilidad condicional y la definición de cadena de Markov homogénea, se obtiene:

,

de donde se sigue el caso especial de la ecuación de Kolmogorov-Chapman :

,

es decir, la matriz de probabilidades de transición por pasos de una cadena de Markov homogénea es el -ésimo grado de la matriz de probabilidades de transición por 1 paso. Finalmente,

.

Tipos de estado

Ejemplos

Cadena de Markov con tiempo continuo

Definición

Una familia de variables aleatorias discretas se denomina cadena de Markov (con tiempo continuo) si

.

Se dice que una cadena de Markov con tiempo continuo es homogénea si

.

La matriz de funciones de transición y la ecuación de Kolmogorov-Chapman

Como en el caso del tiempo discreto, las distribuciones de dimensión finita de una cadena de Markov homogénea en tiempo continuo están completamente determinadas por la distribución inicial

y la matriz de funciones de transición ( probabilidades de transición )

.

La matriz de probabilidades de transición satisface la ecuación de Kolmogorov-Chapman : o

La matriz de intensidad y las ecuaciones diferenciales de Kolmogorov

Por definición, la matriz de intensidad es , o, de manera equivalente,

.

Dos ecuaciones se derivan de la ecuación de Kolmogorov-Chapman:

Para ambas ecuaciones, se elige la condición inicial . decisión apropiada

Propiedades de las matrices P y Q

Para cualquier matriz tiene las siguientes propiedades:

  1. Los elementos de la matriz son no negativos: (no negatividad de las probabilidades).
  2. La suma de los elementos en cada fila es 1: (probabilidad completa), es decir, la matriz es estocástica por la derecha (o por filas).
  3. Todos los valores propios de la matriz no exceden de 1 en valor absoluto: . Si , entonces .
  4. El valor propio de la matriz corresponde a al menos un vector propio izquierdo no negativo - fila (equilibrio): .
  5. Para un valor propio de una matriz , todos los vectores raíz son vectores propios, es decir, las celdas de Jordan correspondientes son triviales.

La matriz tiene las siguientes propiedades:

  1. Los elementos de la matriz fuera de la diagonal no son negativos: .
  2. Los elementos de la matriz diagonal no son positivos: .
  3. La suma de los elementos de cada fila es 0:
  4. La parte real de todos los valores propios de la matriz es no positiva: . si , entonces
  5. El valor propio de la matriz corresponde a al menos un vector propio de fila izquierda no negativo (equilibrio):
  6. Para un valor propio de una matriz , todos los vectores raíz son vectores propios, es decir, las celdas de Jordan correspondientes son triviales.

Gráfico de transición, conectividad y cadenas de Markov ergódicas

Para una cadena de Markov con tiempo continuo, se construye un gráfico de transición dirigida (brevemente, un gráfico de transición) de acuerdo con las siguientes reglas:

Las propiedades topológicas del gráfico de transición están relacionadas con las propiedades espectrales de la matriz . En particular, los siguientes teoremas son ciertos para cadenas de Markov finitas:

A. Para dos vértices diferentes cualesquiera del gráfico de transición, existe tal vértice del gráfico ("drenaje común") que hay caminos orientados de vértice a vértice y de vértice a vértice . Nota : caso posible o ; en este caso, un camino trivial (vacío) de a o de a también se considera un camino dirigido. B. Un valor propio cero de una matriz es no degenerado. C. En , la matriz tiende a una matriz en la que todas las filas coinciden (y coinciden, obviamente, con la distribución de equilibrio). A. La gráfica de transición de una cadena está conectada direccionalmente. B. El valor propio cero de una matriz no es degenerado y corresponde a un vector propio izquierdo estrictamente positivo (distribución de equilibrio). B. Para algunos, la matriz es estrictamente positiva (es decir, para todos ). D. Para todos, la matriz es estrictamente positiva. E. Para , la matriz tiende a una matriz estrictamente positiva, en la que todas las filas coinciden (y, obviamente, coinciden con la distribución de equilibrio).

Ejemplos

Considere cadenas de Markov de tres estados con tiempo continuo, correspondientes a los gráficos de transición que se muestran en la Fig. En el caso (a), solo los siguientes elementos fuera de la diagonal de la matriz de intensidad son distintos de cero , en el caso (b) solo son distintos de cero , y en el caso (c) son . Los elementos restantes están determinados por las propiedades de la matriz (la suma de los elementos en cada fila es 0). Como resultado, para los gráficos (a), (b), (c) las matrices de intensidad se ven como:

Ecuación cinética básica

La ecuación cinética básica describe la evolución de la distribución de probabilidad en una cadena de Markov con tiempo continuo. “Ecuación básica” aquí no es un epíteto, sino una traducción del término en inglés.  ecuación maestra . Para el vector fila de la distribución de probabilidad, la ecuación cinética básica tiene la forma:

y coincide, en esencia, con la ecuación directa de Kolmogorov . En la literatura física, los vectores de columna de probabilidades se usan con más frecuencia y la ecuación cinética básica se escribe en una forma que usa explícitamente la ley de conservación de la probabilidad total:

dónde

Si existe un equilibrio positivo para la ecuación cinética básica , entonces se puede escribir en la forma

Funciones de Lyapunov para la ecuación cinética básica

Para la ecuación cinética principal, existe una rica familia de funciones convexas de Lyapunov  : funciones de distribución de probabilidad que cambian monótonamente con el tiempo. Sea  una función convexa de una variable. Para cualquier distribución de probabilidad positiva ( ) definimos la función de Morimoto :

.

La derivada del tiempo, si satisface la ecuación cinética básica, es

.

La última desigualdad es válida debido a la convexidad .

Ejemplos de funciones de Morimoto
  • , ;
esta función es la distancia de la distribución de probabilidad actual a la de equilibrio en - norma . El cambio de tiempo es una contracción del espacio de distribuciones de probabilidad en esta norma. (Para conocer las propiedades de las contracciones, consulte el artículo Teorema del punto fijo de Banach ).
  • , ;
esta función es la (menos) entropía de Kullback (ver distancia de Kullback-Leibler ). En física, corresponde a la energía libre dividida por (donde  es la constante de Boltzmann , es la temperatura  absoluta ): si ( distribución de Boltzmann ) entonces .
  • , ;
esta función es el análogo de energía libre de la entropía de Burg, que se usa ampliamente en el procesamiento de señales:
  • , ;
esta es una aproximación cuadrática para la entropía (menos) de Kullback cerca del punto de equilibrio. Hasta un término constante de tiempo, esta función es la misma que la entropía (menos) de Fisher dada por la siguiente opción,
  • , ;
esta es la entropía (menos) de Fisher .
  • , ;
este es uno de los análogos de la energía libre para la entropía de Tsallis . sirve como base para la física estadística de cantidades no extensivas. En , tiende a la entropía clásica de Boltzmann-Gibbs-Shannon, y la función de Morimoto correspondiente tiende a la entropía (menos) de Kullback.

Aplicación práctica

Una de las primeras disciplinas científicas en las que las cadenas de Markov encontraron aplicación práctica fue la lingüística (en particular, la crítica textual ). El mismo Markov, para ilustrar sus resultados, estudió la dependencia en la alternancia de vocales y consonantes en los primeros capítulos de " Eugene Onegin " y " Años de infancia de Bagrov-nieto " [3] .

Notas

  1. ^ "Cadena de Markov | Definición de cadena de Markov en inglés estadounidense por Oxford Dictionaries"  . Diccionarios de Oxford | Inglés. . Diccionarios léxicos | Inglés (14 de diciembre de 2017). Recuperado: 1 de abril de 2020.
  2. Gagniuc, Paul A. Markov Cadenas: de la teoría a la implementación y  la experimentación . - EE. UU., NJ: John Wiley & Sons , 2017. - P. 2-8. — ISBN 978-1-119-38755-8 .
  3. Maistrov, L.E. Desarrollo del concepto de probabilidad . - Nauka, 1980. - S. 188. - 269 p.

Literatura

  • Kelbert M. Ya., Sukhov Yu. M. Probabilidad y estadística en ejemplos y problemas. Vol. II: Las cadenas de Markov como punto de partida de la teoría de los procesos aleatorios y sus aplicaciones. - M. : MTSNMO, 2010. - 295 p. — ISBN 978-5-94057-252-7 .
  • Markov A. A. , Extensión de la ley de los grandes números a cantidades que dependen unas de otras. - Noticias de la Sociedad de Física y Matemáticas de la Universidad de Kazan. - 2ª serie. - Tomo 15. (1906) - S. 135-156.
  • Cadena de Markov  / A. V. Prokhorov // Gran Enciclopedia Rusa  : [en 35 volúmenes]  / cap. edición Yu. S. Osipov . - M.  : Gran Enciclopedia Rusa, 2004-2017.
  • Kemeny JG, Snell JL , Cadenas finitas de Markov. — La Serie Universitaria de Matemáticas de Pregrado. Princeton: Van Nostrand, 1960
    • Traducción: Kemeny J.J. , Snell J.L. Cadenas finitas de Markov. — M.: Nauka. 1970. - 272 págs.
  • Zhong Kai-lai Cadenas de Markov homogéneas. Traducir De inglés. — M.: Mir, 1964. — 425 p.
  • E. Nummelin , Cadenas de Markov irreducibles generales y operadores no negativos. — M.: Mir, 1989. — 207 p.
  • Morimoto T. , Procesos de Markov y el teorema H. — J. Física. soc. jap. 12 (1963), 328-331.
  • Yaglom A.M. , Yaglom I.M. , Probabilidad e información . - M., Nauka, 1973. - 512 p.
  • Kullback S. , Teoría de la información y estadística. Wiley, Nueva York, 1959.
  • Burg JP , La Relación entre Espectros de Máxima Entropía y Espectros de Máxima Verosimilitud, Geofísica 37(2) (1972), 375-376.
  • Tsallis C. , Posible generalización de las estadísticas de Boltzmann-Gibbs. Estado J. física 52 (1988), 479-487.
  • Rudoy Yu. G. , Entropía de información generalizada y distribución no canónica en mecánica estadística de equilibrio , TMF, 135:1 (2003), 3-54.
  • Gorban, Alexander N.; Gorban, Pavel A.; Juez, Jorge. Entropía: el enfoque de ordenación de Markov . Entropía 12, núm. 5 (2010), 1145-1193.

Enlaces