Un estado esencial es un estado de una cadena de Markov, después de la cual siempre puede volver a él.
Sea una cadena de Markov homogénea con tiempo discreto y espacio de estado discreto . Entonces el estado se llama sin importancia si existe un estado y tal que
, pero .De lo contrario, el estado se llama esencial .
Los estados no esenciales no juegan un papel en el estudio del comportamiento a largo plazo de la cadena de Markov y, por lo tanto, a menudo se ignoran.
Sea finito el espacio de estado de la cadena de Markov: , y la matriz de probabilidades de transición tiene la forma:
.Entonces los estados y son inesenciales, mientras que y son esenciales.
cadenas de Markov | Clasificación de estados y|
---|---|
Estado | |
Cadena |