Estado esencial

Un estado esencial  es un estado de una cadena de Markov, después de la cual siempre puede volver a él.

Definición

Sea una cadena de Markov homogénea con tiempo discreto y espacio de estado discreto . Entonces el estado se llama sin importancia si existe un estado y tal que

, pero .

De lo contrario, el estado se llama esencial .

Nota

Los estados no esenciales no juegan un papel en el estudio del comportamiento a largo plazo de la cadena de Markov y, por lo tanto, a menudo se ignoran.

Ejemplo

Sea finito el espacio de estado de la cadena de Markov: , y la matriz de probabilidades de transición tiene la forma:

.

Entonces los estados y son inesenciales, mientras que y  son esenciales.