Información mutua

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 20 de octubre de 2016; las comprobaciones requieren 5 ediciones .

La información mutua  es una función estadística de dos variables aleatorias que describe la cantidad de información contenida en una variable aleatoria en relación con la otra.

La información mutua se define a través de la entropía y la entropía condicional de dos variables aleatorias como

Propiedades de Información Mutua

En particular, para variables aleatorias independientes, la información mutua es cero:

En el caso de que una variable aleatoria (por ejemplo, ) sea una función determinista de otra variable aleatoria ( ), la información mutua es igual a la entropía:

Información mutua condicional y relativa

La información mutua condicional  es una función estadística de tres variables aleatorias que describe la cantidad de información contenida en una variable aleatoria en relación con otra, dado el valor de la tercera:

La información mutua relativa  es una función estadística de tres variables aleatorias que describe la cantidad de información contenida en una variable aleatoria en relación con otra, siempre que se dé la tercera variable aleatoria:

Propiedades

Información mutua de tres variables aleatorias

También se determina la información mutua de tres variables aleatorias :

La información mutua de tres variables aleatorias puede ser negativa. Considere una distribución uniforme en triples de bits tal que . Definamos variables aleatorias como valores de bits , respectivamente. Después

pero al mismo tiempo

y, por lo tanto, .

Literatura