La información mutua es una función estadística de dos variables aleatorias que describe la cantidad de información contenida en una variable aleatoria en relación con la otra.
La información mutua se define a través de la entropía y la entropía condicional de dos variables aleatorias como
En particular, para variables aleatorias independientes, la información mutua es cero:
En el caso de que una variable aleatoria (por ejemplo, ) sea una función determinista de otra variable aleatoria ( ), la información mutua es igual a la entropía:
La información mutua condicional es una función estadística de tres variables aleatorias que describe la cantidad de información contenida en una variable aleatoria en relación con otra, dado el valor de la tercera:
La información mutua relativa es una función estadística de tres variables aleatorias que describe la cantidad de información contenida en una variable aleatoria en relación con otra, siempre que se dé la tercera variable aleatoria:
También se determina la información mutua de tres variables aleatorias :
La información mutua de tres variables aleatorias puede ser negativa. Considere una distribución uniforme en triples de bits tal que . Definamos variables aleatorias como valores de bits , respectivamente. Después
pero al mismo tiempo
y, por lo tanto, .
de compresión | métodos|||||||
---|---|---|---|---|---|---|---|
Teoría |
| ||||||
sin pérdidas |
| ||||||
Audio |
| ||||||
Imágenes |
| ||||||
Video |
|