Codificación de entropía

Codificación de entropía  : codificación de una secuencia de valores con la posibilidad de una recuperación inequívoca para reducir la cantidad de datos (longitud de la secuencia) al promediar las probabilidades de aparición de elementos en la secuencia codificada.

Se supone que antes de la codificación, los elementos individuales de la secuencia tienen una probabilidad de ocurrencia diferente. Después de codificar en la secuencia resultante, las probabilidades de ocurrencia de caracteres individuales son casi las mismas ( la entropía por carácter es máxima).

Hay varias opciones de código:

Según el teorema de Shannon , existe un límite de compresión sin pérdidas que depende de la entropía de la fuente. Cuanto más predecibles sean los datos, mejor se podrán comprimir. Una sucesión equiprobable independiente aleatoria no se puede comprimir sin pérdida.


Véase también

Literatura