La información propia es una función estadística de una variable aleatoria discreta .
La información propia es en sí misma una variable aleatoria, que debe distinguirse de su valor promedio : la entropía de la información .
Para una variable aleatoria que tiene un número finito de valores:
propia información se define como
Las unidades de medida de la información dependen de la base del logaritmo . En el caso de un logaritmo con base 2, la unidad de medida es bit , si se usa un logaritmo natural entonces nat , si es decimal entonces hartley .
Base del logaritmo |
Unidad de medida |
La cantidad de información sobre la caída de la moneda "águila" hasta |
---|---|---|
2 | un poco | un poco |
mi | natural | nata |
diez | harley | harley |
La autoinformación puede entenderse como una "medida de sorpresa" de un evento: cuanto menor es la probabilidad de un evento, más información contiene.
de compresión | métodos|||||||
---|---|---|---|---|---|---|---|
Teoría |
| ||||||
sin pérdidas |
| ||||||
Audio |
| ||||||
Imágenes |
| ||||||
Video |
|