La información de Fisher es la expectativa matemática del cuadrado de la tasa de cambio relativa en la densidad de probabilidad condicional [1] . Esta característica lleva el nombre de Ronald Fisher , quien la describió .
Sea la densidad de distribución para el modelo estadístico dado . Entonces si la función está definida
,donde es la función de log -verosimilitud , y es la expectativa matemática dada , entonces se llama información de Fisher para un modelo estadístico dado con pruebas independientes .
Si es dos veces diferenciable con respecto a , y bajo ciertas condiciones de regularidad, la información de Fisher se puede reescribir como [2]
Para patrones regulares : (Esta es la definición de regularidad).
En este caso, dado que la expectativa de la función de contribución de la muestra es cero, el valor escrito es igual a su varianza.
La cantidad de información de Fisher contenida en una observación se llama:
.Para los modelos regulares, todos son iguales.
Si la muestra consta de un elemento, la información de Fisher se escribe de la siguiente manera:
.De la condición de regularidad, así como del hecho de que en el caso de independencia de variables aleatorias , la varianza de la suma es igual a la suma de las varianzas, se sigue que para pruebas independientes .
En general, si es el estadístico muestral X , entonces
Además, la igualdad se logra si y solo si T es una estadística suficiente .
Una estadística suficiente contiene tanta información de Fisher como la muestra X completa . Esto se puede mostrar usando la prueba de factorización de Neumann para estadísticas suficientes. Si las estadísticas son suficientes para el parámetro , entonces existen funciones g y h tales que:
La igualdad de información se sigue de:
que se deriva de la definición de la información de Fisher y la independencia de .
Otras medidas utilizadas en la teoría de la información :