Información del pescador

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 28 de diciembre de 2019; las comprobaciones requieren 9 ediciones .

La información de Fisher es la expectativa matemática del cuadrado de la tasa de cambio relativa en la densidad de probabilidad condicional [1] . Esta característica lleva el nombre de Ronald Fisher , quien la describió .

Definición

Sea la densidad de distribución para el modelo estadístico dado . Entonces si la función está definida

,

donde es la función de log -verosimilitud , y es la expectativa matemática dada , entonces se llama información de Fisher para un modelo estadístico dado con pruebas independientes .

Si es dos veces diferenciable con respecto a , y bajo ciertas condiciones de regularidad, la información de Fisher se puede reescribir como [2]

Para patrones regulares : (Esta es la definición de regularidad).

En este caso, dado que la expectativa de la función de contribución de la muestra es cero, el valor escrito es igual a su varianza.

La cantidad de información de Fisher contenida en una observación se llama:

.

Para los modelos regulares, todos son iguales.

Si la muestra consta de un elemento, la información de Fisher se escribe de la siguiente manera:

.

De la condición de regularidad, así como del hecho de que en el caso de independencia de variables aleatorias , la varianza de la suma es igual a la suma de las varianzas, se sigue que para pruebas independientes .

Propiedades

Guardar información con suficientes estadísticas

En general, si es el estadístico muestral X , entonces

Además, la igualdad se logra si y solo si T es una estadística suficiente .

Una estadística suficiente contiene tanta información de Fisher como la muestra X completa . Esto se puede mostrar usando la prueba de factorización de Neumann para estadísticas suficientes. Si las estadísticas son suficientes para el parámetro , entonces existen funciones g y h tales que:

La igualdad de información se sigue de:

que se deriva de la definición de la información de Fisher y la independencia de .

Véase también

Otras medidas utilizadas en la teoría de la información :

Notas

  1. Leman, 1991 , pág. 112.
  2. Lehmann, E. L. ; Casella, G. Teoría de la estimación  puntual (neopr.) . — 2ª ed. - Springer, 1998. - ISBN 0-387-98502-6 . , ecuación (2.5.16).

Literatura