El método de máxima verosimilitud o el método de máxima verosimilitud (MMP, ML, MLE - English m aximum ikelihood e stimation ) en estadística matemática es un método para estimar un parámetro desconocido maximizando la función de verosimilitud [1] . Basado en el supuesto de que toda la información sobre una muestra estadística está contenida en la función de verosimilitud.
El método de máxima verosimilitud fue analizado, recomendado y muy popularizado por R. Fischer entre 1912 y 1922 (aunque ya había sido utilizado antes por Gauss , Laplace y otros).
La estimación de máxima verosimilitud es una técnica estadística popular que se utiliza para crear un modelo estadístico a partir de los datos y proporcionar una estimación de los parámetros del modelo.
El método de máxima verosimilitud corresponde a muchos métodos de estimación conocidos en el campo de la estadística. Por ejemplo, le interesa un parámetro antropométrico como la altura de los habitantes de Rusia. Suponga que tiene datos sobre el crecimiento de un cierto número de personas, no de toda la población. Además, se supone que el crecimiento es una cantidad normalmente distribuida con varianza y media desconocidas . La media y la varianza del crecimiento en la muestra son de máxima verosimilitud a la media y la varianza de toda la población.
Para un conjunto de datos fijo y un modelo probabilístico básico, utilizando el método de máxima verosimilitud, obtendremos los valores de los parámetros del modelo que hacen que los datos sean “más cercanos” al real. La estimación de máxima verosimilitud proporciona una forma única y fácil de determinar soluciones en el caso de una distribución normal.
El método de estimación de máxima verosimilitud se aplica a una amplia gama de modelos estadísticos, que incluyen:
Sea una muestra de la distribución , donde están los parámetros desconocidos. Sea la función de verosimilitud , donde . Estimación de puntos
se denomina estimación de máxima verosimilitud del parámetro . Así, la estimación de máxima verosimilitud es aquella que maximiza la función de verosimilitud para una implementación de muestreo fijo.
A menudo se utiliza la función de log-verosimilitud en lugar de la función de verosimilitud . Dado que la función crece monótonamente en todo el dominio de definición, el máximo de cualquier función es el máximo de la función y viceversa. De este modo,
,Si la función de verosimilitud es diferenciable, entonces la condición necesaria para el extremo es la igualdad de su gradiente a cero :
La condición extrema suficiente se puede formular como la definición negativa de Hessian , la matriz de segundas derivadas:
Importante para evaluar las propiedades de las estimaciones del método de máxima verosimilitud es la llamada matriz de información , igual por definición:
En el punto óptimo, la matriz de información coincide con la expectativa de la Hessiana, tomada con signo menos:
donde es la matriz de información asintótica.
Eficiencia asintótica significa que la matriz de covarianza asintótica es el límite inferior para todos los estimadores asintóticamente normales consistentes.
La última igualdad se puede reescribir como:
donde , lo que muestra que la función de verosimilitud alcanza su máximo en el punto . De este modo
.Tal estimación estará sesgada: , de donde
Para encontrar su máximo, igualamos las derivadas parciales a cero :
dónde
es la media muestral , y es la varianza muestral .Supongamos que estamos midiendo alguna cantidad . Habiendo hecho una medición, obtuvimos su valor con un error : . Escribamos la densidad de probabilidad de que el valor tome el valor :
.
Supongamos ahora que hemos tomado varias de esas medidas y obtenido . La densidad de probabilidad que tomará la cantidad sobre los valores será:
.
Esta función se llama función de verosimilitud. El valor más probable del valor medido está determinado por el máximo de la función de probabilidad. Más conveniente es la función de probabilidad logarítmica:
.
Diferencie la función logarítmica de verosimilitud con respecto a :
.
Igualar y obtener algún valor :
.
Cramer formuló el siguiente teorema:
Teorema: No existe otro método de procesamiento de los resultados de un experimento que proporcione una mejor aproximación a la verdad que el método de máxima verosimilitud.
Supongamos que hemos tomado una serie de medidas y obtenido una serie de valores , es natural escribir que esta distribución tendrá forma gaussiana :
.
Escribamos la función de verosimilitud logarítmica: .
Saquemos la primera derivada:
.
Si , entonces . Ahora saca la segunda derivada:
, dónde
.
Esto se llama la primera fórmula mágica [2] .
El método de máxima verosimilitud condicional (ML condicional) se utiliza en los modelos de regresión. La esencia del método es que no se utiliza la distribución conjunta completa de todas las variables (dependientes y regresoras), sino solo la distribución condicional de la variable dependiente por factores, es decir, de hecho, la distribución de errores aleatorios del modelo de regresión. . La función de verosimilitud total es el producto de la "función de verosimilitud condicional" y la densidad de distribución de los factores. El MMP condicional es equivalente a la versión completa del MMP en el caso de que la distribución de factores no dependa de los parámetros estimados de ninguna manera. Esta condición se viola a menudo en los modelos de series de tiempo, como el modelo autorregresivo . En este caso, los regresores son los valores pasados de la variable dependiente, lo que significa que sus valores también obedecen al mismo modelo AR, es decir, la distribución de los regresores depende de los parámetros estimados. En tales casos, los resultados de aplicar los métodos de máxima verosimilitud condicional y completa serán diferentes.
diccionarios y enciclopedias |
---|