El método de los momentos es un método para estimar los parámetros desconocidos de las distribuciones en estadística matemática y econometría , basado en propiedades supuestas de los momentos ( Pearson , 1894). La idea del método es reemplazar las proporciones verdaderas con análogos selectivos.
Sea una variable aleatoria (vector, matriz, etc.) X que tenga alguna distribución dependiendo de los parámetros . Deje que las funciones (llamadas momentos o funciones de momento ) , integrables con respecto a la medida , satisfagan las condiciones sobre los momentos
Sea una muestra de una variable aleatoria X. Se supone que las relaciones similares a las condiciones para los momentos también se cumplen para la muestra, es decir, en lugar de la expectativa matemática en las condiciones para los momentos, es necesario usar la muestra medio:
además, en esta representación (cuando el cero está a la derecha de la igualdad), es suficiente usar simplemente sumas en lugar de promedios.
Las estimaciones obtenidas de la solución de este sistema de ecuaciones (condiciones selectivas para momentos) se denominan estimaciones del método de momentos . El nombre del método se debe al hecho de que la mayoría de las funciones son funciones de tipo potencia, cuyas expectativas matemáticas en la teoría de la probabilidad y las estadísticas matemáticas suelen denominarse momentos.
Si las funciones de momento son continuas, entonces las estimaciones del método de momentos son consistentes .
Algunos métodos clásicos para estimar modelos de regresión pueden representarse como casos especiales del método de los momentos. Por ejemplo, si un modelo de regresión lineal satisface la condición , entonces las condiciones de momento se ven así:
Por tanto, en este caso, la estimación del método de los momentos coincidirá con la estimación del método de los mínimos cuadrados
Así, LSM es un caso especial del método de los momentos, cuando se cumple la condición de ortogonalidad de regresores y errores aleatorios
Considere otro caso donde hay algunas variables z ortogonales a los errores aleatorios del modelo de regresión lineal, es decir, . Entonces tenemos un análogo selectivo de esta condición:
Por tanto, la estimación del método de los momentos coincidirá con la estimación del método de las variables instrumentales : .
Así, el método de las variables instrumentales es un caso especial del método de los momentos, cuando se cumple la condición de ortogonalidad de los instrumentos y errores aleatorios del modelo.
El método de los momentos puede generalizarse al caso en que el número de condiciones de momento exceda el número de parámetros a estimar. En este caso, el problema obviamente no tiene una solución única (en el caso general). En este caso, se resuelve el problema de minimizar un determinado funcional caracterizando el grado integral de cumplimiento de las condiciones por momentos.
Sea un conjunto de condiciones para momentos, cuyo número es mayor que el número de parámetros desconocidos. El método generalizado de momentos (GMM, GMM - Generalized Method of Moments) es una estimación que minimiza la forma cuadrática definida positiva de las condiciones muestrales para los momentos:
donde W es una matriz definida positiva simétrica.
La matriz de ponderación teóricamente puede ser arbitraria (teniendo en cuenta la restricción de definición positiva), pero se ha demostrado que las más efectivas son las estimaciones GMM con una matriz de ponderación igual a la matriz de covarianza inversa de las funciones de momento . Este es el llamado GMM eficiente . Sin embargo, dado que esta matriz de covarianza no se conoce en la práctica, se utiliza el siguiente procedimiento. En el primer paso, los parámetros del modelo se estiman utilizando GMM con una matriz de pesos de identidad. Luego, de acuerdo con los datos de la muestra y los valores encontrados de los parámetros, se estima la matriz de covarianza de las funciones de momento y la estimación resultante se utiliza en el GMM efectivo (esto es el llamado GMM efectivo disponible).
Sea una muestra de la distribución gamma con parámetros desconocidos y . Después
.Entonces las estimaciones del método de momentos satisfacen el sistema de ecuaciones:
.En cierta medida, cuando se estiman parámetros de una familia conocida de distribuciones de probabilidad, este método es abolido por el método de máxima verosimilitud de Fisher , ya que la estimación de máxima verosimilitud tiene una alta probabilidad de estar más cerca del valor real del valor estimado.
Sin embargo, en algunos casos, como el anterior en el caso de la distribución gamma, el uso del método de máxima verosimilitud requiere el uso de computadoras , mientras que el método de los momentos se puede implementar a mano rápida y fácilmente.
Las estimaciones obtenidas por el método de los momentos pueden utilizarse como primera aproximación para el método de máxima verosimilitud. Se puede obtener una mejora adicional en las estimaciones utilizando el método de Newton-Raphson .
En algunos casos, raros con grandes cantidades de datos y más frecuentes con pequeñas cantidades de datos, las estimaciones dadas por el método de momentos pueden estar fuera de rango. Tal problema nunca surge en el método de máxima verosimilitud. Además, las estimaciones de momentos no son necesariamente estadísticas suficientes , es decir, en ocasiones no extraen toda la información que tienen de los datos.