Elegir un modelo estadístico
La selección de modelos es la tarea de seleccionar un modelo estadístico de un conjunto de modelos candidatos dados los datos disponibles. En el caso más simple, se considera un conjunto de datos existente. Sin embargo, la tarea puede implicar el diseño de experimentos , por lo que la recopilación de datos está relacionada con la tarea de selección del modelo. Dados los modelos candidatos con el mismo poder predictivo o explicativo, es probable que el modelo más simple sea la mejor opción ( la navaja de Occam ).
Konishi y Kitagawa [1] afirman: "La mayoría de los problemas de inferencia estadística pueden considerarse problemas relacionados con el modelado estadístico". Al mismo tiempo, Cox [2] dijo: "Cómo se lleva a cabo la traducción del problema en cuestión al modelo estadístico es la parte más crítica del análisis".
La selección de modelos también puede referirse a la tarea de seleccionar múltiples modelos representativos de un gran conjunto de modelos computacionales con el fin de tomar decisiones u optimizar bajo incertidumbre.
Introducción
En sus formas más simples, la selección de modelos es una de las tareas fundamentales de la investigación científica . La definición de un principio que explica un conjunto de observaciones a menudo se vincula directamente con un modelo matemático para predecir esas observaciones. Por ejemplo, cuando Galileo realizó sus experimentos con un plano inclinado , demostró que el movimiento de la bola sigue la parábola predicha en su modelo.
Con el número infinito de posibles mecanismos y procesos que pueden proporcionar los datos, ¿cómo se puede empezar a elegir el mejor modelo? El enfoque matemático por lo general toma una decisión entre un conjunto de modelos candidatos. Este conjunto debe ser elegido por el investigador. A menudo se utilizan modelos simples como los polinomios , al menos al principio. Burnham y Andersen [3] enfatizan en su libro la importancia de elegir modelos basados en principios científicos, como la comprensión de procesos o mecanismos fenomenológicos (por ejemplo, reacciones químicas) para los datos.
Una vez que se ha seleccionado un conjunto de modelos candidatos, el análisis estadístico permite seleccionar el mejor de estos modelos. Lo que significa la palabra mejor es una pregunta discutible. Una buena técnica de selección de modelos equilibrará la adecuación y la simplicidad del modelo. Es posible que los modelos más complejos se ajusten mejor a los datos (por ejemplo, un polinomio de quinto grado puede representar exactamente seis puntos), pero los parámetros adicionales pueden no ser útiles (quizás los seis puntos se distribuyen aleatoriamente a lo largo de una línea recta). El ajuste de un modelo generalmente se determina utilizando , o una aproximación a, la razón de verosimilitud , lo que da como resultado una prueba de chi-cuadrado . La complejidad generalmente se mide contando el número de parámetros del modelo
.
Las técnicas de selección de modelos se pueden considerar como estimaciones de alguna cantidad física, como la probabilidad de que un modelo produzca los datos disponibles. El sesgo y la varianza son indicadores importantes de la calidad de un predictor. A menudo, también se considera un indicador de desempeño .
Un ejemplo estándar de selección de modelo es el ajuste de curvas , donde, dado un conjunto de puntos y otra información general (por ejemplo, cuando los puntos son el resultado de una muestra de variables aleatorias independientes ), debemos seleccionar una curva que describa la función que genera los puntos.
Métodos para seleccionar un conjunto de candidatos en un modelo
Criterios
Si nos limitamos de antemano a considerar sólo modelos autorregresivos (AR), es decir, suponemos que el proceso Xt sigue el modelo AR(k) con un orden k verdadero desconocido, entonces durante mucho tiempo k se utilizó para determinar k en tales situaciones [4]
- Criterio de información de Akaike (AIC), una medida de la adecuación de un modelo estadístico. Posteriormente, se encontró que la estimación de Akaike es insostenible y asintóticamente sobrestima (sobreestima) el verdadero valor de k0 con probabilidad distinta de cero [4] .
Más preferido es el comúnmente utilizado actualmente [4]
Algo más tarde se sugirió [4]
- Criterio de información de Hennan-Quinn , que tiene una convergencia más rápida al valor verdadero de k0 en. Sin embargo, para valores pequeños de T, este criterio subestima el orden de autorregresión.
Usado con frecuencia
También se utilizan los siguientes criterios
- Validación cruzada
- Criterios de desviación de información (DIC), otro criterio de selección del modelo bayesiano
- Criterio de determinación eficiente ( EDC )
- Tasa de falsos positivos
- Focused Information Criterion (FIC), un criterio para seleccionar modelos estadísticos por su desempeño para un parámetro dado
- Prueba de razón de verosimilitud , una prueba estadística utilizada para probar las restricciones sobre los parámetros de los modelos estadísticos estimados a partir de datos de muestra.
- Mallows C p statistic . Se cree que para un buen modelo, esta estadística debe tomar valores cercanos al número de parámetros del modelo (incluido el intercepto) [5] .
- El principio de longitud mínima de descripción ( teoría de la información algorítmica ) es una formalización de la navaja de Occam, en la que la mejor hipótesis (modelo y sus parámetros) para un conjunto de datos determinado es la que conduce a una mejor compresión de datos.
- Mensaje de longitud mínima ( Teoría de la información algorítmica )
- Minimización de riesgos estructurales
- Regresión paso a paso . El objetivo de la regresión por pasos es seleccionar de un gran número de predicados un pequeño subconjunto de variables que contribuyen más a la variación de la variable dependiente.
- Watanabe-Akaike Information Criteria (WAIC), un criterio de información con amplia aplicación
Véase también
Notas
- ↑ Konishi, Kitagawa, 2008 , pág. 75.
- ↑ Cox, 2006 , pág. 197.
- ↑ Burnham, Anderson, 2002 .
- ↑ 1 2 3 4 Criterios de información . Consultado el 30 de diciembre de 2018. Archivado desde el original el 14 de abril de 2018. (indefinido)
- ↑ Malvas, 1973 , p. 661-675.
Literatura
- Mallows CL Algunos comentarios sobre CP // Tecnometría. - 1973. - T. 15 , núm. 4 . -doi : 10.2307/ 1267380 .
- Aho K., Derryberry D., Peterson T. Selección de modelos para ecologistas: las cosmovisiones de AIC y BIC // Ecología . - 2014. - T. 95 . — S. 631–636 . -doi : 10.1890/ 13-1452.1 .
- Anderson DR Inferencia basada en modelos en las ciencias de la vida . — Springer, 2008.
- Ando T. Selección de modelos bayesianos y modelado estadístico. — Prensa CRC , 2010.
- Leo Breman . Modelado estadístico: las dos culturas // Ciencia Estadística . - 2001. - T. 16 . — S. 199–231 . -doi :/ ss/1009213726 .
- Burnham KP, Anderson DR Selección de modelos e inferencia de modelos múltiples: un enfoque teórico práctico de la información. — 2do. - Springer-Verlag, 2002. - ISBN 0-387-95364-7 . [libro citado más de 38.000 veces en Google Scholar ]
- Chamberlin TC El método de múltiples hipótesis de trabajo // Ciencia . - 1890. - T. 15 . - S. 93 . - doi : 10.1126/science.ns-15.366.92 . — . (Reimpreso en 1965, Science 148: 754-759 [1] doi : 10.1126/science.148.3671.754 )
- Gerda Claeskens. Elección del modelo estadístico // Revista Anual de Estadísticas y su Aplicación . - 2016. - T. 3 . — S. 233–256 . - doi : 10.1146/annurev-statistics-041715-033413 . — . (enlace no disponible)
- Claeskens G., Hjort NL Selección de modelos y promediación de modelos. - Cambridge University Press, 2008. - (SERIE DE CAMBRIDGE EN MATEMÁTICAS ESTADÍSTICAS Y PROBABILÍSTICAS). — ISBN 978-0-521-85225-8 .
- Principios de Inferencia Estadística. - Prensa de la Universidad de Cambridge, 2006. - ISBN 0-511-34858-4 .
- Konishi S., Kitagawa G. Criterios de información y modelado estadístico . - Springer, 2008. - ISBN 978-0-387-71886-6 .
- Selección de modelos / Lahiri P.. - Beachwood, Ohio: Instituto de Estadística Matemática , 2001. - Vol. 38. - (NOTAS DE CLASE-SERIE DE MONOGRAFÍAS). — ISBN 0-940600-52-8 .
- Leeb H., Pötscher BM Selección de modelos // Manual de series temporales financieras / Torben G. Andersen, Richard A. Davis, Jens-Peter Kreiß, Thomas Mikosch. - Springer, 2009. - S. 889-925. — ISBN 978-3-540-71296-1 . -doi : 10.1007 / 978-3-540-71297-8_39 .
- Lukacs PM, Thompson WL, Kendall WL, Gould WR, Doherty PF Jr., Burnham KP, Anderson DR Inquietudes sobre un llamado al pluralismo de la teoría de la información y la prueba de hipótesis // Journal of Applied Ecology . - 2007. - T. 44 , núm. 2 . — S. 456–460 . -doi : 10.1111 / j.1365-2664.2006.01267.x .
- Allan D.R. McQuarrie, Chih-Ling Tsai. Selección de modelos de regresión y series temporales. - Singapur: World Scientific, 1998. - ISBN 981-02-3242-X .
- Massart P. Desigualdades de concentración y selección de modelos / Editor: Jean Picard. - Springer, 2007. - T. 1896. - (Lecture Notes in Mathematics). — ISBN 3-540-48497-3 .
- Massart P. Un paseo no asintótico en probabilidad y estadística // Pasado, presente y futuro de la ciencia estadística. - Chapman & Hall , 2014. - págs. 309-321.
- Paulo Angelo Alves Resende, Chang Chung Yu Dorea. Identificación de modelos utilizando el Criterio de Determinación Eficiente // Journal of Multivariate Analysis . - 2016. - T. 150 . — S. 229–244 . -doi : 10.1016/ j.jmva.2016.06.002 .
- Shmueli G. ¿ Explicar o predecir? // Ciencias Estadísticas . - 2010. - T. 25 . — S. 289–310 . -doi : 10.1214 / 10-STS330 . -arXiv : 1101.0891 . _
- Wit E., van den Heuvel E., Romeijn J.-W. 'Todos los modelos están equivocados...': una introducción a la incertidumbre del modelo // Statistica Neerlandica. - 2012. - T. 66 . — S. 217–236 . -doi : 10.1111 / j.1467-9574.2012.00530.x .
- Wit E., McCullagh P. La extensibilidad de los modelos estadísticos // Métodos algebraicos en estadística y probabilidad / MAG Viana, D. St. P.Richards. - 2001. - S. 327-340.
- Anna Wojtowicz, Tomasz Bigaj. Justificación, confirmación y el problema de las hipótesis mutuamente excluyentes // Descubriendo hechos y valores / Adrian Kuźniar, Joanna Odrowąż-Sypniewska. - Brill Publishers , 2016. - S. 122-143. -doi : 10.1163 / 9789004312654_009 .