Estadísticas bayesianas

La estadística bayesiana es una teoría en el campo de la estadística basada en la interpretación bayesiana de la probabilidad , donde la probabilidad refleja el grado de confianza en un evento , que puede cambiar cuando se recopila nueva información, a diferencia de un valor fijo basado en un enfoque de frecuencia. [1] . El grado de confianza se puede basar en un conocimiento a priori sobre el evento, como los resultados de experimentos anteriores o la confianza personal en el evento. Esto difiere de otras interpretaciones de la probabilidad , como la interpretación de la frecuencia , que ve la probabilidad como un límite a la frecuencia relativa de un evento que ocurre después de un gran número de intentos [2] .

Introducción

Los métodos estadísticos bayesianos utilizan el teorema de Bayes para calcular y actualizar las probabilidades cuando se reciben nuevos datos. El teorema de Bayes describe la probabilidad condicional de un evento en función de los datos y la información a priori, o la confianza en el evento o las condiciones asociadas con el evento. Por ejemplo, en la inferencia bayesiana , el teorema de Bayes se puede utilizar para estimar un parámetro de una distribución de probabilidad o un modelo estadístico . Dado que las estadísticas bayesianas tratan la probabilidad como un grado de confianza, el teorema de Bayes puede asignar directamente una distribución de probabilidad que cuantifique un parámetro o un conjunto de parámetros [2] .

La estadística bayesiana lleva el nombre de Thomas Bayes , quien formuló un caso especial del teorema de Bayes en su artículo publicado en 1763. En varios artículos publicados desde finales del siglo XVIII hasta principios del siglo XIX, Pierre-Simon Laplace desarrolló la interpretación bayesiana de la probabilidad . . Laplace utilizó lo que ahora se consideran métodos bayesianos para resolver una serie de problemas estadísticos. Muchos métodos bayesianos fueron desarrollados por autores posteriores, pero el término no se usó para describir dichos métodos hasta la década de 1950. Durante la mayor parte del siglo XX, los métodos bayesianos no fueron deseables para la mayoría de los estadísticos por razones filosóficas y prácticas. Muchos métodos bayesianos son computacionalmente intensivos y la mayoría de los métodos que se han utilizado durante más de un siglo se han basado en la interpretación de frecuencias. Sin embargo, con la llegada de potentes ordenadores y nuevos algoritmos , como el método de Monte Carlo para cadenas de Markov , los métodos bayesianos empiezan a utilizarse con una intensidad cada vez mayor con la llegada del siglo XXI [2] [3] .

Teorema de Bayes

El teorema de Bayes es un teorema fundamental en las estadísticas bayesianas porque los métodos bayesianos lo utilizan para actualizar las probabilidades, que son grados de confianza, cuando se reciben nuevos datos. Dados dos eventos y , la probabilidad condicional , siempre que sea cierto, se expresa mediante la fórmula [4] :

donde _ Aunque el teorema de Bayes es un resultado fundamental de la teoría de la probabilidad , tiene una interpretación específica en la estadística bayesiana. En la ecuación anterior , por lo general representa una afirmación (como la afirmación de que una moneda saldrá cara el cincuenta por ciento de las veces) y representa una justificación, o nuevos datos a tener en cuenta (como el resultado de una serie de lanzamientos de monedas). es la probabilidad previa del evento , que expresa la confianza en el evento antes de que se tenga en cuenta la justificación. La probabilidad previa también puede cuantificar el conocimiento o la información sobre un evento . es la función de verosimilitud , que puede interpretarse como la probabilidad de evidencia , dado que el evento ha ocurrido . La probabilidad cuantifica la medida en que la evidencia respalda una afirmación . es la probabilidad posterior , la probabilidad de la afirmación después de considerar la evidencia . Esencialmente, el teorema de Bayes actualiza la certeza a priori después de considerar nueva evidencia [2] .

La probabilidad de evidencia se puede calcular utilizando la fórmula de probabilidad total . Si es una partición del espacio de eventos elementales , que es el conjunto de todos los resultados del experimento, entonces [2] [4]

Si hay un número infinito de resultados, es necesario integrar todos los resultados para calcular utilizando la fórmula de probabilidad total. A menudo es difícil de calcular porque uno tiene que involucrar la suma o la integración, lo que lleva mucho tiempo, por lo que a menudo solo se considera el producto del anterior y la probabilidad. La probabilidad posterior es proporcional a este producto [2] :

La estimación posterior máxima , que es la moda de la estimación posterior y, a menudo, se calcula en las estadísticas bayesianas utilizando métodos de optimización matemática , sigue siendo la misma. La probabilidad posterior se puede aproximar incluso sin el cálculo exacto del valor mediante métodos como Monte Carlo para cadenas de Markov o métodos bayesianos variacionales [2] .

Métodos bayesianos

El conjunto general de técnicas estadísticas se puede dividir en varias ramas, muchas de las cuales tienen versiones bayesianas especiales.

Inferencia bayesiana

La inferencia bayesiana se refiere a la inferencia estadística , en la que la incertidumbre en la inferencia se cuantifica mediante la probabilidad. En la inferencia de frecuencia clásica , se supone que los parámetros del modelo y la hipótesis son fijos, y no se asignan probabilidades a los parámetros o hipótesis en la inferencia de frecuencia. Por ejemplo, no tiene sentido en la inferencia de frecuencia indicar explícitamente la probabilidad de un evento que solo puede ocurrir una vez, como el resultado del próximo lanzamiento de una moneda simétrica. Sin embargo, tendría sentido decir que la proporción de caras converge a la mitad a medida que aumenta el número de lanzamientos de monedas [5] .

Los modelos estadísticos definen un conjunto de suposiciones y procesos estadísticos que representan cómo se generan los datos de muestra. Los modelos estadísticos tienen un conjunto de parámetros que se pueden cambiar. Por ejemplo, una moneda se puede representar como ensayos con una distribución de Bernoulli que simulan dos resultados posibles. La distribución de Bernoulli tiene un parámetro igual a la probabilidad de un resultado, que en la mayoría de los casos es igual a la probabilidad de obtener cara [6] . Construir un buen modelo para los datos es fundamental para la inferencia bayesiana. En la mayoría de los casos, los modelos solo aproximan procesos reales y pueden no tener en cuenta algunos factores que afectan los datos [2] . En la inferencia bayesiana, se pueden asignar probabilidades a los parámetros del modelo. Los parámetros se pueden representar como variables aleatorias . La inferencia bayesiana utiliza el teorema de Bayes para actualizar las probabilidades después de recibir más datos [2] [7] .

Modelado estadístico

La formulación de modelos estadísticos utilizando estadísticas bayesianas tiene la característica distintiva de requerir probabilidades previas para cualquier parámetro desconocido. Además, los parámetros de probabilidades previas pueden tener probabilidades previas, lo que da como resultado un modelo jerárquico bayesiano [8] , o pueden ser interdependientes, lo que da como resultado redes bayesianas .

Diseño de experimentos

El diseño bayesiano de experimentos incluye un concepto llamado "influencia de confianza previa". Este enfoque utiliza técnicas de análisis estadístico para incorporar los resultados de experimentos anteriores en el diseño del próximo experimento. Esto se logra actualizando la "confianza" mediante el uso de distribuciones anteriores y posteriores . Esto le permite utilizar recursos de todo tipo al planificar experimentos. Un ejemplo es el problema del bandido armado .

Gráficos estadísticos

Los gráficos estadísticos incluyen métodos para la exploración de datos, la validación de la adecuación del modelo, etc. El uso de algunas técnicas informáticas modernas para la inferencia bayesiana, especialmente varios tipos de técnicas de Monte Carlo para cadenas de Markov , ha llevado a la necesidad de verificar, a menudo gráficamente, la idoneidad de tales cálculos, reflejando la probabilidad posterior requerida.

Notas

  1. ¿Qué son las estadísticas bayesianas? . deepai.org . Consultado el 11 de enero de 2019. Archivado desde el original el 12 de febrero de 2019.
  2. 1 2 3 4 5 6 7 8 9 Gelman, Carlin, Stern et al., 2013 .
  3. Fienberg, 2006 , pág. 1–40.
  4. 1 2 Grinstead, Snell, 2006 .
  5. Wakefield, 2013 .
  6. Esto se refiere al lado de la moneda, el otro lado es cruz
  7. Congdon, 2014 .
  8. Hajiramezanali, Dadaneh et al., 2018 .

Literatura

Lectura para leer más

Enlaces