Inferencia bayesiana
La inferencia bayesiana es una inferencia estadística en la que la evidencia y/o la observación se utilizan para actualizar o volver a inferir la probabilidad de que una hipótesis sea cierta; el nombre bayesiano proviene del uso frecuente en el proceso de derivación del teorema de Bayes , que se derivó del trabajo del reverendo Thomas Bayes [1] .
Testimonio y cambio de fe
La inferencia bayesiana utiliza aspectos del método científico que involucran la recopilación de evidencia diseñada para respaldar o no una hipótesis dada . A medida que se acumula la evidencia, el grado de creencia en la hipótesis debe cambiar. Con suficiente evidencia, debería llegar a ser muy alto o muy bajo. Por lo tanto, los defensores de la inferencia bayesiana dicen que se puede usar para distinguir entre hipótesis en conflicto: las hipótesis con un apoyo muy alto deben aceptarse como verdaderas, mientras que aquellas con un apoyo muy bajo deben rechazarse como falsas. Sin embargo, los opositores dicen que este método de inferencia puede conducir a un sesgo debido a la creencia subyacente que uno tiene antes de que se recopile cualquier evidencia (esta es una forma del llamado sesgo inductivo ) . [una]
La inferencia bayesiana utiliza una puntuación sobre el grado de creencia en una hipótesis antes de que se obtenga la evidencia para calcular una puntuación sobre el grado de creencia en una hipótesis después de que se haya recibido la evidencia (este proceso se repite cuando se obtiene evidencia adicional). En el proceso de inducción, la inferencia bayesiana generalmente se basa en grados de creencia o probabilidades subjetivas, y no necesariamente afirma que se proporcione un método objetivo de inducción. Sin embargo, algunos estadísticos bayesianos creen que las probabilidades pueden tener un valor objetivo y, por lo tanto, la inferencia bayesiana puede proporcionar un método objetivo de inducción (ver método científico ). [una]
El teorema de Bayes modifica la probabilidad de la hipótesis dada por la nueva evidencia de la siguiente manera:
dónde
representa una hipótesis particular, que puede o no ser una hipótesis nula.
llamada probabilidad previa , que se derivó antes de que se dispusiera de nueva evidencia.

llamada probabilidad condicional de observar la evidencia si la hipótesis resulta ser cierta; también se le llama función de verosimilitud cuando se considera como una función para .



llamada probabilidad marginal : la probabilidad previa de observar nueva evidencia bajo todas las hipótesis posibles; se puede calcular a partir de la fórmula de probabilidad total :


- como la suma de los productos de todas las probabilidades de cualquier conjunto completo de hipótesis mutuamente excluyentes y las correspondientes probabilidades condicionales.
Ejemplos simples de inferencia bayesiana
¿De qué florero son las galletas?
Para ilustrar, supongamos que hay dos tazones llenos de galletas. El primer jarrón contiene 10 chocolates y 30 galletas simples, mientras que el segundo jarrón contiene 20 de cada uno. Nuestro amigo Fred elige un jarrón al azar y luego elige una galleta al azar. Podemos suponer que no hay razón para creer que Fred prefiera un jarrón sobre otro, y lo mismo ocurre con las galletas. La galleta elegida por Fred resulta ser simple. ¿Qué probabilidad hay de que Fred lo haya elegido del primer jarrón?
Intuitivamente, parece claro que la respuesta debe ser más de la mitad, ya que hay más galletas simples en el primer florero. La respuesta exacta la da el teorema de Bayes. Sea la elección del jarrón 1 y la elección del jarrón 2. Se supone que los jarrones son idénticos desde el punto de vista de Fred, por lo que , y juntos deben ser 1, por lo que ambos valen 0,5.



El evento es la observación de una simple cookie. Por el contenido de los jarrones, sabemos que y .



La fórmula de Bayes da entonces
Antes de que observáramos las galletas, la probabilidad que le asignábamos a Fred de elegir el primer jarrón era de 0,5 a priori. Después de observar la galleta, tenemos que revisar la probabilidad , que ahora es 0,6. [una]
Notas
- ↑ 1 2 3 4 5 Science Wiki, Inferencia bayesiana. . Consultado el 7 de junio de 2015. Archivado desde el original el 18 de abril de 2015. (indefinido)
Literatura
- Libro de texto en línea: Teoría de la información, inferencia y algoritmos de aprendizaje Archivado el 17 de febrero de 2016 en Wayback Machine , por David MacKay, tiene capítulos sobre métodos bayesianos, incluidos ejemplos; argumentos a favor de los métodos bayesianos (al estilo de Edwin Jaynes ); métodos modernos de Monte Carlo, métodos de paso de mensajes y métodos variacionales ; y ejemplos que ilustran las conexiones entre la inferencia bayesiana y la compresión de datos .
- Berger, JO (1999) Teoría de la decisión estadística y análisis bayesiano. segunda edicion. Springer Verlag, Nueva York. ISBN 0-387-96098-8 y también ISBN 3-540-96098-8 .
- Bolstad, William M. (2004) Introducción a la estadística bayesiana, John Wiley ISBN 0-471-27020-2
- Bretthorst, G. Larry, 1988, análisis de espectro bayesiano y estimación de parámetros . Archivado el 14 de mayo de 2011 en Wayback Machine en Lecture Notes in Statistics, 48, Springer-Verlag, Nueva York, Nueva York.
- Carlin, BP y Louis, TA (2008) Métodos bayesianos para el análisis de datos, tercera edición. Chapman & Hall/CRC. [una]
- Dawid, AP y Mortera, J. (1996) Análisis coherente de la evidencia de identificación forense. Revista de la Royal Statistical Society , Serie B, 58,425-443.
- Foreman, LA; Smith, AFM y Evett, IW (1997). Análisis bayesiano de datos de perfiles de ácido desoxirribonucleico en aplicaciones de identificación forense (con discusión). Revista de la Royal Statistical Society, Serie A, 160, 429-469.
- Gardner-Medwin, A. ¿Qué probabilidad debe abordar el jurado? . Significado. Volumen 2, número 1, marzo de 2005
- Gelman, A., Carlin, J., Stern, H. y Rubin, D.B. (2003). Análisis de datos bayesianos. segunda edicion. Chapman & Hall/CRC, Boca Ratón, Florida. ISBN 1-58488-388-X .
- Gelman, A. y Meng, XL (2004). Modelado Bayesiano Aplicado e Inferencia Causal desde Perspectivas de Datos Incompletos: un viaje esencial con la familia estadística de Donald Rubin. John Wiley & Sons, Chichester, Reino Unido. ISBN 0-470-09043-X
- Giffin, A. y Caticha, A. (2007) Actualización de probabilidades con datos y momentos Archivado el 13 de diciembre de 2015 en Wayback Machine .
- Jaynes, ET (1998) Probability Theory: The Logic of Science Archivado el 8 de noviembre de 2020 en Wayback Machine .
- Lee, Peter M. Estadística bayesiana: una introducción. segunda edicion. (1997). ISBN 0-340-67785-6 .
- Loredo, Thomas J. (1992) "Promesa de inferencia bayesiana en astrofísica" en Desafíos estadísticos en astronomía moderna , ed. Feigelson y Babu.
- O'Hagan, A. y Forster, J. (2003) Teoría avanzada de estadísticas de Kendall, Volumen 2B: Inferencia bayesiana. Arnold, Nueva York. ISBN 0-340-52922-9 .
- Pearl, J. (1988) Razonamiento probabilístico en sistemas inteligentes, San Mateo, CA: Morgan Kaufmann.
- Robert, CP (2001) La elección bayesiana. Springer Verlag, Nueva York.
- Robertson, B. y Vignaux, GA (1995) Interpretación de la evidencia: evaluación de la ciencia forense en la sala del tribunal. John Wiley e hijos. Chichester.
- Winkler, Robert L, Introducción a la inferencia y decisión bayesianas, 2.ª edición (2003) Probabilística. ISBN 0-9647938-4-9
- Ensayo de Scientific American sobre la inferencia bayesiana y la probabilidad de la existencia de Dios por Chris Wiggins Archivado el 30 de abril de 2015 en Wayback Machine .
- Un buen tutorial de introducción en línea a la probabilidad bayesiana . Archivado el 4 de mayo de 2009 en Wayback Machine de la Universidad Queen Mary de Londres .
- Una explicación intuitiva del razonamiento bayesiano El teorema de Bayes para curiosos y desconcertados; una introducción insoportablemente suave de Eliezer Yudkowsky
- Pablo Graham. "A Plan for Spam" Archivado el 4 de abril de 2004 en Wayback Machine (exposición de un enfoque popular para la clasificación de spam)