La probabilidad bayesiana es una interpretación del concepto de probabilidad utilizado en la teoría bayesiana. La probabilidad se define como el grado de confianza en la verdad de una proposición . Para determinar el grado de confianza en la veracidad de un juicio al recibir nueva información, la teoría bayesiana utiliza el teorema de Bayes .
La teoría bayesiana y la probabilidad bayesiana llevan el nombre de Thomas Bayes (1702-1761), quien demostró un caso especial del teorema que ahora se llama teorema de Bayes . El término "bayesiano" comenzó a usarse alrededor de 1950 , y la mayor parte de lo que ahora se llama "bayesiano" no está directamente relacionado con Bayes. Laplace demostró un caso más general del teorema de Bayes y lo utilizó para resolver problemas de mecánica celeste y estadísticas médicas. Laplace, sin embargo, no consideró importante este teorema para el desarrollo de la teoría de la probabilidad. Se adhirió a la definición clásica de probabilidad .
Frank Ramsey , en The Foundations of Mathematics (1931), fue el primero en plantear la idea de utilizar la certeza subjetiva para determinar la probabilidad. Ramsey propuso esta definición como una adición a la definición de frecuencia , que estaba más desarrollada en ese momento. El estadístico Bruno de Finetti aplicó las ideas de Ramsey en 1937 como alternativa a la determinación de la frecuencia. Leonard Savage amplió esta idea en The Foundations of Statistics (1954).
Ha habido intentos de definir formalmente el concepto intuitivo de "grado de certeza". La definición más general se basa en una apuesta : el grado de certeza se refleja en la cantidad de apuesta que uno está dispuesto a apostar a que una proposición es verdadera.
Variaciones en la Interpretación Bayesiana de la Probabilidad: Probabilidad Subjetiva y Probabilidad Lógica .
La probabilidad bayesiana se contrasta con la probabilidad de frecuencia , en la que la probabilidad está determinada por la frecuencia relativa de ocurrencia de un evento aleatorio durante observaciones suficientemente largas.
La estadística matemática , basada en la probabilidad de frecuencia , fue desarrollada por R. A. Fisher , E. Pearson y E. Neumann en la primera mitad del siglo XX. A. Kolmogorov también utilizó la interpretación de frecuencia al describir su axiomática basada en la integral de Lebesgue .
La diferencia entre la interpretación bayesiana y la frecuencia juega un papel importante en las estadísticas prácticas. Por ejemplo, al comparar dos hipótesis sobre los mismos datos, la teoría de la prueba de hipótesis estadística , basada en la interpretación de frecuencias, permite rechazar o no los modelos de hipótesis. Al mismo tiempo, un modelo adecuado puede ser rechazado por el hecho de que otro modelo parece más adecuado en estos datos. Los métodos bayesianos, por el contrario, en función de los datos de entrada, dan la probabilidad posterior de ser adecuados para cada una de las hipótesis.
Desde la década de 1950, la teoría bayesiana y la probabilidad bayesiana se han aplicado ampliamente mediante, por ejemplo, el teorema de Cox y el principio de máxima entropía . Para muchos[ ¿Qué? ] , los métodos bayesianos dan mejores resultados que los métodos basados en probabilidad de frecuencia .
La teoría bayesiana se utiliza como método para adaptar las probabilidades existentes a los datos experimentales recién obtenidos.
La teoría bayesiana se utiliza para construir filtros inteligentes utilizados, por ejemplo, para filtrar correos electrónicos no deseados.
Un detalle desagradable asociado con el uso de la probabilidad bayesiana es que no es suficiente especificar la probabilidad para comprender su naturaleza. Considere las siguientes situaciones:
La probabilidad bayesiana de "sacar la siguiente bola negra" en cada uno de estos casos es 0,5. Keynes llamó a esto el problema del "grado de certeza". Este problema se puede resolver introduciendo la probabilidad de una probabilidad (llamada metaprobabilidad ).
1. Suponga que tiene una caja de bolas blancas y negras y no tiene información sobre cuántas bolas de qué color hay en ella. Let -this es una afirmación de que la probabilidad de sacar una bola negra a continuación es , entonces la distribución de probabilidad será una distribución beta : Suponiendo que los sorteos de bolas son independientes y equiprobables, la distribución de probabilidad , después de sacar m bolas negras y n bolas blancas, también será una distribución Beta con parámetros , . 2. Supongamos que ha sacado bolas de una caja , la mitad de ellas resultaron ser negras y el resto, blancas. En este caso, la distribución de probabilidad será una distribución beta . La expectativa máxima a posteriori es . 3. Sabes que exactamente la mitad de las bolas son negras y el resto son blancas. En este caso, la probabilidad es 0,5 con una probabilidad de 1: .