Paradoja de Berkson , error del colisionador : la posición de las estadísticas matemáticas , formulada por J. Berkson ( inglés Joseph Berkson ) en 1946. Enunciado: Dos eventos independientes pueden volverse condicionalmente dependientes si ocurre algún tercer evento . Esta conclusión es contradictoria para algunas personas y, por lo tanto, puede describirse como una paradoja . El tercer evento, que puede hacer que los dos primeros eventos sean condicionalmente dependientes, se llama colisionador . La paradoja de Berkson se describe a menudo en el campo de la estadística médica o bioestadística . Es un factor de complicación que aparece en las pruebas estadísticas de razones.
La misma paradoja se menciona en la teoría de las redes neuronales artificiales como una explicación pasajera , un efecto de justificación o una reducción de la causa ( ing. explicando lejos ) [1] [2] .
Investigaremos las estadísticas de una selección aleatoria de sellos postales de un conjunto, considerando dos propiedades independientes del sello: "rareza" y "belleza".
Supongamos que hay 1000 sellos, entre los cuales 300 son hermosos, 100 son raros y 30 son hermosos y raros. Obviamente, de todo el conjunto, el 10% de los sellos son raros, pero de todos los hermosos sellos, el 10% también son raros, es decir, la belleza del sello no dice nada sobre su rareza.
Sin embargo, si seleccionamos de todo el conjunto (1000) todos los sellos hermosos y todos los sellos raros (hay 370 sellos de este tipo), entonces en esta muestra de sellos raros ya habrá un 27% (100 de 370), pero de entre los hermosos sellos todavía habrá solo el 10 % (30 de 300). Entonces, el observador, al analizar dicha muestra (y no todo el conjunto), verá una aparente relación inversa entre la belleza y la rareza de la marca (si la marca es hermosa, entonces la probabilidad de su rareza es menor). Pero en realidad no existe tal conexión.
El resultado descrito es matemáticamente completamente correcto, su "paradoja" está asociada con las peculiaridades de la percepción de las personas que tienden a creer intuitivamente que si dos parámetros son independientes, lo siguen siendo en cualquier muestra. En realidad, en el caso de sesgos de selección entre parámetros independientes, pueden surgir dependencias condicionales que, cuando se extienden a toda la población , conducen a graves errores de análisis.
Deje que se dé la red neuronal artificial bayesiana más simple con una función de activación sigmoidea , que contenga dos eventos independientes (razones) por las que ocurrirá un tercer evento: la casa se estremecerá. Un sesgo de -10 en la neurona del evento del terremoto significa que, en ausencia de observaciones y conocimiento a priori, es mucho más probable que este evento no suceda a que suceda. Si ocurre un evento de terremoto, pero no ocurre un evento de camión, entonces la neurona del evento de sacudida de la casa tiene una entrada total de 0, lo que significa que la probabilidad de que ocurra el evento (es decir, la activación de la neurona) es 0.5. Así, si tenemos una observación del evento “la casa está temblando”, entonces la mejor explicación para este hecho es la ocurrencia de una de las causas del evento. Sin embargo, es ilógico suponer que ambos eventos de causa ocurrieron a la vez para explicar el evento de sacudir la casa, ya que la probabilidad de que ocurran simultáneamente es igual a . Por lo tanto, si observamos un evento de sacudida de la casa y sabemos qué sucedió, por ejemplo, un evento que causó un terremoto, entonces esto arroja una explicación ( explicando , reduce la causa) de que el camión tuvo la culpa de la sacudida de la casa [3 ] .