Paradoja de Berkson

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 9 de diciembre de 2021; las comprobaciones requieren 2 ediciones .

Paradoja de Berkson , error del colisionador  : la posición de las estadísticas matemáticas , formulada por J. Berkson ( inglés  Joseph Berkson ) en 1946. Enunciado: Dos eventos independientes pueden volverse condicionalmente dependientes si ocurre algún tercer evento . Esta conclusión es contradictoria para algunas personas y, por lo tanto, puede describirse como una paradoja . El tercer evento, que puede hacer que los dos primeros eventos sean condicionalmente dependientes, se llama colisionador . La paradoja de Berkson se describe a menudo en el campo de la estadística médica o bioestadística . Es un factor de complicación que aparece en las pruebas estadísticas de razones.

La misma paradoja se menciona en la teoría de las redes neuronales artificiales como una explicación pasajera , un efecto de justificación o una reducción de la causa ( ing.  explicando lejos ) [1] [2] .

Formal definición

si 0 < P( A ) < 1 y 0 < P( B ) < 1, donde A y B son algunos eventos, y P( A | B ) = P( A ) (es decir, los eventos son independientes), entonces P( A | B , C ) < P( A | C ) donde C = A ∪ B (es decir, A o B ).

Una ilustración basada en un ejemplo de estadística matemática

Investigaremos las estadísticas de una selección aleatoria de sellos postales de un conjunto, considerando dos propiedades independientes del sello: "rareza" y "belleza".

Supongamos que hay 1000 sellos, entre los cuales 300 son hermosos, 100 son raros y 30 son hermosos y raros. Obviamente, de todo el conjunto, el 10% de los sellos son raros, pero de todos los hermosos sellos, el 10% también son raros, es decir, la belleza del sello no dice nada sobre su rareza.

Sin embargo, si seleccionamos de todo el conjunto (1000) todos los sellos hermosos y todos los sellos raros (hay 370 sellos de este tipo), entonces en esta muestra de sellos raros ya habrá un 27% (100 de 370), pero de entre los hermosos sellos todavía habrá solo el 10 % (30 de 300). Entonces, el observador, al analizar dicha muestra (y no todo el conjunto), verá una aparente relación inversa entre la belleza y la rareza de la marca (si la marca es hermosa, entonces la probabilidad de su rareza es menor). Pero en realidad no existe tal conexión.

El resultado descrito es matemáticamente completamente correcto, su "paradoja" está asociada con las peculiaridades de la percepción de las personas que tienden a creer intuitivamente que si dos parámetros son independientes, lo siguen siendo en cualquier muestra. En realidad, en el caso de sesgos de selección entre parámetros independientes, pueden surgir dependencias condicionales que, cuando se extienden a toda la población , conducen a graves errores de análisis.

Ilustración sobre un ejemplo de la teoría de redes neuronales

Deje que se dé la red neuronal artificial bayesiana más simple con una función de activación sigmoidea , que contenga dos eventos independientes (razones) por las que ocurrirá un tercer evento: la casa se estremecerá. Un sesgo de -10 en la neurona del evento del terremoto significa que, en ausencia de observaciones y conocimiento a priori, es mucho más probable que este evento no suceda a que suceda. Si ocurre un evento de terremoto, pero no ocurre un evento de camión, entonces la neurona del evento de sacudida de la casa tiene una entrada total de 0, lo que significa que la probabilidad de que ocurra el evento (es decir, la activación de la neurona) es 0.5. Así, si tenemos una observación del evento “la casa está temblando”, entonces la mejor explicación para este hecho es la ocurrencia de una de las causas del evento. Sin embargo, es ilógico suponer que ambos eventos de causa ocurrieron a la vez para explicar el evento de sacudir la casa, ya que la probabilidad de que ocurran simultáneamente es igual a . Por lo tanto, si observamos un evento de sacudida de la casa y sabemos qué sucedió, por ejemplo, un evento que causó un terremoto, entonces esto arroja una explicación ( explicando , reduce la causa) de que el camión tuvo la culpa de la sacudida de la casa [3 ] .  

Notas

  1. Introducción a las redes bayesianas  / S. A. Terekhov // Sesión científica MEPhI-2003. V Conferencia científica y técnica de toda Rusia Neuroinformática-2003: Conferencias sobre neuroinformática / Ed. edición Yu. V. Tyumentsev (candidato de ciencias técnicas). - M.  : MEPhI, 2003. - Parte 1. - S. 154. - 188 p. : enfermo. — SRNTI 28.23.27. -BBK  32.818ya5 . _ - CDU  004.81.032.26 (063) . — ISBN 5-7262-0471-9 .
  2. Conferencia 1 "Redes bayesianas y de Markov" Copia de archivo fechada el 14 de julio de 2014 en Wayback Machine D. P. Vetrov D. A. Kropotov A. A. Osokin. - Departamento de la Universidad Estatal de Moscú, VMiK. Curso MMP CC RAS ​​"Modelos gráficos"
  3. Hinton, G. E.; Osindero, S.; Teh, Y. Un algoritmo de aprendizaje rápido para redes de creencias profundas  (indefinido)  // Computación neuronal. - 2006. - T. 18 , N º 7 . - S. 1527-1554 . -doi : 10.1162/ neco.2006.18.7.1527 . —PMID 16764513 .

Literatura

Véase también