Modelo causal

Modelo causal , modelo causal  es un modelo conceptual que describe los mecanismos causales de un sistema. Los modelos causales pueden mejorar la calidad de la investigación al proporcionar reglas claras para incluir variables independientes en el análisis [2] . Pueden permitir que se respondan algunas preguntas con base en los datos observacionales existentes sin la necesidad de un estudio de intervención como un ensayo controlado aleatorizado . Algunos estudios de intervención no son adecuados por razones éticas o prácticas, lo que significa que sin un modelo causal, algunas hipótesis no pueden probarse [3] .

Los modelos causales pueden ayudar a abordar la cuestión de la validez externa (si los resultados de un estudio se aplican a grupos inexplorados). Los modelos causales pueden permitir que se combinen datos de múltiples estudios para responder preguntas que ningún conjunto de datos único puede responder. Los modelos causales son falsables y, si no se ajustan a los datos, deben rechazarse como inválidos. También deben ser comprensibles para aquellos que están cerca de los fenómenos que el modelo pretende explicar [4] .

Los modelos causales tienen aplicaciones en procesamiento de señales , epidemiología y aprendizaje automático . Según Judah Pearl , expresado en The  Book of Why , 2018, los modelos causales son un elemento necesario en el desarrollo de una inteligencia artificial fuerte [5] .

Definición

Los modelos causales son modelos matemáticos que representan relaciones causales dentro de un sistema o grupo en particular. Facilitan la inferencia de relaciones causales a partir de datos estadísticos. Pueden decirnos mucho sobre la epistemología de la causalidad y la relación entre causalidad y probabilidad . También se han aplicado a temas de interés para los filósofos, como la teoría de la decisión y el análisis de la causalidad fáctica [6] .

Judah Pearl define un modelo causal como un triple ordenado , donde  es un conjunto de variables exógenas cuyos valores están determinados por factores fuera del modelo;  — un conjunto de variables endógenas cuyos valores están determinados por factores dentro del modelo; y  es un conjunto de ecuaciones estructurales que expresan el valor de cada variable endógena en función de los valores de otras variables en y [7] .

Historia

Aristóteles definió una taxonomía de causalidad , que incluye causas materiales, formales, eficientes y finales. Hume rechazó el enfoque de Aristóteles a favor del pensamiento contrafáctico. En un momento negó que los objetos tengan "poderes" que hagan de uno de ellos una causa y del otro un efecto. Sin embargo, más tarde adoptó la afirmación: "si el primer objeto no existiera, el segundo nunca existiría" (una condición necesaria para la causalidad) [8] .

A fines del siglo XIX, la estadística comenzó a tomar forma como disciplina científica. Después de años de esfuerzos para identificar reglas causales para áreas como la herencia biológica , Galton introdujo el concepto de regresión a la media (observando el síndrome del estudiante de segundo año en los deportes), que luego lo llevó al concepto no causal de correlación .

Karl Pearson , siendo positivista , excluyó el concepto de causalidad de la mayor parte de la ciencia como un caso especial de asociación no demostrable e introdujo el coeficiente de correlación como una métrica de asociación. Escribió: "La fuerza como causa del movimiento es exactamente lo mismo que el dios del árbol como causa del crecimiento", y esa causalidad era solo "un fetiche entre los misterios incomprensibles de la ciencia moderna". Pearson fundó la empresa Biometrika y el laboratorio de biometría en el University College London , que se ha convertido en líder mundial en investigación estadística.

En 1908, Hardy y Weinberg resolvieron el problema de la estabilidad de los rasgos , y su solución llevó a Galton a abandonar la causalidad, reviviendo la herencia mendeliana [9] .

En 1921, el análisis de caminos de se convirtió en el ancestro teórico de los modelos causales y los gráficos causales. Desarrolló este enfoque en un intento por desentrañar la influencia relativa de la herencia , el desarrollo y el medio ambiente en los patrones del pelaje de las cobayas . Respaldó sus afirmaciones teóricas al mostrar cómo un análisis de este tipo podría explicar la relación entre el peso al nacer de las cobayas, la edad gestacional y el tamaño de la camada. La oposición a estas ideas por parte de estadísticos establecidos llevó al hecho de que durante los siguientes 40 años fueron ignoradas (con la excepción de los criadores de animales ). En cambio, los científicos confiaron en las correlaciones, gracias en parte al crítico de Wright, Ronald Fisher [10] .

En 1923, Jerzy Neumann introdujo el concepto de resultado potencial, pero su artículo no se tradujo del polaco al inglés hasta 1990.

En 1958, David Cox advirtió que la variable Z solo debería controlarse si era muy poco probable que estuviera influenciada por variables independientes. En la década de 1960, Duncan , Blalock y Goldberger redescubrieron el análisis de rutas.

Los sociólogos se refirieron originalmente a los modelos causales como modelos de ecuaciones estructurales pero una vez que se convirtió en un método mecánico perdió su utilidad, lo que llevó a algunos profesionales a rechazar cualquier conexión con la causalidad. Los economistas han adoptado la parte algebraica del análisis de trayectoria, llamándolo modelado simultáneo de ecuaciones. Sin embargo, todavía evitaron atribuir un significado causal a sus ecuaciones.

Sesenta años después de su primer artículo, Wright publicó un artículo en el que resumió el primero, siguiendo las críticas de Carlin y otros que objetaron que solo maneja relaciones lineales y que las representaciones de datos robustas y sin modelos son más reveladoras.

En 1973, David Lewis abogó por reemplazar la correlación con la causalidad (contrafácticos). Se refirió a la capacidad de los humanos para imaginar mundos alternos en los que ocurre o no una causa, y en los que un efecto aparece solo después de su causa. En 1974, Rubin introdujo el concepto de "resultados potenciales" como un lenguaje para hacer preguntas causales.

En 1983, Nancy Cartwright sugirió que todo factor que esté "relacionado causalmente" con un efecto debería ser condicionado, yendo más allá de la mera probabilidad como única pauta.

En 1986, Baron y Kenny introdujeron los principios de detección y evaluación de la mediación en un sistema de ecuaciones lineales [11] . A partir de 2014, su artículo fue el 33º más citado de todos los tiempos. En el mismo año, Greenland y Robins introdujeron el enfoque de "fungibilidad" para manejar los factores de confusión al considerar el contrafactual. Propusieron evaluar qué le hubiera pasado a un grupo de pacientes si no hubieran recibido tratamiento y comparar este resultado con el resultado del grupo control . Si los resultados coinciden, entonces no hay enredo [9] .

Actualmente, el laboratorio de inteligencia artificial de la Universidad de Columbia está realizando investigaciones sobre la aplicación de la teoría del modelado causal a las redes neuronales artificiales [12] .

Escalera de causalidad

El metamodelo causal de Pearl incluye una abstracción de tres niveles, que él llama la escalera de la causalidad. El nivel más bajo, asociativo (ver/observar), involucra la percepción de patrones o patrones en los datos de entrada, expresados ​​como correlaciones. El nivel medio, intervención, predice las consecuencias de las acciones intencionales, expresadas como relaciones causales. El nivel más alto, contrafáctico, implica construir una teoría que explique por qué acciones específicas tienen efectos específicos y qué sucede en ausencia de tales acciones [9] .

Asociación

Un objeto está asociado con otro si la observación de uno cambia la probabilidad de observar el otro. Ejemplo: es más probable que los clientes que compran pasta de dientes también compren hilo dental . Las asociaciones también se pueden medir calculando la correlación de dos eventos. Las asociaciones no tienen significado causal. Un evento puede causar el otro, lo contrario puede ser cierto, o ambos eventos pueden ser causados ​​por un tercer evento.

Interferencia

Este nivel afirma ciertas relaciones causales entre eventos. La causalidad se evalúa realizando experimentalmente alguna acción que afecta a uno de los eventos. Ejemplo: si duplicamos el precio de la pasta de dientes, ¿cuál sería la nueva probabilidad de compra? No se puede establecer una relación causal examinando la historia de los cambios de precios, porque el cambio de precio podría haber sido causado por alguna otra causa, que a su vez podría haber influido en el segundo evento (una tarifa que aumenta el precio de ambos bienes) [13] .

Contrafactual

El nivel más alto, contrafactual, implica considerar una versión alternativa de un evento pasado o lo que podría haber sucedido en diferentes circunstancias para la misma configuración experimental. Por ejemplo, ¿cuál es la probabilidad de que si una tienda duplicara el precio del hilo dental, un cliente de pasta de dientes todavía la compraría?

Los contrafácticos pueden indicar la existencia de una relación causal. Los modelos que incluyen contrafactuales permiten intervenciones precisas cuyas consecuencias pueden predecirse. En el caso extremo, dichos modelos se aceptan como leyes físicas, por ejemplo, la ley de la inercia establece que si no se aplica una fuerza a un objeto estacionario, no se moverá [9] .

Causalidad

Causalidad versus correlación

La estadística gira en torno al análisis de las relaciones entre múltiples variables. Tradicionalmente, estas relaciones se describen como correlaciones , asociaciones sin ninguna causalidad implícita . Los modelos causales intentan ampliar este marco añadiendo el concepto de causalidad, en el que los cambios en una variable provocan cambios en otras [7] .

Las definiciones de causalidad del siglo XX se basaban únicamente en probabilidades/asociaciones. Se ha dicho que un evento (X) causa otro si aumenta la probabilidad de otro (Y). Matemáticamente, esto se expresa como

Tales definiciones son inadecuadas porque otras relaciones (por ejemplo, una causa común para X e Y) pueden satisfacer la condición. La causalidad tiene que ver con el segundo peldaño de la escalera. Las asociaciones se encuentran en la primera etapa y solo aportan evidencia para la segunda. Una definición posterior intentó resolver esta ambigüedad al estar condicionada por factores de fondo. Matemáticamente, esto se expresa como

donde K es un conjunto de variables de fondo, y k son los valores de estas variables en un contexto determinado. Sin embargo, el conjunto requerido de variables de fondo no está definido siempre que la probabilidad sea el único criterio, ya que varios conjuntos pueden aumentar la probabilidad.

Otros intentos de determinar la causalidad incluyen la causalidad de Granger , una prueba estadística de la hipótesis de que la causalidad en economía se puede evaluar midiendo la capacidad de predecir los valores futuros de una serie temporal utilizando los valores anteriores de otra serie temporal.

Tipos

La causa puede ser necesaria, suficiente, conducente o tener varias de estas propiedades [14] .

Necesidad

Para que un evento x sea una causa necesaria de y, la presencia de y debe implicar la ocurrencia previa de x. La presencia de x, sin embargo, no significa que sucederá y. Esto significa que y no habría ocurrido si x no hubiera ocurrido.

Razones suficientes

Para que un evento x sea causa suficiente de y, la presencia de x debe implicar la posterior ocurrencia de y. Sin embargo, otra causa de z puede causar y de forma independiente. Así, la presencia de y no requiere la ocurrencia previa de x [15] .

Causas asociadas

Para que x sea una causa concomitante de y, la presencia de x debe aumentar la probabilidad de y. Si la probabilidad es del 100%, entonces se dice que x es suficiente. También puede ser necesaria una causa concomitante [16] .

Modelo

Diagrama Causal

Un diagrama causal es un gráfico dirigido que muestra relaciones causales entre variables en un modelo causal. Incluye un conjunto de variables (o nodos ). Cada nodo está conectado por una flecha a uno o más nodos en los que tiene un efecto causal. Una flecha define la dirección de la causalidad , por ejemplo, una flecha que conecta las variables A y B con una flecha en el punto B indica que un cambio en A provoca un cambio en B (con una probabilidad adecuada). Un camino es un recorrido del gráfico entre dos nodos siguiendo las flechas causales.

Los diagramas causales incluyen diagramas cíclicos , gráficos acíclicos dirigidos y diagramas de Ishikawa [9] .

Los diagramas causales no dependen de probabilidades cuantitativas. Los cambios en estas probabilidades (por ejemplo, debido a mejoras tecnológicas) no requieren cambios en el modelo.

Elementos del modelo

Los modelos causales tienen estructuras formales con elementos con propiedades específicas.

Patrones de conexión

Hay 3 tipos de conexiones de tres nodos: circuitos lineales, bifurcaciones y colisionadores .

Cadenas

Las cadenas son líneas rectas de comunicación con flechas que apuntan de causa a efecto. En este modelo, B es un mediador en el sentido de que media el impacto que tendría A sobre C.

Horquillas

En Forks, una causa tiene muchas consecuencias. Existe una correlación espuria no causal entre A y C, que puede eliminarse condicionando B para un valor particular de B.

El desarrollo de la bifurcación se ve así:

En tales modelos, B es la causa común de A y C (que también causa A), lo que convierte a B en el mediador.

Colisionador

En colisionadores, múltiples causas afectan el mismo resultado. El condicionamiento para un valor particular de B a menudo revela una correlación negativa no causal entre A y C. Esta correlación negativa se ha denominado falacia del colisionador : B explica la correlación entre A y C. La correlación puede ser positiva cuando las contribuciones de A y C son necesario para influir en B:

Tipos de nodos

Mediador

Una variable proxy cambia la influencia de otras causas en el resultado (en lugar de simplemente influir en el resultado). Por ejemplo, en el ejemplo anterior, el circuito B es el mediador porque cambia la influencia de A (causa indirecta C) en C (resultado).

Variable de confusión

Una variable de confusión ( confundidor ) afecta múltiples resultados al crear una correlación positiva entre ellos.

Variable del instrumento

Variable del instrumento:

  • tiene un camino hacia el resultado
  • no tiene otro camino a las variables causales
  • no tiene efecto directo en el resultado

Los coeficientes de regresión pueden medir el efecto causal de una variable instrumental en el resultado, siempre que ese efecto no esté entrelazado.[ especificar ] . Así, las variables instrumentales permiten la cuantificación de factores causales sin datos sobre variables de confusión.

Por ejemplo, en el modelo:

donde Z es una variable instrumental porque tiene un camino al resultado Y y no tiene base, por ejemplo, para U.

Puede mejorar la precisión del modelo acondicionando otra variable para bloquear rutas entre la herramienta y el factor de confusión, y combinando múltiples variables para formar una sola herramienta.

Asociaciones

Condiciones para la independencia

Las condiciones de independencia son reglas para decidir si dos variables son independientes entre sí. Las variables son independientes si los valores de una no afectan directamente los valores de la otra. Varios modelos causales pueden compartir condiciones de independencia. Por ejemplo, modelos

y

tienen las mismas condiciones de independencia, porque la condicionalidad en B deja a A y C independientes. Sin embargo, los dos modelos no tienen el mismo valor y se pueden falsificar en función de los datos (es decir, si los datos de observación muestran una relación entre A y C después de condicionar B, ambos modelos son incorrectos). Por el contrario, los datos no pueden mostrar cuál de los dos modelos es el correcto porque tienen las mismas condiciones de independencia. El condicionamiento de una variable es un mecanismo para realizar experimentos hipotéticos. El condicionamiento de variables implica examinar los valores de otras variables para un valor dado de la variable condicional. En el primer ejemplo, condicionar en B implica que las observaciones para un valor dado de B no deberían mostrar ninguna relación entre A y C. Si tal relación existe, entonces el modelo es incorrecto. Los modelos no causales no pueden hacer tales distinciones porque no hacen afirmaciones causales.

Confundidor y desconfundidor

Un elemento importante de la investigación de correlación es identificar influencias potencialmente conflictivas sobre la variable en estudio, como la demografía . Sin embargo, la lista correcta de variables de confusión no se puede determinar a priori. Por lo tanto, es posible que el estudio controle por variables irrelevantes o incluso (indirectamente) la variable en estudio.

Los modelos causales ofrecen un método confiable para identificar variables de confusión relevantes. Formalmente, Z es un factor de confusión si Y está conectado a Z por caminos que no pasan por X. A menudo, estos pueden determinarse utilizando datos recopilados para otros estudios.

Ajuste de puerta trasera

Para analizar la influencia causal de X sobre Y en un modelo causal, se deben ajustar todas las variables de confusión.

Notas

  1. Karl Friston (febrero de 2009). “Modelado Causal y Conectividad Cerebral en Imagen de Resonancia Magnética Funcional” . PLOS Biología . 7 (2): e1000033. doi : 10.1371/journal.pbio.1000033 . PMC2642881  ._ _ PMID  19226186 .
  2. MODELADO CAUSAL (CAUSA Y EFECTO). El modelo causal es el método de pronóstico cuantitativo más ingenioso y matemáticamente complejo que se usa en la actualidad . www.bibliotekar.ru _ Consultado el 9 de marzo de 2021. Archivado desde el original el 26 de julio de 2020.
  3. Modelos causales en análisis de regresión . Studme _ Consultado el 9 de marzo de 2021. Archivado desde el original el 25 de febrero de 2017.
  4. Barlas, Yaman; Carpintero, Stanley (1990). " Raíces filosóficas de la validación de modelos: dos paradigmas ". Revisión de la dinámica del sistema . 6 (2): 148-166. doi:10.1002/sdr.4260060203.
  5. Pearl J., Mackenzie D. (2018) El libro del porqué. La nueva ciencia de causa y efecto. Nueva York: Libros básicos. págs. 362–363.
  6. Christopher Hitchcock. Modelos causales . — 2018-08-07. Archivado desde el original el 21 de julio de 2020.
  7. ↑ 1 2 Perla de Judea. Una introducción a la inferencia causal  // The International Journal of Biostatistics. — 2010-02-26. - T. 6 , núm. 2 . — ISSN 1557-4679 . -doi : 10.2202/ 1557-4679.1203 . Archivado desde el original el 1 de febrero de 2021.
  8. Karpenko Alejandro Stepanovich. Pensamiento contrafáctico  // Investigación lógica. - 2017. - T. 23 , núm. 2 . — ISSN 2074-1472 .
  9. ↑ 1 2 3 4 5 Perla, Judea ; Mackenzie, Dana (2018-05-15). The Book of Why: The New Science of Cause and Effect Archivado el 13 de junio de 2021 en Wayback Machine . Libros básicos. ISBN9780465097616.
  10. Okasha, Samir (2012-01-12). " Causalidad en biología Archivado el 11 de abril de 2019 en Wayback Machine ". En Beebee, Helen; Hitchcock, Cristóbal; Menzies, Peter (eds.). El Manual de Oxford de causalidad . 1 . OU Oxford. doi:10.1093/oxfordhb/9780199279739.001.0001 . ISBN9780191629464.
  11. Método de mediación de Baron y Kenny . Soluciones estadísticas (30 de agosto de 2017). Consultado el 9 de marzo de 2021. Archivado desde el original el 7 de abril de 2021.
  12. Lo que la IA todavía no puede  hacer . Revisión de tecnología del MIT . Consultado el 9 de marzo de 2021. Archivado desde el original el 11 de marzo de 2021.
  13. Pearl, Judea (29 de octubre de 2019). "Inferencia causal y contrafactual" Archivado el 20 de septiembre de 2021 en Wayback Machine (PDF) .
  14. Susana S. Epp. Matemáticas Discretas con Aplicaciones . - Thomson-Brooks/Cole, 2004. - 936 p. — ISBN 978-0-534-49096-6 .
  15. Razonamiento causal . Consultado el 16 de marzo de 2021. Archivado desde el original el 24 de febrero de 2021.
  16. Riegelman, R. (1979). “ Causa contributiva: Innecesaria e insuficiente ”. medicina de posgrado . 66 (2): 177-179.