Moderación en las estadísticas

La moderación en estadística y análisis de regresión  es la dependencia de la relación entre dos variables de la tercera variable, que se denomina moderador [1] . El efecto moderador se caracteriza estadísticamente como una interacción ; es decir, una variable categórica (género, etnia , clase ) o cuantitativa (nivel de salario) que afecta la dirección y/o fuerza de la relación entre las variables dependientes e independientes . En particular, en el análisis de correlación , el moderador es la tercera variable, que afecta la correlación de orden cero entre las otras dos variables, o la pendiente de la variable dependiente a la variable independiente. En el análisis de varianza , el principal efecto reductor se puede representar como la interacción entre la principal variable independiente y el factor que establece las condiciones adecuadas para su funcionamiento [2] .

Ejemplos

El análisis moderado en las ciencias del comportamiento implica el uso de análisis de regresión lineal múltiple o modelado causal . Para cuantificar la influencia del moderador en el análisis de regresión múltiple, retrocediendo una variable aleatoria sobre , se agrega un término adicional al modelo, que representa la interacción entre y el moderador.

Por lo tanto, la dependencia de la variable objetivo y la variable moderadora se verá así:

.

En este caso, el rol de moderador se logra evaluando , un parámetro para el término de interacción [2] .

Multicolinealidad en regresión

En un análisis de regresión moderado, se calcula un nuevo predictor de interacción que estará relacionado con las dos variables principales utilizadas para calcularlo. Este es un problema de multicolinealidad en regresión moderada. La multicolinealidad hace que los coeficientes se estimen con errores estándar más altos y, por lo tanto, con mayor incertidumbre .

El centrado de la media se utiliza como remedio para la multicolinealidad , pero no es necesario en el análisis de regresión porque los datos ya están centrados en la matriz de correlación después de calcular las correlaciones. Las correlaciones se derivan del producto cruzado de dos puntajes estándar (puntajes Z) o momentos estadísticos.

Dos variables independientes categóricas

Si ambas variables explicativas son categóricas , podemos analizar los resultados de la regresión para una variable explicativa en un cierto nivel de la otra variable explicativa. Suponga que A y B son variables ficticias de codificación única (0,1) y que A representa el origen étnico (0=caucásico, 1=asiático) y B representa una condición en el estudio (0=control, 1=entrenamiento). Luego, el efecto de interacción muestra si el efecto de la condición en la variable dependiente Y es diferente para los caucásicos y los asiáticos , y si el efecto del origen étnico es diferente para las dos condiciones. El coeficiente A muestra el efecto de la etnicidad en Y para la condición de control, mientras que el coeficiente B muestra el efecto de superponer la condición experimental en los participantes europeos.

Para comprobar si existe alguna diferencia significativa entre europeos y asiáticos en condiciones experimentales, simplemente podemos ejecutar el análisis con la variable de condición codificada en orden inverso (0=experimental, 1=control) de modo que el coeficiente de etnicidad represente el efecto de la etnicidad en Y en condiciones experimentales. De manera similar, si queremos ver si los participantes asiáticos se ven afectados, podemos cambiar el código de la variable de etnicidad (0=asiático, 1=europeo).

Una variable independiente categórica y otra continua

Si la primera variable independiente es una variable categórica (p. ej., género) y la segunda es una variable continua (p. ej., puntajes en la escala de satisfacción con la vida ), entonces b1 es la diferencia en la variable dependiente entre hombres y mujeres cuando la satisfacción con la vida es cero. Sin embargo, una puntuación de cero en una escala de satisfacción no tiene sentido, ya que el rango de puntuaciones va de 7 a 35 [3] . Si resta la puntuación SWLS promedio para la muestra de la puntuación de cada participante, entonces el promedio de la puntuación SWLS centrada resultante es cero. Cuando se vuelve a analizar, b1 representa la diferencia entre hombres y mujeres en la puntuación SWLS media de la muestra .

Para investigar el efecto simple del género sobre la variable dependiente (Y), es posible clasificarla en tres categorías: SWLS alta, moderada y baja [4] . Si las puntuaciones de una variable continua no están estandarizadas, simplemente se pueden calcular estos tres valores sumando o restando una desviación estándar de las puntuaciones originales; si los puntajes de una variable continua están estandarizados, se pueden calcular tres valores de la siguiente manera: alto = puntaje estandarizado - 1, moderado (media = 0), bajo = puntaje estandarizado + 1. Al igual que con las dos variables explicativas categóricas, b2 representa el impacto de la puntuación SWLS en la variable dependiente para las mujeres. Al retrocodificar la variable de género, se puede obtener el efecto de la puntuación SWLS en la variable dependiente para los hombres.

Codificación en regresión moderada

Cuando se consideran variables categóricas , como grupos étnicos y tratamientos experimentales, como variables independientes en una regresión moderada, es necesario codificar las variables de modo que cada variable de codificación represente un entorno particular de la variable categórica. Hay tres métodos de codificación principales: codificación ficticia variable, codificación de efectos y codificación de contraste [5] .

La codificación ficticia se usa cuando hay un grupo de referencia o una condición específica (por ejemplo, el grupo de control en un experimento) que debe compararse con cada uno de los otros grupos experimentales usando la media del grupo de referencia, y cada uno de los no coeficientes de regresión estandarizados es la diferencia en la variable dependiente entre uno de los grupos de tratamiento y la media del grupo de referencia (o grupo de control). Este sistema de codificación es similar al análisis ANOVA y es adecuado cuando los investigadores tienen un grupo de referencia específico y quieren comparar cada uno de los otros grupos con él.

La codificación de efectos se utiliza cuando una persona no tiene un grupo de comparación o control definido y no tiene contrastes ortogonales planeados. En este caso, el coeficiente de regresión es la diferencia entre la media de un grupo y la media de todas las medias de los grupos (por ejemplo, la media del grupo A menos la media de todos los grupos). Este sistema de codificación es apropiado cuando los grupos representan categorías naturales.

La codificación de contraste se utiliza cuando hay una serie de contrastes ortogonales o comparaciones de grupos para examinar. En este caso, el coeficiente de regresión no estandarizado es la diferencia entre la media no ponderada de un grupo (A) y la media no ponderada del otro grupo (B), donde A y B son dos conjuntos de grupos en contraste. Este sistema de codificación es apropiado cuando los investigadores tienen una hipótesis a priori sobre diferencias específicas entre las medias de los grupos [6] .

Dos variables independientes continuas

Si ambas variables explicativas son continuas, es útil para la interpretación centrar o estandarizar las variables explicativas X y Z. (Centrar implica restar la puntuación media de la muestra general de la puntuación original; estandarizar hace lo mismo seguido de dividir por la puntuación estándar de la muestra total). desviación.) Al centrar o estandarizar las variables independientes, el coeficiente X o Z puede interpretarse como el efecto de esta variable en Y en el nivel promedio de otra variable independiente [7] .

Para investigar el efecto de una interacción, a menudo es útil trazar el efecto de X en Y en valores bajos y altos de Z. A menudo, los valores de Z que están una desviación estándar por encima y por debajo de la media se eligen para esto, pero cualquier se puede usar un valor razonable (y en algunos casos hay valores más significativos para elegir). El gráfico generalmente se muestra evaluando los valores de Y para valores altos y bajos de X y Z y creando dos líneas para representar el efecto de X en Y en dos valores de Z. Esto a veces se complementa con un análisis de pendiente simple eso determina si el efecto de X sobre Y es estadísticamente significativo en ciertos valores de Z. Existen varias herramientas para ayudar a los investigadores a construir e interpretar tales interacciones bidireccionales [8] .

Interacción de alto nivel

Los principios de las interacciones bidireccionales se aplican cuando queremos explorar interacciones tripartitas o de alto nivel. Por ejemplo, si tenemos una interacción triple entre A, B y C, la ecuación de regresión se vería así:

Efectos secundarios de orden superior

Vale la pena señalar que la confiabilidad de las condiciones de nivel superior depende de la confiabilidad de las condiciones de nivel inferior. Por ejemplo, si la confiabilidad de la variable A es 0,70 y la confiabilidad de la variable B es 0,80, entonces la confiabilidad de la variable de interacción AxB es 0,70 × 0,80 = 0,56. En este caso, la baja confiabilidad del término de interacción da como resultado una baja potencia; por lo que no podemos encontrar efectos de interacción entre A y B que realmente existan. La solución a este problema es utilizar medidas altamente confiables para cada variable independiente.

Otra explicación para interpretar los efectos de interacción es que cuando la variable A y la variable B están fuertemente correlacionadas, entonces el término AxB estará fuertemente correlacionado con la variable omitida A2; por lo tanto, lo que parece ser un efecto de moderación significativo puede ser, de hecho, un efecto no lineal significativo solo de A. Si este es el caso, entonces vale la pena probar el modelo de regresión no lineal agregando términos no lineales en el individuo. variables al análisis de regresión moderado para ver si las interacciones siguen siendo significativas. Si el efecto de interacción de AxB sigue siendo significativo, estaremos más seguros de que realmente hay un efecto de moderación; sin embargo, si el efecto de interacción ya no es significativo después de agregar el término no lineal, estaremos menos seguros del efecto de moderación y se preferirá el modelo no lineal porque es más parsimonioso.

Notas

  1. Anna Shirokanova. Cuando dos variables independientes interactúan: los efectos de la moderación en la investigación social  .
  2. ↑ 12 Cohen , Jacob; Cohen, Patricia; Leona S. Aiken; Oeste, Stephen H. (2003). Análisis de correlación/regresión múltiple aplicado para las ciencias del comportamiento . Hillsdale, Nueva Jersey: L. Erlbaum Associates. ISBN0-8058-2223-2.
  3. Escala de satisfacción con la vida: Psylab.info . psylab.info . Consultado el 5 de marzo de 2021. Archivado desde el original el 10 de diciembre de 2019.
  4. CohenJacob; patricia cohen; Oeste Stephen G.; Aiken Leona S. Análisis de correlación/regresión múltiple aplicado para las ciencias del comportamiento (3. ed.). Mahwah, Nueva Jersey [ua]: Erlbaum. páginas. 255-301. ISBN0-8058-2223-2.
  5. Aiken LS, West., SG (1996). Prueba e interpretación de regresión múltiple (1. edición impresa en rústica). Newbury Park, California [ua]: Publicaciones Sage, Inc. ISBN0-7619-0712-2.
  6. CohenJacob; patricia cohen; Oeste Stephen G.; Aiken Leona S. (2003). Análisis de correlación/regresión múltiple aplicado para las ciencias del comportamiento (3. ed.). Mahwah, Nueva Jersey [ua]: Erlbaum. páginas. 302-353. ISBN0-8058-2223-2.
  7. Dawson, JF (2013). La moderación en la investigación gerencial: qué, por qué, cuándo y cómo. Revista de Negocios y Psicología.
  8. Interpretación de los efectos de interacción . www.jeremydawson.co.uk . Consultado el 8 de marzo de 2021. Archivado desde el original el 1 de noviembre de 2020.