La razón de probabilidades es una característica utilizada en estadística matemática (en ruso se abrevia "ОШ", en inglés "OR" de razón de probabilidades) para describir cuantitativamente la cercanía de la relación entre el rasgo A y el rasgo B en alguna población estadística.
Considere el principio de calcular este indicador en un ejemplo hipotético. Supongamos que a varios voluntarios se les hacen dos preguntas:
Además, para cada participante es posible determinar si tiene la propiedad "A" (por ejemplo, "presión arterial (PA) alta") y la propiedad "B" (por ejemplo, "consume alcohol moderadamente"). Como resultado de una encuesta a todo el grupo de participantes, se requiere construir un indicador integral que caracterice cuantitativamente la relación entre la presencia del rasgo “A” y la presencia del “B” en la población. Hay tres características de este tipo y una de ellas es la razón de probabilidades (OR), que se calcula en tres pasos:
El término "participante" no significa necesariamente una persona, una población puede incluir cualquier objeto, tanto de naturaleza animada como inanimada.
Si el OR es mayor que 1, la presencia de la característica "A" se asocia con la característica "B" en el sentido de que la presencia de "B" aumenta (en relación con la ausencia de "B") las posibilidades de tener "A" .
Nota importante : la presencia de un OR aumentado (OR > 1) no es evidencia de una relación causal entre "B" y "A". Aunque en algunos casos la característica "B" puede ser la causa de la característica "A" (por ejemplo, la cantidad de precipitación y el nivel del agua en un embalse), el OR determina solo la cercanía de la relación entre las características.
Es muy posible que exista una conexión falsa mediada por alguna otra propiedad "C", que induce tanto las características "A" como "B" ( correlación espuria ). En nuestro ejemplo, una correlación falsa podría manifestarse de la siguiente manera: en el grupo de estudio de voluntarios, hay una tendencia a reducir la presión arterial en las personas que beben alcohol moderadamente, pero cuando se intenta forzar el alcohol (con moderación, por supuesto) de los voluntarios que no había tomado alcohol previamente, encontraríamos que su presión arterial no cambia en promedio. Estos resultados contradictorios podrían explicarse, hipotéticamente, por la influencia de un factor externo: por ejemplo, en el grupo de estudio, hay principalmente personas que han consumido alcohol con moderación durante mucho tiempo y regularmente, que tienen mecanismos de adaptación pronunciados, que, hipotéticamente, pueden manifestarse por una disminución de la presión arterial. Por lo tanto, el factor "adaptación" es un extraño aquí.
Las otras dos formas de cuantificar la asociación de dos rasgos cualitativos son el riesgo relativo ("RR") y la reducción del riesgo absoluto ("ARR"). En los ensayos clínicos y en muchos otros casos, la característica más interesante es el RR, que se calcula de manera similar, excepto que se usan probabilidades en lugar de cuotas. Desafortunadamente, los investigadores a menudo se enfrentan a una situación en la que los datos disponibles solo permiten calcular OR, especialmente en estudios de casos y controles . Sin embargo, cuando uno de los rasgos, digamos A, es lo suficientemente raro (la " suposición de caso raro "), entonces el OR para tener "A" asumiendo que el participante tiene "B" es una buena aproximación para el RR (requiriendo "A cuando la condición B" es obligatoria, ya que el OR tiene en cuenta ambas propiedades simétricamente, mientras que el OR y otras características no lo hacen).
Técnicamente hablando, la razón de probabilidades es una medida del tamaño del efecto que describe la fuerza de una relación o relación entre dos cantidades (binarias) de dos valores. Se utiliza como estadística descriptiva y juega un papel importante en la regresión logística .
Imaginemos alguna enfermedad rara, que padezca, por ejemplo, sólo uno entre muchos miles de adultos en el país. Supongamos que hay algún factor (por ejemplo, un determinado trauma recibido en la infancia) que hace más probable que un adulto desarrolle una determinada enfermedad en el futuro. La más informativa, en este caso, sería la razón de riesgo (RR). Pero para calcularlo, tendríamos que preguntar a todos los adultos de la población a) si sufrieron una lesión en la infancia yb) si tienen una enfermedad ahora. Después de eso, recibiremos información sobre el número total de personas que tuvieron un trauma en la infancia (el volumen del grupo expuesto) , de las cuales enfermaron en el futuro y se mantuvieron saludables; así como el total de personas que no sufrieron traumatismos en la niñez (el volumen del grupo no expuesto), de los cuales enfermaron y se mantuvieron saludables. Dado que también se produce una suma similar para los índices "NE", tenemos cuatro números independientes que podemos escribir en una tabla :
enfermo | Saludable | |
Factor presente (Afectado) | ||
Sin factor (No afectado) |
Para evitar malentendidos en el futuro, destacamos que todos estos números se obtuvieron de la población general, y no de la muestra.
Ahora el riesgo de desarrollar una enfermedad en presencia de una lesión será (donde ), y el riesgo de desarrollar una enfermedad en ausencia de una lesión . El riesgo relativo (RR) es la razón de dos números:
que se puede reescribir así
Considere las posibilidades de desarrollar una enfermedad, que en presencia de lesión será , y en ausencia de lesión . La razón de probabilidades (OR) es la razón de dos números:
que se puede reescribir así
Dado que la enfermedad es un raro OR≈OR. De hecho, para una enfermedad rara tenemos , pero , o en otras palabras, para un grupo expuesto, el riesgo de desarrollar la enfermedad es aproximadamente igual a las posibilidades. Un razonamiento similar nos lleva a darnos cuenta de que el riesgo es aproximadamente igual a la posibilidad para el grupo no expuesto; pero entonces la razón de riesgo, que es OR, es aproximadamente igual a la razón de probabilidades, que es OR . También se puede ver que el supuesto de enfermedad rara indica lo que se sigue de qué, es decir , los denominadores en las expresiones finales de OR y OR son aproximadamente iguales. Los numeradores son exactamente iguales y, por lo tanto, de nuevo concluimos que OSH≈OR.
Volviendo a nuestro estudio hipotético, un problema muy común es que es posible que no tengamos la información que necesitamos para evaluar estos cuatro números. Por ejemplo, es posible que no tengamos datos de toda la población sobre la presencia o ausencia de trauma infantil.
A menudo podemos solucionar este problema mediante un muestreo aleatorio de la población general: es decir, si ni la enfermedad ni la exposición a lesiones en la infancia son raras en la población, podemos seleccionar al azar, digamos, cien personas y encontrar estos cuatro números en un muestra dada; suponiendo que esta muestra sea suficientemente representativa, el RR calculado en esta muestra será una buena aproximación al RR de toda la población.
Al mismo tiempo, algunas enfermedades pueden ser tan raras que, con todo el deseo, incluso en una muestra grande puede no haber un solo caso (o puede haber tan pocos de ellos que no puede haber dudas sobre la importancia estadística). Por esta razón, el cálculo de RR se vuelve imposible. No obstante, podemos obtener una estimación del RR en estas circunstancias porque, a diferencia de la enfermedad, la exposición infantil al trauma no es un evento raro. Por supuesto, debido a la rareza de la enfermedad, esto también sería solo una estimación del RR.
Veamos la última expresión para el RR: podemos estimar la fracción en el numerador al recopilar todos los casos conocidos de la enfermedad (suponiendo que existan tales casos, de lo contrario no comenzaríamos el estudio en absoluto) y observando cómo cuántos de los enfermos estuvieron expuestos y cuántos no. Y la fracción en el denominador son las posibilidades de que una persona sana de la población se lesione en la infancia. Ahora tenga en cuenta que estas posibilidades en realidad se pueden estimar mediante un muestreo aleatorio de la población, como se dijo anteriormente que la prevalencia de la exposición al trauma en la infancia es lo suficientemente alta como para que una muestra aleatoria de tamaño suficiente contenga una cantidad significativa de personas expuestas. gente. Por tanto, aquí la enfermedad es muy rara, pero el factor que la provoca ya no es tan raro; Situaciones similares son bastante comunes en la práctica.
Por lo tanto, podemos estimar el OR y luego, utilizando la rareza de la enfermedad, afirmar que esta estimación también es una buena aproximación para el RR. Por cierto, el caso considerado es un problema común de investigación de casos y controles. [una]
Un razonamiento similar se puede realizar sin recurrir al uso del concepto de OR, por ejemplo, como sigue: como tenemos relaciones y por lo tanto obtenemos . Por lo tanto, si por muestreo aleatorio buscamos estimar la razón , entonces, recurriendo al supuesto de la rareza de la enfermedad, obtenemos que su buena estimación será el valor , que es lo que necesitábamos (y ya sabemos después de estudiar varias casos de la enfermedad) a obtener para el cálculo de la OR. Sin embargo, se considera una buena práctica informar el valor OR al publicar los resultados, pero con la condición de que el OR sea aproximadamente el mismo.
La razón de probabilidades es una fracción, en cuyo numerador están las posibilidades de algún evento para un grupo, y en el denominador están las posibilidades del mismo evento, pero para otro grupo. Esta expresión también se usa para calcular las estimaciones de la proporción de la muestra. Los grupos pueden ser de hombres y mujeres, grupo experimental y de control , así como cualquier dicotomía . Si la probabilidad de un evento en cada grupo se denota por p 1 (primer grupo) y p 2 (segundo grupo), entonces la razón de probabilidades será igual a:
donde q X = 1 - pags X . Una razón de probabilidad de 1 significa que el evento en estudio tiene la misma probabilidad en ambos grupos. Una razón de probabilidades mayor que 1 significa que es más probable que ocurra el evento en el primer grupo. Y la razón de probabilidades que no exceda de 1 indica que el evento tiene menos posibilidades en el primer grupo. La razón de probabilidades es siempre un valor no negativo (si se define su valor). El valor se vuelve indefinido si p 2 q 1 es igual a cero, es decir, si p 2 es igual a cero o q 1 es igual a cero.
La razón de posibilidades se puede definir a través de la distribución de probabilidad conjunta de dos variables aleatorias binarias . La distribución conjunta de las variables aleatorias binarias X e Y viene dada por la tabla
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
donde p 11 , p 10 , p 01 y p 00 son probabilidades conjuntas no negativas cuya suma es 1. Las posibilidades de Y en los dos grupos definidos por las condiciones X = 1 y X = 0 se calculan usando las probabilidades condicionales dadas X , es decir, P ( Y | X ):
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
Entonces la razón de probabilidades será
La fracción en el lado derecho de la expresión anterior es fácil de recordar como el producto de las probabilidades de las celdas coincidentes ( X = Y ) dividido por el producto de las probabilidades de las celdas no coincidentes ( X ≠ Y ). Aunque la designación de categorías con 0 y 1 es arbitraria, la regla de las celdas coincidentes y no coincidentes permanece vigente.
Si calculamos la razón de posibilidades usando probabilidades condicionales dado Y ,
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
obtendremos el mismo resultado
Otras medidas del tamaño del efecto de los datos binarios, como el riesgo relativo , no tienen esta propiedad de simetría.
Si X e Y son independientes, sus probabilidades conjuntas se pueden expresar en términos de probabilidades marginales p x = P ( X = 1) y p y = P ( Y = 1) como sigue:
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
En este caso, la razón de probabilidades es igual a uno, y viceversa, si la razón de probabilidades es igual a uno, las probabilidades conjuntas se pueden representar como tales productos. Por lo tanto, la razón de posibilidades es igual a uno si y solo si X e Y son independientes .
La razón de posibilidades es una función de las probabilidades conjuntas y, a la inversa, las probabilidades conjuntas se pueden reconstruir si se conocen la razón de posibilidades y las probabilidades marginales.
PAG ( X = 1 ) = pag 11 + pag 10 y PAG ( Y = 1 ) = pag 11 + pag 01 . Si la razón de probabilidades R es diferente de 1, entonces:
donde p 1• = p 11 + p 10 , p •1 = p 11 + p 01 y
En el caso de igualdad R = 1, tenemos independencia, por lo tanto p 11 = p 1• p •1 .
Como conocemos p 11 , las tres probabilidades restantes se determinan fácilmente a partir de las marginales.
Supongamos que en una muestra de 100 hombres, 90 bebieron vino en la última semana, mientras que en una muestra de 100 mujeres, solo 20 bebieron vino en el mismo período. Las posibilidades de que un hombre beba vino son de 90 a 10, o 9:1, mientras que las mismas posibilidades para las mujeres son solo de 20 a 80, o 1:4 = 0,25:1. La razón de probabilidades será 9/0,25, o 36, lo que nos muestra que un número mucho mayor de hombres bebe vino. Cálculos más detallados:
Este ejemplo muestra cuánto difieren las razones de probabilidades en diferentes sistemas de cálculo: en la muestra de bebedores de vino, hay 90/20 = 4,5 veces más hombres que mujeres, pero al mismo tiempo tienen 36 veces más posibilidades. El logaritmo de la razón de posibilidades, logit diferencia de probabilidades , mitiga este efecto e imparte una propiedad de simetría con respecto al orden de los grupos. Por ejemplo, aplicando el logaritmo natural a una razón de probabilidades de 36/1 nos da 3,584 y haciendo lo mismo con una razón de 1/36 nos da −3,584.
Se han desarrollado varios enfoques para probar hipótesis estadísticas sobre las razones de probabilidades.
Un enfoque se basa en aproximar la distribución muestral del logaritmo de la razón de probabilidades (es decir, el logaritmo natural de la razón de probabilidades). Si usamos la notación en términos de probabilidades conjuntas, el logaritmo de la razón de posibilidades general será igual a
Si presentamos los resultados del experimento en forma de tabla de contingencia
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
Las estimaciones de probabilidad para una distribución conjunta se pueden definir de la siguiente manera:
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
donde p ̂ ij = n ij / n , y n = n 11 + n 10 + n 01 + n 00 es la suma de los valores de las cuatro celdas de la tabla. El logaritmo de la razón de probabilidades de la muestra será:
.La distribución del logaritmo de la razón de posibilidades se aproxima bien mediante una distribución normal con parámetros:
El error estándar del logaritmo de la razón de posibilidades se estima mediante la fórmula
.Esta aproximación es asintótica y, por lo tanto, puede dar un resultado sin sentido si alguna de las celdas contiene un número demasiado pequeño. Si denotamos por L el logaritmo de la razón de probabilidades de la muestra, se determinará una estimación aproximada del intervalo de confianza del 95% para el logaritmo de la razón de probabilidades general en el marco del modelo normal de la siguiente manera: L ± 1.96 SE . [2] Puedes deshacerte del logaritmo usando la transformación exp( L − 1.96SE), exp( L + 1.96SE) y obtener un intervalo de confianza del 95 % para la razón de probabilidades. Si desea probar la hipótesis de que la razón de probabilidades general es igual a uno, puede definir el valor de dos colas del estadístico p como 2 P ( Z < −| L |/SE), donde P es la probabilidad y Z es la distribución normal estándar .
Otro enfoque permite restaurar hasta cierto punto la distribución original de la razón de probabilidades de la muestra. Para ello, se fijan las frecuencias marginales de las características X e Y , y los valores en las celdas de la tabla cambian secuencial o aleatoriamente. Es fácil entender que solo una de las celdas de la tabla está sujeta a cambios, ya que todas las demás están determinadas en base a la condición de frecuencias marginales constantes.
La regresión logística es una forma de determinar la razón de probabilidades de dos variables binarias. Supongamos que hay una variable binaria dependiente Y , una variable binaria independiente X (predictor) y un grupo de predictores adicionales Z 1 , …, Z p , que pueden tomar cualquier valor. Si usamos la regresión logística múltiple de Y en X , Z 1 , …, Z p , la estimación del coeficiente para X está relacionada con la razón de probabilidades condicional. Es decir, a nivel de la población en general.
también lo es una estimación de la razón de probabilidades condicional dada. El valor , en este caso, se interpreta como una estimación de la razón de posibilidades entre Y y X para valores fijos de las variables Z 1 , …, Z p .
Cuando los datos son una muestra representativa, las probabilidades en las celdas de la tabla p ̂ ij se interpretan como las frecuencias de cada uno de los cuatro grupos en la población según combinaciones de valores X e Y. En muchos casos, el uso de una muestra representativa no es práctico, por lo que a menudo se utiliza el muestreo selectivo. Por ejemplo, los objetos con X = 1 con una probabilidad f dada se seleccionan en la muestra , a pesar de su frecuencia real en la población general (como resultado, los objetos con la propiedad X = 0 inevitablemente serán seleccionados con una probabilidad de 1 − f ) . En este caso, obtenemos las siguientes probabilidades conjuntas:
Y = 1 | Y = 0 | |
X = 1 | ||
X = 0 |
La razón de probabilidades p 11 p 00 / p 01 p 10 para una distribución dada no depende de f . Este ejemplo muestra que la razón de probabilidades (y, en consecuencia, el logaritmo de la razón de probabilidades) es invariable para muestras no aleatorias con respecto a una de las variables en estudio. Sin embargo, vale la pena señalar que el error estándar del logaritmo de la razón de probabilidades depende de f .
La propiedad de invariancia se usa en dos situaciones muy importantes:
En ambas situaciones, la razón de posibilidades se puede estimar sin sesgo a partir de datos de muestreo selectivo.
En vista del uso generalizado de la regresión logística , la razón de posibilidades se usa a menudo en la investigación médica y social. La razón de posibilidades se usa comúnmente en cuestionarios, epidemiología y para informar los resultados de ensayos clínicos , como casos y controles . En los informes, se suele abreviar como "O". En el caso de que se combinen los resultados de varias encuestas, se utiliza el nombre de "OR combinado".
En estudios clínicos y de otro tipo, la característica de riesgo relativo es más interesante que la razón de probabilidades. El riesgo relativo se determina mejor a partir de la población, pero si la suposición de enfermedad rara es cierta, la razón de probabilidades es una buena aproximación para estimar el riesgo relativo: las probabilidades son una fracción de la forma p / (1 - p ), por lo que a medida que p se aproxima cero, 1 - p se acerca a uno, lo que significa que las probabilidades están más cerca del valor del riesgo y, en consecuencia, la razón de probabilidades está más cerca del riesgo relativo. [3] Cuando no se puede justificar la suposición de una enfermedad rara, la razón de posibilidades puede sobrestimar el riesgo relativo. [4] [5] [6]
Si se conoce el valor del riesgo absoluto en el grupo de control, el paso de un valor a otro se realiza mediante la expresión: [4]
dónde:
En la literatura médica, la razón de posibilidades se confunde a menudo con el riesgo relativo. Para una audiencia de no estadísticos, el concepto de razón de probabilidades es difícil de entender y, por lo tanto, tiene un efecto más impresionante en el lector. [7] Sin embargo, la mayoría de los autores creen que el riesgo relativo se entiende fácilmente. [8] Un estudio encontró que los miembros de una fundación nacional para la lucha contra una enfermedad tenían 3,5 veces más probabilidades que cualquier otra persona de conocer los principios generales del tratamiento de una enfermedad determinada, pero la razón de probabilidad era 24 y esto se presentó en el artículo como que los miembros de esta organización "tienen más de 20 veces más probabilidades de saber sobre el tratamiento". [9] Un estudio de artículos en dos revistas mostró que en el 26% de los artículos la razón de probabilidad se interpretó como una razón de riesgo. [diez]
Esto puede indicar que los autores que desconocen la esencia de este valor lo prefieren como el más expresivo para su publicación. [8] Pero su uso puede ser engañoso en algunos casos. [11] Anteriormente se dijo que la razón de probabilidades debe describir la medida del efecto cuando no es posible estimar la razón de riesgo directamente. [7]
Otra característica única de la razón de probabilidades es la propiedad de la reversibilidad matemática directa, por ejemplo, dependiendo del enunciado del problema: para estudiar la ausencia de alguna enfermedad o para estudiar la presencia de esta enfermedad, el OR para la ausencia de una enfermedad es el recíproco ( o 1/OR) del OR para la presencia de una enfermedad. Esta es la propiedad de "invariancia de la razón de probabilidades" que el valor del riesgo relativo no tiene. Considerémoslo con un ejemplo:
Suponga que un ensayo clínico tiene un riesgo de evento de 4/100 en el grupo de fármaco y 2/100 en el grupo de placebo, es decir, RR = 2 y OR = 2,04166 para un evento cuando se comparan los grupos de fármaco y placebo. Por otro lado, si invertimos el análisis y examinamos el riesgo de ausencia de eventos, entonces el grupo tratado con el fármaco tendrá un riesgo de 94/100 de ausencia de eventos y 98/100 en el grupo placebo, es decir, RR = 0,9796 para ningún evento al comparar grupos de fármaco-placebo, pero OR = 0,48979. Como puede verse, OR = 0.9796 no es el recíproco de OR = 2. Por el contrario, OR = 0.48979 es, de hecho, el recíproco de OR = 2.04166.
Esta es la propiedad de "invariancia de la razón de probabilidades", por lo que el OR de la libertad de un evento no es lo mismo que el OR del riesgo de un evento, mientras que el OR tiene esta propiedad de simetría en el análisis de la libertad o el riesgo. El peligro para la interpretación clínica de la OR surge cuando la probabilidad de un caso es alta y las diferencias se exageran si no se cumple el supuesto de una enfermedad rara. Por otro lado, cuando la enfermedad es realmente rara, usar un RR para describir la ausencia (por ejemplo, RR = 0,9796 del ejemplo anterior) puede oscurecer el efecto clínico de duplicar el riesgo de un evento relacionado con el fármaco o la exposición.
La razón de probabilidades de la muestra n 11 n 00 / n 10 n 01 es fácil de calcular y, para muestras moderadas a grandes, brinda una buena estimación de la razón de probabilidades general. Cuando una o más celdas de la tabla de contingencia contienen un valor pequeño, la relación de probabilidades puede sesgarse y adquirir una gran varianza . Se han propuesto varias estimaciones alternativas de la razón de posibilidades que tienen mejores propiedades en tales condiciones. Una alternativa es la estimación de máxima verosimilitud condicional, que se basa en las sumas de filas y columnas para determinar la función de verosimilitud que se maximizará (similar a la prueba exacta de Fisher ). [12] Una alternativa es la estimación de Mantel-Haenszel .
Las siguientes cuatro tablas cruzadas contienen las frecuencias absolutas conjuntas, así como los correspondientes cocientes de probabilidades de muestra ( OR ) y logaritmos de los cocientes de probabilidades de muestra ( LOR ):
O = 1, LOR = 0 | O = 1, LOR = 0 | OR = 4, LOR = 1,39 | OR = 0,25, LOR = -1,39 | |||||
---|---|---|---|---|---|---|---|---|
Y = 1 | Y = 0 | Y = 1 | Y = 0 | Y = 1 | Y = 0 | Y = 1 | Y = 0 | |
X = 1 | diez | diez | 100 | 100 | veinte | diez | diez | veinte |
X = 0 | 5 | 5 | cincuenta | cincuenta | diez | veinte | veinte | diez |
Las siguientes tablas de distribuciones conjuntas contienen las probabilidades conjuntas generales, así como las correspondientes razones de probabilidades generales ( OR ) y logaritmos de las razones de probabilidades generales ( LOR ):
O = 1, LOR = 0 | O = 1, LOR = 0 | OR = 16, LOR = 2,77 | OR = 0,67, LOR = -0,41 | |||||
---|---|---|---|---|---|---|---|---|
Y = 1 | Y = 0 | Y = 1 | Y = 0 | Y = 1 | Y = 0 | Y = 1 | Y = 0 | |
X = 1 | 0.2 | 0.2 | 0.4 | 0.4 | 0.4 | 0.1 | 0.1 | 0.3 |
X = 0 | 0.3 | 0.3 | 0.1 | 0.1 | 0.1 | 0.4 | 0.2 | 0.4 |
Ejemplo 1: reducción de riesgos | Ejemplo 2: aumento del riesgo | |||||
---|---|---|---|---|---|---|
Grupo experimental (E) | Grupo de control (C) | Salir | (MI) | (C) | Salir | |
Casos (E) | EE = 15 | CE=100 | 115 | EE = 75 | CE=100 | 175 |
No casual (N) | ES = 135 | CN=150 | 285 | ES = 75 | CN=150 | 225 |
Totales (S) | ES = EE + EN = 150 | CS=CE+CN=250 | 400 | ES = 150 | CS = 250 | 400 |
Tasa de incidencia (TE) | EER = EE / ES = 0,1 o 10% | CER = CE / CS = 0,4 o 40% | REE = 0,5 (50 %) | RCE = 0,4 (40 %) |
Fórmula | Índice | Abr. | Ejemplo 1 | Ejemplo 2 |
---|---|---|---|---|
EER-CER | < 0: reducción del riesgo absoluto | ARR | (-)0.3 o (-)30% | N / A |
> 0: aumento del riesgo absoluto | IRA | N / A | 0,1 o 10% | |
(EER − CER) / CER | < 0: Reducción del riesgo relativo | RRR | (-)0.75 o (-)75% | N / A |
> 0: aumento del riesgo relativo | IRR | N / A | 0,25 o 25% | |
1/(EER - RCE) | < 0: número requerido para el tratamiento | NNT | (−)3.33 | N / A |
> 0: número requerido para el factor de riesgo | NNH | N / A | diez | |
EER/CER | Riesgo relativo | RR | 0.25 | 1.25 |
(EE / EN) / (CE / CN) | relación de probabilidades | O | 0.167 | 1.5 |
EER-CER | Riesgo de atributo | Arkansas | (-)0.30 o (-)30% | 0,1 o 10% |
(RR - 1) / RR | Riesgo atribuible relativo | ARP | N / A | veinte% |
1 - RR (o 1 - O) | facción preventiva | FP | 0,75 o 75% | N / A |