Criterio de Friedman

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 25 de febrero de 2021; las comprobaciones requieren 2 ediciones .

La prueba de Friedman [1] ( ing.  Friedman test ) es una prueba estadística no paramétrica desarrollada por el economista estadounidense Milton Friedman . Es una generalización del criterio de Wilcoxon y se utiliza para comparar condiciones de medición ( ) para objetos (sujetos) con clasificación por valores de medición individuales [2] . Análogo no paramétrico de análisis de varianza con ANOVA de medidas repetidas .

Reto

Dada una muestra de medidas para cada uno de los sujetos, que se puede presentar en forma de tabla [2] [3] :

Términos
número de objeto

Como hipótesis nula se considera la siguiente: “sólo existen diferencias aleatorias entre las medidas obtenidas en diferentes condiciones” [2] . Se elige un nivel de significación , por ejemplo, ( probabilidad de rechazar erróneamente la hipótesis nula).

Prueba de hipótesis

Primero, obtenemos una tabla de rangos por filas, en la que obtenemos los rangos del objeto al clasificar [3] :

rangos
número de objeto

Obtenemos las sumas de rangos e introducimos otra notación:

Para probar la hipótesis, utilizaremos el valor empírico del criterio  - estadístico :

,

que también se puede escribir como:

Se acepta la hipótesis nula si el valor crítico del criterio supera el valor empírico:

Para valores pequeños y para el valor crítico de Friedman, existen tablas para diferentes valores del nivel de significación (o nivel de confianza [3] ).

La aproximación es aplicable para y  - cuantil de distribución chi-cuadrado con grados de libertad [3] :

Para algunos valores pequeños, las estadísticas se pueden transformar para aproximar el cuantil de la distribución de Fisher o aplicar las estadísticas de Iman-Davenport [3] .

Ejemplos

Ejemplos de aplicaciones clásicas:

Análisis post hoc

El análisis post- hoc fue propuesto por  Shaikh y Hamerly (1984) [4] , así como por Conover (1971, 1980) [5] para determinar qué condiciones son significativamente diferentes entre sí, en función de la diferencia en sus rangos medios [6]. ] .

Implementación de software

La prueba de Friedman está contenida en muchos paquetes de software para el procesamiento de datos estadísticos ( SPSS , R [7] y otros [8] ).

No todos los paquetes estadísticos admiten análisis post hoc para la prueba de Friedman, pero se puede encontrar código para, por ejemplo, SPSS [9] y R [10] .

Notas

  1. Kobzar A. I. ("Estadística matemática aplicada") llama a este criterio el criterio de Friedman-Kendall-Babbington Smith
  2. 1 2 3 Afanasiev, Sivov, 2010 .
  3. 1 2 3 4 5 Kobzar, 2006 .
  4. Schaich, E. y Hamerle, A. (1984). Verteilungsfreie statistische Prüfverfahren. Berlín: Springer. ISBN 3-540-13776-9 .
  5. Conover, WJ (1971, 1980). Estadística práctica no paramétrica. Nueva York: Wiley. ISBN 0-471-16851-3 .
  6. Bortz, J., Lienert, G. y Boehnke, K. (2000). Verteilungsfreie Methoden in der Biostatistik. Berlín: Springer. ISBN 3-540-67590-6 .
  7. Prueba de suma de rangos de Friedman . Consultado el 22 de noviembre de 2012. Archivado desde el original el 9 de enero de 2019.
  8. Prueba de Friedman . Fecha de acceso: 22 de noviembre de 2012. Archivado desde el original el 29 de julio de 2014.
  9. Comparaciones post-hoc para la prueba de Friedman (enlace descendente) . Consultado el 10 de noviembre de 2012. Archivado desde el original el 3 de noviembre de 2012. 
  10. Análisis post hoc para la Prueba de Friedman (código R) . Consultado el 10 de noviembre de 2012. Archivado desde el original el 13 de noviembre de 2012.

Literatura