La estadística paramétrica es una rama de la estadística que asume que la muestra pertenece a una población que puede ser modelada de forma bastante precisa y adecuada mediante una distribución de probabilidad con un determinado conjunto de parámetros [1] . Por el contrario, un modelo no paramétrico se diferencia en que el conjunto de parámetros no está especificado y puede aumentar o disminuir si se recopila nueva información útil [2] .
Los métodos estadísticos más conocidos son los paramétricos. [3]
Todas las familias de distribuciones normales tienen la misma forma y están parametrizadas por media y varianza . Esto significa que si se conocen la expectativa matemática y la varianza, y la distribución es normal, entonces se conoce la probabilidad de que una observación caiga en un intervalo dado.
Sea una muestra de 99 puntos con una expectativa de 100 y una varianza de 1. Si asumimos que los 99 puntos son observaciones aleatorias de una distribución normal, entonces podemos asumir que con una probabilidad de 0.01 el centésimo punto será mayor que 102,33 (es decir, la media más 2,33 desviaciones estándar) si la puntuación centésima sigue la misma distribución que las demás. Los métodos estadísticos paramétricos se utilizan para calcular el número 2,33 a partir de 99 observaciones independientes de una sola distribución.
La estimación no paramétrica será el máximo de las primeras 99 sumas. No necesitamos saber la distribución de puntajes, porque antes del experimento, se sabía que cualquier puntaje de 100 tiene la misma probabilidad de convertirse en el puntaje más alto. Por lo tanto, la probabilidad de que el centésimo puntaje sea mayor que los 99 anteriores es 0.01.
La estadística paramétrica fue mencionada por Fisher en su obra " Métodos estadísticos para investigadores " en 1925, que sentó las bases de la estadística moderna.