La regresión lineal es un modelo de regresión utilizado en estadística para la dependencia de una variable (explicada, dependiente) de otra o varias otras variables (factores, regresores, variables independientes) con una función de dependencia lineal .
El modelo de regresión lineal es el más utilizado y el más estudiado en econometría . En concreto, se estudian las propiedades de las estimaciones de parámetros obtenidas por diversos métodos bajo supuestos sobre las características probabilísticas de los factores y los errores aleatorios del modelo. Las propiedades limitantes (asintóticas) de las estimaciones de los modelos no lineales también se obtienen a partir de la aproximación de estos últimos mediante modelos lineales. Desde un punto de vista econométrico, la linealidad de los parámetros es más importante que la linealidad de los factores del modelo.
Modelo de regresión
,donde están los parámetros del modelo, es el error aleatorio del modelo; se llama regresión lineal si la función de regresión tiene la forma
,donde son los parámetros de regresión (coeficientes), son los regresores (factores del modelo), k es el número de factores del modelo [1] .
Los coeficientes de regresión lineal muestran la tasa de cambio de la variable dependiente para un factor dado, con otros factores fijos (en un modelo lineal, esta tasa es constante):
El parámetro , para el que no hay factores, a menudo se denomina constante . Formalmente, este es el valor de la función en el valor cero de todos los factores. A efectos analíticos, conviene considerar que una constante es un parámetro con un "factor" igual a 1 (u otra constante arbitraria, por lo que a este "factor" también se le llama constante). En este caso, si volvemos a numerar los factores y parámetros del modelo original teniendo esto en cuenta (dejando la designación del número total de factores - k), entonces la función de regresión lineal se puede escribir de la siguiente forma, que formalmente no contener una constante:
,donde es el vector de regresores, es el vector columna de parámetros (coeficientes).
El modelo lineal puede ser con una constante o sin constante. Entonces, en esta representación, el primer factor es igual a uno o es un factor ordinario, respectivamente.
En un caso particular, cuando el factor es único (sin tener en cuenta la constante), se habla de una regresión lineal pareada o simple :
Cuando el número de factores (sin tener en cuenta la constante) es más de uno, entonces se habla de regresión múltiple :
Sea una muestra de n observaciones de las variables yyx . Sea t el número de la observación en la muestra. Entonces — el valor de la variable y en la t -ésima observación, — el valor del j - ésimo factor en la t -ésima observación. En consecuencia, es el vector de regresores en la t -ésima observación. Entonces se produce una dependencia de regresión lineal en cada observación:
Introduzcamos la notación:
es el vector de observaciones de la variable dependiente y es una matriz de factores. es el vector de errores aleatorios.Luego, el modelo de regresión lineal se puede representar en forma de matriz:
En la regresión lineal clásica, se supone que junto con la condición estándar , también se cumplen los siguientes supuestos ( condiciones de Gauss-Markov ):
Estos supuestos en la representación matricial del modelo se formulan como un supuesto sobre la estructura de la matriz de covarianza del vector de error aleatorio:
Además de los supuestos anteriores, en el modelo clásico se supone que los factores son deterministas ( no estocásticos ). Además, se requiere formalmente que la matriz tenga rango completo ( ), es decir, se asume que no existe colinealidad completa de factores.
Cuando se cumplen los supuestos clásicos, el método de mínimos cuadrados ordinarios permite obtener estimaciones de calidad suficientemente alta de los parámetros del modelo, a saber: son estimaciones insesgadas , consistentes y más eficientes .
Mínimos cuadrados y análisis de regresión | |||||||||
---|---|---|---|---|---|---|---|---|---|
Estadísticas computacionales |
| ||||||||
Correlación y dependencia |
| ||||||||
Análisis de regresión |
| ||||||||
La regresión como modelo estadístico |
| ||||||||
descomposición de la varianza |
| ||||||||
estudio modelo |
| ||||||||
requisitos previos |
| ||||||||
Planificación de experimentos |
| ||||||||
Aproximación numérica | |||||||||
Aplicaciones |
|
Aprendizaje automático y minería de datos | |
---|---|
Tareas | |
Aprendiendo con un maestro | |
análisis de conglomerados | |
Reducción de dimensionalidad | |
Pronóstico estructural | |
Detección de anomalías | |
Graficar modelos probabilísticos | |
Redes neuronales | |
Aprendizaje reforzado |
|
Teoría | |
revistas y congresos |
|