Regresión no lineal

La regresión no lineal  es un tipo de análisis de regresión en el que los datos experimentales se modelan mediante una función que es una combinación no lineal de parámetros del modelo y depende de una o más variables independientes. Los datos se aproximan por el método de aproximaciones sucesivas .

Disposiciones generales

Los datos consisten en variables explicativas libres de errores x y variables dependientes observadas asociadas ( respuestas ) y . Cada variable y se modela como una variable aleatoria con una media dada por una función no lineal f ( x ,β). El error metodológico puede estar presente, pero su procesamiento está más allá de los límites del análisis de regresión. Si las variables explicativas no están libres de errores, el modelo se convierte en un modelo con errores en las variables y también queda fuera del alcance.

Por ejemplo, el modelo de Michaelis-Menten para la cinética enzimática

Se puede escribir como

donde  es el parámetro ,  es el parámetro y [ S ] es la variable independiente ( x ). Esta función no es lineal porque no se puede expresar como una combinación lineal de y .

Otros ejemplos de funciones no lineales son funciones exponenciales , funciones logarítmicas , funciones trigonométricas, funciones de potencia, funciones de Gauss y curvas de Lorentz . El análisis de regresión con funciones como exponencial o logarítmica a veces se puede reducir al caso lineal y se puede aplicar la regresión lineal estándar, pero se debe usar con cuidado. Consulte la sección Linealización a continuación para obtener más detalles.

En el caso general, una representación de forma cerrada (como en el caso de la regresión lineal ) puede no existir. Por lo general, los algoritmos de optimización se utilizan para determinar las mejores estimaciones de parámetros . A diferencia de la regresión lineal, puede haber varios mínimos locales de la función que se está optimizando, y el mínimo global puede incluso dar una estimación sesgada . En la práctica, los valores estimados de los parámetros se utilizan junto con un algoritmo de optimización en un intento de encontrar el mínimo global de la suma de cuadrados.

Consulte " Mínimos cuadrados " y " Mínimos cuadrados no lineales para obtener detalles sobre el modelado no lineal .

Estadísticas de regresión

La suposición que subyace a este procedimiento es que el modelo se puede aproximar mediante una función lineal.

donde _ Esto se deduce del hecho de que la estimación por mínimos cuadrados viene dada por la fórmula

La estadística de regresión no lineal se calcula y utiliza como estadística de regresión lineal, pero en lugar de X en las fórmulas, se utiliza J. Un ajuste lineal introduce un sesgo en las estadísticas, por lo que se debe tener más cuidado al interpretar las estadísticas derivadas de un modelo no lineal.

Mínimos cuadrados ordinarios y ponderados

A menudo se supone que la curva de mejor ajuste es la que minimiza la suma de los residuos al cuadrado . Este es el enfoque (convencional) de mínimos cuadrados (OLS). Sin embargo, en el caso de que la variable dependiente no tenga varianza constante, se puede minimizar la suma de los cuadrados ponderados . Idealmente, cada peso debería ser el recíproco de la varianza de las observaciones, sin embargo, los pesos se pueden volver a calcular en un algoritmo iterativo de mínimos cuadrados ponderados en cada iteración.

Linealización

Transformación

Algunos problemas de regresión no lineal se pueden reducir a problemas lineales transformando adecuadamente la formulación del modelo.

Por ejemplo, considere el problema de regresión no lineal

con parámetros a y b y con factor de error multiplicativo U . Si tomamos el logaritmo de ambos lados, obtenemos

donde u = ln( U ). A partir de esto se puede obtener una estimación de los parámetros desconocidos por regresión lineal de ln( y ) sobre x y los cálculos no requieren optimización iterativa. Sin embargo, el uso de una transformación no lineal requiere precaución. El impacto de los valores de los datos cambiará, el patrón de errores del modelo y la interpretación de los resultados obtenidos cambiarán, lo que puede conducir a resultados no deseados. Por otro lado, dependiendo de la mayor fuente de error, la transformada no lineal puede distribuir los errores como una distribución gaussiana, por lo que se debe tener en cuenta el modelo al aplicar la transformada no lineal.

Por ejemplo, para la ecuación de Michaelis-Menten , la representación lineal de Lineweaver-Burk es muy utilizada

.

Sin embargo, debido a su alta sensibilidad a los errores de datos, así como debido al fuerte sesgo, esto no se recomienda.

Para distribuciones de error pertenecientes a la familia de distribuciones exponenciales , se puede utilizar una función de enlace para transformar los parámetros en un modelo lineal generalizado .

Segmentación

La variable independiente (digamos, X) se puede dividir en clases o segmentos, y se puede realizar una regresión lineal segmento por segmento . La regresión segmentada con análisis de confianza puede producir un resultado en el que la variable dependiente o la respuesta (por ejemplo, Y) se comporte de manera diferente en diferentes segmentos [1] .

El gráfico de la derecha muestra que la salinidad del suelo (X) inicialmente no tiene efecto sobre el rendimiento (Y) de la mostaza hasta que se alcanza un valor crítico o umbral , después del cual se produce un efecto negativo sobre el rendimiento [2]

Ejemplos

La regla de Titius-Bode en forma de fórmula matemática es una ecuación de regresión no lineal unidimensional que relaciona los números ordinales de los planetas del sistema solar , contando desde el Sol , con los valores aproximados de los semimayores . -ejes de sus órbitas . La precisión es bastante satisfactoria, no para fines astronómicos.

Véase también

Notas

  1. Oosterbaan, 1994 , pág. 175-224.
  2. ( Oosterbaan 2002 ) Ilustración realizada por SegReg

Literatura

Lectura para leer más