La regularización en estadística , aprendizaje automático , teoría del problema inverso es un método para agregar algunas restricciones adicionales a una condición para resolver un problema mal planteado o evitar el sobreajuste . Esta información a menudo viene en forma de penalización por la complejidad del modelo. Por ejemplo, pueden ser restricciones en la suavidad de la función resultante o restricciones en la norma del espacio vectorial .
Desde un punto de vista bayesiano , muchos métodos de regularización corresponden a agregar algunas distribuciones previas a los parámetros del modelo.
Algunos tipos de regularización:
El sobreajuste en la mayoría de los casos se manifiesta en el hecho de que los polinomios resultantes tienen coeficientes demasiado grandes. En consecuencia, es necesario agregar una penalización por coeficientes demasiado grandes a la función objetivo .
No existe solución para la optimización multicriterio o para la optimización en la que el dominio de la función objetivo es un espacio en el que no existe un orden lineal , o es difícil introducirlo. Casi siempre hay puntos en el dominio de la función que se está optimizando y que satisfacen las restricciones, pero los valores en los puntos son incomparables. Para encontrar todos los puntos en la curva de Pareto , use la escalarización [1] . En optimización, la regularización es una técnica de escalarización general para un problema de optimización de dos criterios [2] . Variando el parámetro lambda -el elemento que debe ser mayor que cero en el cono dual con respecto al cual se define el orden- se pueden obtener diferentes puntos de la curva de Pareto .
Aprendizaje automático y minería de datos | |
---|---|
Tareas | |
Aprendiendo con un maestro | |
análisis de conglomerados | |
Reducción de dimensionalidad | |
Pronóstico estructural | |
Detección de anomalías | |
Graficar modelos probabilísticos | |
Redes neuronales | |
Aprendizaje reforzado |
|
Teoría | |
revistas y congresos |
|