AdaBoost (abreviatura de Adaptive Boosting ) es un algoritmo de aprendizaje automático propuesto por Yoav Freund y Robert Shapire . Este algoritmo se puede utilizar junto con varios algoritmos de clasificación para mejorar su rendimiento. El algoritmo fortalece los clasificadores combinándolos en un "comité" ( conjunto ). AdaBoost es adaptativo en el sentido de que cada comité clasificador siguiente se basa en objetos que fueron clasificados incorrectamente por comités anteriores. AdaBoost es sensible al ruido de datos y los valores atípicos . Sin embargo, es menos propenso al sobreajuste en comparación con otros algoritmos de aprendizaje automático.
AdaBoost llama a los clasificadores débiles en un bucle . Después de cada llamada, se actualiza la distribución de pesos , que corresponden a la importancia de cada uno de los objetos del conjunto de entrenamiento para la clasificación. En cada iteración, los pesos de cada objeto mal clasificado aumentan, por lo que el nuevo comité clasificador "enfoca su atención" en estos objetos.
dado: donde
Inicializar
para cada uno :
Construimos el clasificador resultante:
La expresión de actualización de distribución debe construirse de tal manera que se cumpla la siguiente condición:
Así, después de elegir el clasificador óptimo para la distribución , los objetos que el clasificador identifica correctamente tienen pesos menores que aquellos que se identifican incorrectamente. Por lo tanto, cuando el algoritmo pruebe los clasificadores en la distribución , elegirá el clasificador que sea mejor para identificar objetos que el clasificador anterior no reconoció.
Aprendizaje automático y minería de datos | |
---|---|
Tareas | |
Aprendiendo con un maestro | |
análisis de conglomerados | |
Reducción de dimensionalidad | |
Pronóstico estructural | |
Detección de anomalías | |
Graficar modelos probabilísticos | |
Redes neuronales | |
Aprendizaje reforzado |
|
Teoría | |
revistas y congresos |
|