Adaboost

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 2 de agosto de 2019; las comprobaciones requieren 3 ediciones .

AdaBoost (abreviatura de Adaptive Boosting ) es un algoritmo de aprendizaje automático propuesto por Yoav Freund y Robert Shapire . Este algoritmo se puede utilizar junto con varios algoritmos de clasificación para mejorar su rendimiento. El algoritmo fortalece los clasificadores combinándolos en un "comité" ( conjunto ). AdaBoost es adaptativo en el sentido de que cada comité clasificador siguiente se basa en objetos que fueron clasificados incorrectamente por comités anteriores. AdaBoost es sensible al ruido de datos y los valores atípicos . Sin embargo, es menos propenso al sobreajuste en comparación con otros algoritmos de aprendizaje automático.

AdaBoost llama a los clasificadores débiles en un bucle . Después de cada llamada, se actualiza la distribución de pesos , que corresponden a la importancia de cada uno de los objetos del conjunto de entrenamiento para la clasificación. En cada iteración, los pesos de cada objeto mal clasificado aumentan, por lo que el nuevo comité clasificador "enfoca su atención" en estos objetos.

Algoritmo para el problema de construcción de un clasificador binario

dado: donde

Inicializar

para cada uno :


donde es un parámetro de normalización (elegido para ser una distribución de probabilidad , es decir, ).

Construimos el clasificador resultante:

La expresión de actualización de distribución debe construirse de tal manera que se cumpla la siguiente condición:

Así, después de elegir el clasificador óptimo para la distribución , los objetos que el clasificador identifica correctamente tienen pesos menores que aquellos que se identifican incorrectamente. Por lo tanto, cuando el algoritmo pruebe los clasificadores en la distribución , elegirá el clasificador que sea mejor para identificar objetos que el clasificador anterior no reconoció.

Enlaces