Codificador automático

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 25 de mayo de 2022; la verificación requiere 1 edición .

Autoencoder ( inglés  autoencoder , también - autoassociator ) [1]  - una arquitectura especial de redes neuronales artificiales que le permite aplicar el aprendizaje no supervisado [2] cuando se utiliza el método de retropropagación . La arquitectura de autocodificador más simple es una red de avance, sin retroalimentación, más similar a un perceptrón y que contiene una capa de entrada, una capa intermedia y una capa de salida. A diferencia de un perceptrón, la capa de salida de un codificador automático debe contener tantas neuronas como la capa de entrada.

El principio fundamental de funcionamiento y entrenamiento de la red de autocodificadores es obtener una respuesta en la capa de salida más cercana a la de entrada. Para evitar que la solución sea trivial, se imponen restricciones en la capa intermedia del codificador automático: la capa intermedia debe tener una dimensión más pequeña que las capas de entrada y salida, o el número de neuronas de la capa intermedia activas simultáneamente se limita artificialmente: escaso activación _ Estas restricciones obligan a la red neuronal a buscar generalizaciones y correlaciones en los datos de entrada y realizar su compresión. Así, la red neuronal se entrena automáticamente para extraer características comunes de los datos de entrada, que se codifican en los valores de peso de la red neuronal artificial. Entonces, al entrenar una red en un conjunto de diferentes imágenes de entrada, la red neuronal puede aprender de forma independiente a reconocer líneas y rayas en diferentes ángulos.

En la mayoría de los casos, los codificadores automáticos se utilizan en cascada para entrenar redes profundas (multicapa) . Los codificadores automáticos se utilizan para el entrenamiento previo no supervisado de la red profunda . Para ello, las capas se entrenan una tras otra, empezando por la primera. Se conecta una capa de salida adicional a cada nueva capa no entrenada durante el período de entrenamiento, complementando la red con la arquitectura del codificador automático, después de lo cual se alimenta un conjunto de datos para el entrenamiento a la entrada de la red. Los pesos de la capa no entrenada y la capa adicional del codificador automático se entrenan mediante el método de retropropagación. Luego, la capa de autocodificador se desactiva y se crea una nueva correspondiente a la siguiente capa de red no entrenada. El mismo conjunto de datos se alimenta nuevamente a la entrada de la red, las primeras capas entrenadas de la red permanecen sin cambios y funcionan como entrada para el codificador automático de la siguiente capa entrenada. Entonces el entrenamiento continúa para todas las capas de la red excepto para las últimas. Las últimas capas de la red generalmente se entrenan sin el uso de un codificador automático utilizando el mismo método de retropropagación y datos etiquetados (aprendizaje supervisado).

Aplicaciones del autoencoder

Recientemente, los codificadores automáticos se han utilizado poco para el preentrenamiento en capas "codicioso" descrito de redes neuronales profundas. Después de que este método fuera propuesto en 2006 por Jeffrey Hinton y Ruslan Salakhutdinov [3] [4] , rápidamente resultó que los nuevos métodos de inicialización con pesos aleatorios son suficientes para el entrenamiento adicional de redes profundas [5] . La normalización por lotes propuesta en 2014 [6] hizo posible entrenar redes aún más profundas, mientras que el método de aprendizaje residual propuesto a finales de 2015 [7] hizo posible entrenar redes de profundidad arbitraria [5] .

Las principales aplicaciones prácticas de los autocodificadores siguen siendo la reducción del ruido en los datos, así como la reducción de la dimensionalidad de los datos de alta dimensión para su visualización. Con ciertas salvedades en cuanto a la dimensionalidad y escasez de los datos, los autocodificadores pueden hacer posible obtener proyecciones de datos multidimensionales que resulten mejores que las proporcionadas por el método de componentes principales o algún otro método clásico [5] .

Sin embargo, la gama de posibles aplicaciones de los codificadores automáticos no se limita a esto. Por lo tanto, se pueden utilizar para detectar anomalías [8] [9] [10] [11] [12] , ya que el modelo aprende a restaurar los datos de entrada de acuerdo con las características más características, y en presencia de desviaciones, la restauración la precisión disminuye. En 2019, también se demostró la aplicación exitosa del autocodificador en el diseño de fármacos [13] [14] .

Notas

  1. Autoencoder for Words, Liou, C.-Y., Cheng, C.-W., Liou, J.-W. y Liou, D.-R., Neurocomputing, volumen 139, 84-96 (2014), doi : 10.1016/j.neucom.2013.09.055
  2. Entrenamiento de un codificador automático disperso multicapa en imágenes a gran escala, Khurshudov A. A., Bulletin of Computer and Information Technologies 02.2014 doi : 10.14489/vkit.2014.02.pp.027-030
  3. G. E. Hinton, R. R. Salakhutdinov. Reduciendo la Dimensionalidad de los Datos con Redes Neuronales   // Ciencia . — 2006-07-28. — vol. 313 , edición. 5786 . — pág. 504–507 . — ISSN 1095-9203 0036-8075, 1095-9203 . -doi : 10.1126 / ciencia.1127647 . Archivado desde el original el 23 de diciembre de 2015.
  4. ¿Por qué el entrenamiento previo sin supervisión ayuda al aprendizaje profundo? . Archivado desde el original el 13 de diciembre de 2016.
  5. ↑ 1 2 3 Creación de codificadores automáticos en Keras . blog.keras.io. Consultado el 25 de junio de 2016. Archivado desde el original el 23 de junio de 2016.
  6. Sergey Ioffe, Christian Szegedy. Normalización por lotes: aceleración del entrenamiento profundo de redes al reducir el cambio de covariable interno  // arXiv:1502.03167 [cs]. — 2015-02-10. Archivado desde el original el 3 de julio de 2016.
  7. Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun. Aprendizaje residual profundo para el reconocimiento de imágenes  // arXiv:1512.03385 [cs]. — 2015-12-10. Archivado desde el original el 3 de septiembre de 2016.
  8. Morales-Forero A., Bassetto S. Estudio de caso: una metodología semisupervisada para la detección y el diagnóstico de anomalías  // Conferencia internacional IEEE de 2019 sobre ingeniería industrial y gestión de ingeniería (IEEM). — Macao, Macao: IEEE, 2019-12. — S. 1031–1037 . - ISBN 978-1-7281-3804-6 . -doi : 10.1109/ IEEM44572.2019.8978509 .
  9. Sakurada Mayu, Yairi Takehisa. Detección de anomalías utilizando codificadores automáticos con reducción de dimensionalidad no lineal  //  Actas del segundo taller de MLSDA 2014 sobre aprendizaje automático para análisis de datos sensoriales - MLSDA'14. — Gold Coast, Australia QLD, Australia: ACM Press, 2014. — P. 4–11 . — ISBN 978-1-4503-3159-3 . doi : 10.1145 / 2689746.2689747 .
  10. Jinwon An, Sungzoon Cho. [ http://dm.snu.ac.kr/static/docs/TR/SNUDM-TR-2015-03.pdf Detección de anomalías basada en codificador automático variacional usando probabilidad de reconstrucción] // Conferencia especial sobre IE. - 2015. - Nº 2 . - S. 1-18 .
  11. Chong Zhou, Randy C. Paffenroth. Detección de anomalías con codificadores automáticos robustos y profundos  //  Actas de la 23.ª Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimiento y minería de datos. — Halifax NS Canadá: ACM, 2017-08-04. — pág. 665–674 . — ISBN 978-1-4503-4887-4 . -doi : 10.1145/ 3097983.3098052 .
  12. Manassés Ribeiro, André Eugênio Lazzaretti, Heitor Silvério Lopes. Un estudio de codificadores automáticos convolucionales profundos para la detección de anomalías en videos  //  Letras de reconocimiento de patrones. — 2018-04. — vol. 105 . — págs. 13–22 . -doi : 10.1016/ j.patrec.2017.07.016 .
  13. Alex Zhavoronkov, Yan A. Ivanenkov, Alex Aliper, Mark S. Veselov, Vladimir A. Aladinskiy. El aprendizaje profundo permite la identificación rápida de potentes inhibidores de la quinasa DDR1  //  Nature Biotechnology. — 2019-09. — vol. 37 , edición. 9 _ — P. 1038–1040 . - ISSN 1546-1696 1087-0156, 1546-1696 . -doi : 10.1038 / s41587-019-0224-x .
  14. Gregorio Barber. Una molécula diseñada por IA exhibe cualidades 'similares a las de una droga'   // Wired . — ISSN 1059-1028 .

Enlaces