Traducción automática neuronal

La traducción automática neuronal ( NMT) es un enfoque de la traducción automática que utiliza una gran red neuronal artificial .  Se diferencia de los métodos de traducción automática basados ​​en estadísticas de frases , que utilizan subcomponentes desarrollados por separado [1] .

Descripción

Los servicios de traducción de Google , Yandex , Microsoft y PROMT [2] ya utilizan la traducción neuronal. Google utiliza la traducción automática neuronal de Google (GNMT) en lugar de los métodos estadísticos utilizados anteriormente. [3] Microsoft utiliza una tecnología similar para la traducción de voz (incluidos Microsoft Translator y Skype Translator ). [4] El Harvard Natural Language Processing Group lanzó OpenNMT, un sistema de traducción automática neuronal de código abierto [5] . Yandex.Translate tiene un modelo híbrido: tanto el modelo estadístico como la red neuronal ofrecen sus propias opciones de traducción. Tras ello, la tecnología CatBoost , que se basa en el aprendizaje automático , elegirá el mejor de los resultados obtenidos [6] .

Los modelos NMT utilizan aprendizaje profundo y aprendizaje de características . Solo requieren una pequeña cantidad de memoria en comparación con los sistemas tradicionales de traducción automática estadística (SMT). Además, a diferencia de los sistemas de traducción tradicionales, todas las partes de un modelo de traducción neuronal se entrenan juntas (de un extremo a otro) para maximizar la eficiencia de la traducción [7] [8] [9] .

La red neuronal utiliza una red neuronal recurrente bidireccional (RNN), también conocida como codificador , para codificar la oración original para una segunda red recurrente, también conocida como decodificador , que se usa para predecir palabras en el idioma final [10 ] .

Véase también

Notas

  1. Wołk, Krzysztof; Marasek, Krzysztof. Traducción automática basada en neuronas para el dominio de texto médico. Basado en textos de folletos de la Agencia Europea de Medicamentos  (inglés)  // Procedia Computer Science: revista. - 2015. - Vol. 64 , núm. 64 . - P. 2-9 . -doi : 10.1016/ j.procs.2015.08.456 .
  2. Redes neuronales, traductores offline y competencia. Tecnologías de traducción automática . Consultado el 26 de abril de 2019. Archivado desde el original el 26 de abril de 2019.
  3. Lewis-Kraus, Gedeón . El gran despertar de la IA , The New York Times  (14 de diciembre de 2016). Archivado desde el original el 5 de mayo de 2017. Consultado el 4 de mayo de 2017.
  4. Microsoft Translator lanza traducciones basadas en redes neuronales para todos sus idiomas de voz: Traductor . Consultado el 4 de mayo de 2017. Archivado desde el original el 10 de mayo de 2017.
  5. OpenNMT:  traducción automática neuronal de código abierto . opennmt.net . Consultado el 22 de marzo de 2017. Archivado desde el original el 16 de marzo de 2017.
  6. Se incorporó una red neuronal de fantasía en Yandex.Translate-CNews . Consultado el 8 de octubre de 2017. Archivado desde el original el 8 de octubre de 2017.
  7. Kalchbrenner, Nal; Blunsom, Felipe. Modelos de traducción continua recurrente  (neopr.)  // Actas de la Asociación de Lingüística Computacional. — 2013.
  8. Sutskever, Ilya; Vinyals, Oriol; Le, Quoc Viet. Aprendizaje de secuencia a secuencia con redes neuronales  (indefinido)  // NIPS. — 2014.
  9. Kyung Hyun Cho; Bart van Merrienboer; Dzmitry Bahdanau & Yoshua Bengio (3 de septiembre de 2014), Sobre las propiedades de la traducción automática neuronal: enfoques de codificador-descodificador, arΧiv : 1409.1259 [cs.CL]. 
  10. Dmitri Bahdanau; Cho Kyunghyun & Yoshua Bengio (2014), Traducción automática neuronal por aprendizaje conjunto para alinear y traducir, arΧiv : 1409.0473 [cs.CL]. 

Enlaces