Traducción automática neuronal
La traducción automática neuronal ( NMT) es un enfoque de la traducción automática que utiliza una gran red neuronal artificial . Se diferencia de los métodos de traducción automática basados en estadísticas de frases , que utilizan subcomponentes desarrollados por separado [1] .
Descripción
Los servicios de traducción de Google , Yandex , Microsoft y PROMT [2] ya utilizan la traducción neuronal. Google utiliza la traducción automática neuronal de Google (GNMT) en lugar de los métodos estadísticos utilizados anteriormente. [3] Microsoft utiliza una tecnología similar para la traducción de voz (incluidos Microsoft Translator y Skype Translator ). [4] El Harvard Natural Language Processing Group lanzó OpenNMT, un sistema de traducción automática neuronal de código abierto [5] . Yandex.Translate tiene un modelo híbrido: tanto el modelo estadístico como la red neuronal ofrecen sus propias opciones de traducción. Tras ello, la tecnología CatBoost , que se basa en el aprendizaje automático , elegirá el mejor de los resultados obtenidos [6] .
Los modelos NMT utilizan aprendizaje profundo y aprendizaje de características . Solo requieren una pequeña cantidad de memoria en comparación con los sistemas tradicionales de traducción automática estadística (SMT). Además, a diferencia de los sistemas de traducción tradicionales, todas las partes de un modelo de traducción neuronal se entrenan juntas (de un extremo a otro) para maximizar la eficiencia de la traducción [7] [8] [9] .
La red neuronal utiliza una red neuronal recurrente bidireccional (RNN), también conocida como codificador , para codificar la oración original para una segunda red recurrente, también conocida como decodificador , que se usa para predecir palabras en el idioma final [10 ] .
Véase también
Notas
- ↑ Wołk, Krzysztof; Marasek, Krzysztof. Traducción automática basada en neuronas para el dominio de texto médico. Basado en textos de folletos de la Agencia Europea de Medicamentos (inglés) // Procedia Computer Science: revista. - 2015. - Vol. 64 , núm. 64 . - P. 2-9 . -doi : 10.1016/ j.procs.2015.08.456 .
- ↑ Redes neuronales, traductores offline y competencia. Tecnologías de traducción automática . Consultado el 26 de abril de 2019. Archivado desde el original el 26 de abril de 2019. (indefinido)
- ↑ Lewis-Kraus, Gedeón . El gran despertar de la IA , The New York Times (14 de diciembre de 2016). Archivado desde el original el 5 de mayo de 2017. Consultado el 4 de mayo de 2017.
- ↑ Microsoft Translator lanza traducciones basadas en redes neuronales para todos sus idiomas de voz: Traductor . Consultado el 4 de mayo de 2017. Archivado desde el original el 10 de mayo de 2017. (indefinido)
- ↑ OpenNMT: traducción automática neuronal de código abierto . opennmt.net . Consultado el 22 de marzo de 2017. Archivado desde el original el 16 de marzo de 2017.
- ↑ Se incorporó una red neuronal de fantasía en Yandex.Translate-CNews . Consultado el 8 de octubre de 2017. Archivado desde el original el 8 de octubre de 2017. (indefinido)
- ↑ Kalchbrenner, Nal; Blunsom, Felipe. Modelos de traducción continua recurrente (neopr.) // Actas de la Asociación de Lingüística Computacional. — 2013.
- ↑ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc Viet. Aprendizaje de secuencia a secuencia con redes neuronales (indefinido) // NIPS. — 2014.
- ↑ Kyung Hyun Cho; Bart van Merrienboer; Dzmitry Bahdanau & Yoshua Bengio (3 de septiembre de 2014), Sobre las propiedades de la traducción automática neuronal: enfoques de codificador-descodificador, arΧiv : 1409.1259 [cs.CL].
- ↑ Dmitri Bahdanau; Cho Kyunghyun & Yoshua Bengio (2014), Traducción automática neuronal por aprendizaje conjunto para alinear y traducir, arΧiv : 1409.0473 [cs.CL].
Enlaces