Blog
Blog

Los fallos más frecuentes de la traducción automática

A estas alturas, mucha gente ya conoce el término “traducción automática”, es decir, la traducción hecha por ordenador sin intervención humana. Es habitual, por ejemplo, que cuando no sabemos una palabra en otro idioma busquemos su traducción en la web del traductor de Google, que no es sino una herramienta más de traducción automática.

Si bien estas herramientas de traducción pueden ser útiles en casos de apuro, también es cierto que la calidad del texto final pierde su garantía de seguridad. A continuación, explicamos por qué y qué tipo de errores son más frecuentes según el tipo de traductor automático.

Los sistemas de traducción automática (TA) pueden ser principalmente de 3 tipos:

  • Basados en reglas (RBMT, Rule-Based Machine Translation): la traducción se basa en gramáticas de la lengua de partida y de llegada, diccionarios bilingües y reglas de transferencia. El mayor inconveniente es que no pueden traducir estructuras lingüísticas, palabras o expresiones que no aparezcan en dichos instrumentos, por lo que se necesita que desde un inicio sean muy amplios y que se actualicen continuamente.
  • Basados en estadística (SMT, Statistical Machine Translation): necesitan un corpus monolingüe de la lengua de destino y otro paralelo con la traducción de la lengua de origen a la de destino. Como funcionan a partir de un cálculo de probabilidad de acierto en la traducción, el problema es que depende mucho de las lenguas en cuestión (si son similares o no), de la calidad de los corpus, del campo o especialización…
  • Redes neuronales (NMT, Neural Machine Translation): trabajan a partir de extensos corpus paralelos y emulan el funcionamiento de nuestras neuronas: asocian las palabras con información subyacente para formar asociaciones de “ideas” y poder traducir. Como desventaja, cuando parten de caracteres y secuencias es posible que a veces generen palabras que no existen o no tienen sentido.

Errores más frecuentes de la TA

  1. Traducción de nombres propios: puede ocurrir que un apellido, topónimo, etc. acabe siendo traducido mediante herramientas TA de baja calidad. ¡Se puede hacer una prueba para comprobarlo!
  2. Falsos amigos: a veces, si el corpus no es bueno el sistema TA puede ser que use traducciones no acertadas incluso porque no tiene conocimiento de cómo se traduce habitualmente una palabra. Un ejemplo es “carrera”, que a veces se refiere a “grado universitario”, pero que algunas herramientas TA traducen como “career” (‘trayecto profesional’) en inglés.
  3. Orden sintáctico: la TA puede cometer errores al interpretar una oración (p. ej., en inglés tras una preposición un verbo casi siempre acaba en -ing, pero no tiene nada que ver con una forma verbal del continuous: “After having finished”, que se traduce como “Tras acabar” y no como “Tras habiendo acabado”); también puede usar estructuras poco naturales en la lengua de destino.
  4. Perpetuación de errores del original: si el texto original contiene un error tipográfico, es posible que la herramienta TA no traduzca esa palabra o que la confunda con otra que no corresponde al contexto, cosas que un traductor profesional entendería y corregiría.
  5. Uso de acepciones incorrectas en caso de polisemia: esto puede pasar en el caso de corpus pobres, pues el sistema no detecta el contexto y usa una acepción errónea del diccionario.
  6. Incapacidad para detectar y traducir términos “nuevos”: si una palabra no está en su lexicón, la herramienta de TA no podrá traducirla. Lo mismo pasa en caso de palabras “inventadas” por el autor/a en la lengua original o de neologismos.
  7. Errores a causa de la homografía: a veces, dos palabras pueden escribirse igual pero tener significados diferentes o incluso categorías gramaticales diferentes. Un ejemplo es la tercera persona del verbo “market”: markets puede confundir a la herramienta de TA y acabar siendo traducida por “mercados” en lugar de “él/ella vende”.
  8. Uso incorrecto de mayúsculas/minúsculas: algunos términos van en mayúscula según el contexto (Rey/rey), pero un sistema de TA no es capaz de detectar en qué ocasiones sí y en cuáles no.
  9. Siglas sin traducir: ya sabemos que hay algunas siglas que tienen traducción oficial, pero hay herramientas de TA que no tienen suficiente calidad como para incorporarlas en su corpus. Un ejemplo es la OMS (Organización Mundial de la Salud), que en inglés es WHO (World Health Organization).
  10. Traducciones literales: las herramientas TA más básicas simplemente traducen palabras, no el significado. Así pues, pueden acabar usando estructuras o palabras que una persona nativa de la lengua de destino no utilizaría. Por ejemplo, una TA para “I’m not feeling well” podría ser “No me siento bien”, que suena curioso para un nativo español peninsular, quien diría de forma natural “No me encuentro bien”.

Casos reales de traducciones incorrectas de una herramienta TA

A continuación, compartimos algunos casos de traducciones erróneas hechas por una herramienta TA que han llamado la atención.

  • La Feria del Clítoris

La herramienta Google Translate tradujo para la web de As Pontes (La Coruña) el nombre de la Feria do Grelo como “Feria del Clítoris”. El “grelo” es un tipo de verdura derivada del nabo, que el traductor automático detectó en portugués en lugar de gallego; efectivamente, en portugués “grelo” sí significa “clítoris”.

Dejamos aquí la noticia para más detalles: https://www.lavanguardia.com/vida/20151103/54438581756/feria-clitoris-google-traductor.html

  • Amazon en Suecia

Un caso más reciente es el de la web de Amazon para Suecia, que publicó anuncios de diversas marcas y productos hechos con una herramienta TA. El texto en la lengua de destino incluía términos vulgares y descripciones confusas a causa de una traducción errónea.

A continuación, compartimos la noticia: https://www.thelocal.se/20201028/translation-fails-on-amazons-new-swedish-site?utm_source=Slator+Newsletter&utm_campaign=fc660b33ed-Slator+Weekly+-+Oct+30%2C+2020&utm_medium=email&utm_term=0_28e0ad4ca5-fc660b33ed-165494277&mc_cid=fc660b33ed&mc_eid=c2da2e19f7

  • El equipo noruego en las Olimpiadas de Pieonchang (Corea del Sur)

Otro caso es el error que cometió Google Translate cuando los cocineros del equipo pidieron 1.500 huevos a un proveedor local coreano y la herramienta cambió el número a 15.000 huevos.

Aquí dejamos la noticia:

https://www.elperiodico.com/es/sociedad/20180209/un-error-de-google-translate-lleva-15000-huevos-al-equipo-olimpico-noruego-6614224