Asociación Nacional de Empresas de Traducción e Interpretación

  • Inicio
  • Entre algoritmos y criterio humano: la enseñanza de la traducción en tiempos de la IA generativa

Entre algoritmos y criterio humano: la enseñanza de la traducción en tiempos de la IA generativa

Entre algoritmos y criterio humano

Desde siempre la traducción ha ido de la mano de la tecnología y su evolución, lo que ha hecho posible que el proceso traductor experimentara mejoras sustanciales en cuanto a rapidez, rendimiento y mejora de la calidad. Sin embargo, la aparición de la traducción automática (TA), el proceso adyacente de posedición (PE) y, más recientemente, la irrupción de la IA generativa (IAGen) están cambiando sustancialmente el panorama del sector profesional de la traducción.

La IAGen ha traído consigo también una nueva forma de enseñar la traducción: ya no solo se trata de comprender la intención, el tono, el contexto o las referencias extralingüísticas de un texto y reformularlas con la mayor calidad y adecuación posible, sino de reescribir y adaptar el output generado por la máquina, ajustando la calidad, detectando y corrigiendo errores y justificando los cambios, además de aprender a interactuar con la máquina y decidir cuándo la máquina puede ayudarnos, hasta dónde puede hacerlo y cuándo conviene no usarla.

Para quienes nos dedicamos a formar traductores, el reto es mayúsculo, y no se centra precisamente (o no solo) en enseñar la IA, sino enseñar a cuestionarla, comprenderla, gestionarla y evaluarla. Este artículo resume el cambio de paradigma, introduce el potencial didáctico del uso de los grandes modelos de lengua (LLM) con algunos ejemplos para su incorporación en el aula de traducción y cierra con dos ideas de fondo. Por un lado, la necesidad de adaptar la docencia de la traducción a los nuevos tiempos para mejorar la empleabilidad del alumnado. Por otro, se hace indispensable una colaboración sostenida entre universidad y empresa para alinear objetivos y ritmos y establecer un diálogo fructífero para ambas partes.

Del motor de traducción automática a la generación de texto

Durante años, la traducción automática neuronal (TAN) elevó la calidad hasta niveles impensables en combinaciones de lenguas con grandes cantidades de datos. Aun así, la TAN se circunscribía a la arquitectura de la oración y a los datos de entrenamiento. Los LLM desplazan ahora ese centro de gravedad: son modelos generativos y conversacionales capaces de redactar, reformular, revisar, resumir y adaptar el texto, entre otras funciones, a través de instrucciones (prompts). En la práctica, esto abre puertas para la mejora de los procesos de producción, en especial en la fase de preproducción (como puede ser la documentación o la selección terminológica) o la postproducción (revisión automática de los textos, adaptación estilística…).

Ahora bien, toda esa versatilidad de tareas no equivale a comprensión experta. El modelo no razona, sino que predice utilizando la probabilidad. Es habitual que invente datos o incluya sesgos culturales o de género, se pierda la trazabilidad de las fuentes y no sea coherente en el uso de la terminología técnica. Así las cosas, la lección para la docencia de la traducción es clara: el valor aparece cuando enseñamos al alumnado a detectar esos errores y a colaborar con la máquina estableciendo los límites correctos.

¿Cómo podemos introducir la IA en el aula de traducción?

A nuestro modo de ver, resulta imprescindible introducir al alumnado de los grados de traducción en la enseñanza de la IAGen, de manera que pueda familiarizarse con esta y realizar prácticas de laboratorio con textos tanto generales como especializados en ámbitos muy diversos (jurídico, médico, financiero o técnico), en los que una desviación de sentido, un tono inadecuado o una elección terminológica imprecisa generados por la máquina pueden acarrear consecuencias muy graves.

Una forma de hacerlo (y con cual la docencia gana muchos enteros) es convertir la clase en un taller de pruebas de traducción. Es fundamental enseñar a nuestro alumnado a practicar para entender y aplicar criterios de PE, diseñar prompts efectivos, verificar el output, documentar los cambios en la traducción y aplicar métricas de evaluación manuales (utilizando, por ejemplo, modelos ya testados como Multidimensional Quality Metrics) y automáticas (como BLEU o TER) al tiempo que se justifica la idoneidad de la posedición o el rechazo del output.

Un ejemplo de ejercicio útil es trabajar los límites que presentan los LLM. Resulta interesante pedirle al modelo adaptaciones de un mismo texto para distintos públicos (desde un artículo académico o un blog juvenil hasta un folleto informativo) y analizar cómo cambian registro, tono y léxico antes de redactar la versión definitiva. Podemos para ello utilizar fragmentos de textos cargados cultural o ideológicamente y orientar la actividad a la identificación de posibles sesgos del modelo y a practicar estrategias de corrección y contextualización.

Para entrenar el control de los LLM funciona bien trabajar por iteraciones: empezar con una instrucción sin proporcionarle ejemplos (zero‑shot), seguir con una con referencia (one‑shot) y continuar con varias traducciones y modelos (few‑shot), registrando qué mejora en cada iteración y dónde están los límites. A esto podemos también añadir ejercicios para que el alumnado compare los resultados que producen los LLM y los motores de TA por tipología textual, realice un análisis de coste‑tiempo‑calidad, practique la anonimización de datos e integre estas actividades en proyectos derivados de encargos de traducción que integren distintos grados de automatización del proceso. El trabajo colaborativo es un gran aliado en este sentido y posibilita también la adquisición de otras competencias periféricas necesarias para desarrollar la labor traductora, las llamadas soft skills.

Además, no debería faltar conversación y debate en materia de ética para concienciar al alumnado sobre la privacidad y seguridad de los datos (qué se puede subir y con qué salvaguardas), el impacto ambiental de la IA, y cómo afecta el uso de la IA a los derechos de autor y la atribución de responsabilidades, entre otras cuestiones. No basta con compartir con el alumnado un decálogo o una guía de buenas prácticas y ética profesional: es necesario exponer al alumnado a casos reales para que debatan y argumenten sus decisiones. El objetivo es que, en el futuro, el alumnado pueda definir claramente los riesgos, tomar las medidas oportunas y diseñar la solución adecuada para cada encargo. Como sabemos, la gestión responsable exige varios filtros por parte del traductor: definir qué uso de la tecnología debe realizarse, fijar controles humanos claros y concretos y asegurar la trazabilidad. Así pues, a la hora de formar a los futuros traductores consideraremos la traducción humana como columna vertebral para la formación del alumnado, pero no podemos (ni debemos) dejar de incorporar la tecnología a la que tendrán que enfrentarse en su desempeño profesional.

Universidad y empresa: del contacto puntual a la alianza continua

A nuestro modo de ver, los planes de estudio de los grados de traducción deben seguir gravitando alrededor de la adquisición de las competencias tradicionales y bases epistemológicas fundamentales que sirven como andamiaje y preparación del alumnado para su futuro profesional. Sin embargo, sería conveniente que adaptaran con mayor agilidad su oferta formativa para integrar la alfabetización en IA basada en la evaluación crítica de los datos en el contexto profesional de la traducción. La universidad necesita ampliar su mirada hacia el entorno productivo, integrando sus innovaciones y dinámicas en la reflexión académica. Esto significa pasar del contacto esporádico a la cooperación estructurada y mantenida en el tiempo con las empresas del sector. Ambas, universidad y empresa, deben colaborar activamente para establecer un diálogo que ayude a detectar las necesidades del mercado, alinear y delimitar nuevas competencias, compartir estándares de calidad, ritmos de actualización y acceso a las herramientas, así como reflexionar sobre el impacto profesional que produce la automatización actual poniendo el acento en la defensa del valor humano en la profesión y la protección del bienestar de los profesionales.

A modo de conclusión

No cabe duda de que la velocidad, la capacidad de procesamiento y rendimiento de los LLM hacen presagiar una progresiva incorporación de estos modelos en las empresas de traducción. La IAGen amplía el repertorio de herramientas disponibles, pero no puede reemplazar el juicio experto del profesional de la traducción: la máquina puede generar y traducir un texto, pero será el traductor quien lo juzgará y le dará sentido. Es más, cuando el contenido es sensible, de alto valor o gran impacto, la decisión debe seguir en manos de la persona experta para ponderar riesgos y asumir la responsabilidad del resultado, que no puede dejarse en manos de la máquina. Dicho de otra forma: las personas seguirán siendo esenciales en la traducción por mucho que avance la tecnología, pues la IA no comprende el impacto económico, social, cultural o emocional de sus decisiones.

La universidad es la pieza clave para formar profesionales críticos y responsables, capaces de integrar la IA como apoyo (no como sustituto) del criterio humano, desarrollando competencias éticas, estratégicas y reflexivas que les permitan tomar decisiones en un entorno en constante cambio. Así, en este contexto cada vez más tecnologizado, las universidades tienen el reto de realizar una integración equilibrada de la IA en los planes de estudios. Universidad y empresa deben aunar esfuerzos para asegurar una óptima inserción y desarrollo de los profesionales en el sector, pues cuestiones como la reflexión ética del uso de la tecnología y su impacto en el bienestar la profesión, la formación continua y la adaptación progresiva a la tecnología se antojan necesitadas de estas dos miradas complementarias.

Imagen de Diana González Pastor

Diana González Pastor

Diana González Pastor es licenciada en Traducción e Interpretación por la Universitat Pompeu Fabra de Barcelona (1998), MBA por la School of International Studies (2005, ESCI-Universitat Pompeu Fabra) y doctora en Traducción e Interpretación por la Universitat Politècnica de València (2012). Traductora jurada en el par de lenguas inglés-español (2000). Profesora de traducción y lengua inglesa adscrita al Departamento de Filología Inglesa y Alemana de la Universitat de València. Ha sido investigadora principal del Proyecto de Investigación DITAPE, Docencia e Investigación para la Traducción Automática y la Posedición (GV/2021/080), financiado por la Conselleria d’Innovació, Universitats, Ciència i Societat Digital de la Generalitat Valenciana (2021-2022) y coordinadora del Proyecto de Innovación Educativa POSEDITrad (2019-2021). Es secretaria del Instituto Interuniversitario de Lenguas Modernas Aplicadas (IULMA) en Valencia y codirectora de la colección científica de monografías de dicho instituto de investigación. Desarrolla su actividad investigadora en el seno del grupo CiTrans. Sus principales áreas de investigación son la traducción turística, las tecnologías de la traducción y la didáctica de la traducción.

Noticias relacionadas