En estos días de zooms, meets e incontables webinarios no puedo dejar de recordar aquellas iniciativas pioneras en el mundo de la interpretación de las que disfrutábamos allá por el año 2011 (IntJC o Endless Possibilities Talks) y en las que explorábamos las nuevas tecnologías que iban apareciendo aplicadas a la interpretación. Poco ha cambiado desde entonces; no ha habido grandes disrupciones pero sí se han ido perfeccionando muchas de las herramientas que se empezaron a probar hace más de 10 o 20 años.
Ahora, la interpretación remota o en línea es una realidad y una realidad consolidada; cierto es que las plataformas han evolucionado mucho, y cada vez hay más opciones y numerosas mejoras. La mayoría de las plataformas de videoconferencia ofrecen algún tipo de transcripción de las reuniones; los esfuerzos se centran ahora en integrar la traducción y transcripción automáticas. Google Meet, por ejemplo, comenzó a ofrecer subtítulos (transcripción automática) en septiembre de 2019 y ahora trabaja para poder ofrecer traducción simultánea, es decir, subtítulos traducidos en vivo para audio o video. Zoom parece ser que también proporciona transcripciones después de la reunión. Cisco (Webex) ofrece transcripciones en tiempo real y subtitulado durante la reunión, así como grabaciones y transcripciones después de la reunión.
Además de la transcripción automática, los trabajos en inteligencia artificial tienen como objetivo primordial posibilitar la traducción e interpretación en tiempo real de las reuniones (interpretación automática, o traducción de voz a voz). Baidu y Tencent presentaron ya en 2018 soluciones de interpretación simultánea automática y Microsoft en 2019 presentó un holograma de habla japonesa, que se basaba en la tecnología de texto a voz.
Hay proyectos interesantísimos que están explorando las posibilidades de la inteligencia artificial en interpretación. El proyecto H2020 KRISTINA, por ejemplo, tenía entre sus objetivos desarrollar un agente conversacional multilingüe para el sector sanitario. El Instituto de Tecnologías del Lenguaje (LTI por sus siglas en inglés) de la Universidad Carnegie Mellon (EE. UU.) está desarrollando un sistema de IAO (Interpretación Asistida por Ordenador) muy innovador. Otro proyecto de interpretación automática muy interesante es MINTerpreting liderado por Claudio Fantinuoli, profesor e investigador en la Universidad Johannes Gutenberg de Maguncia (Alemania). Se trata de una herramienta de código abierto diseñada para estudiar la interpretación automática, tanto simultánea como consecutiva o a la vista. Según Fantinuoli, en un futuro muy cercano (1 o 2 años), la interpretación automática será la norma en las plataformas de videoconferencia y la interpretación simultánea remota se convertirá en su rival.
Rony Gao, intérprete de conferencias y socio de Mensa Canadá, opina que el cambio llegará más tarde. Según Gao, el trabajo del intérprete humano no desaparecerá pero sí se redefinirá: en 5 o 10 años, la tecnología continuará remodelando la interpretación de conferencias, mejorando la experiencia de usuario y reduciendo costes y en 10 o 20 años, la mayoría de los trabajos de interpretación se realizarán con ayuda de herramientas de la inteligencia artificial.
¿Quién tendrá razón?
Estupendo post. Muchas gracias.
Pues sí, la tecnología ha cambiado bastante en estos últimos años. Afortunadamente hasta ahora para bien, esperemos que sigamos teniendo trabajo y que el AI sea sólo complementario. Saludos.