El Traductor de Google ya ofrece resultados para ellos... y ellas

El Traductor de Google ya ofrece resultados para ellos... y ellas

La plataforma tendrá en cuenta posibles alternativas de género.

El lenguaje inclusivo, que llaman algunos, es el que consiste en dar visibilidad a los dos géneros en todas aquellas ocasiones en las que gramaticalmente tengamos una solución a través de una única palabra y, como sabréis, es una cuestión que ha levantado infinidad de debates con colectivos que están a favor, y otros radicalmente en contra.

Como no creemos que vayamos a ofrecer una solución al conflicto desde aquí, simplemente nos quedaremos con que las tecnológicas están haciendo esfuerzos importantes a la hora de eliminar el llamado sesgo de género en sus comunicaciones o traducciones, lo que provocaba que profesiones como las de médico se adjudicaran de manera automática a un hombre, y la de enfermera a una mujer.

Google ofrece alternativas de género

Así las cosas, el equipo de inteligencia artificial de Google ha publicado un completo informe en el que viene a ofrecer un modelo escalable en su servicio Translate donde es posible obtener traducciones que tienen en cuenta todas las posibles alternativas de género. Es decir, que como el sistema no sabe si nos referimos a él o ella, mostrará los dos resultados para que sea el usuario el que decida con cuál se queda.

Google Translator con resultados sin sesgo de género.
Google Translator con resultados sin sesgo de género.

Como podéis apreciar en las pantallas que tenéis justo encima, Google ofreció un ejemplo de esos resultados que se pueden obtener a partir de ahora y los comparó con los que el traductor devolvía anteriormente. Si escribíamos "Mi friend is a doctor" la inteligencia artificial consideraba que nos referíamos, por defecto, a un hombre, mientras que ahora no será así y nos informará de las dos posibilidades que existen.

De todas formas, el trabajo que hay detrás de estas mejoras es muy complejo y en el blog, los investigadores explican que fue muy difícil conseguir que la plataforma fuera consciente de estos matices tan concretos. Pusieron como ejemplo traducciones del turco al inglés y a otros idiomas en los que se produjeron errores en los resultados finales. La razón fue que, al usar lo que llaman como "traducción automática neuronal" (NMT), "no fue posible mostrar traducciones específicas de género para más del 40%" de las consultas realizadas. Lo que es un porcentaje realmente bajo.

La solución que encontraron fue introducir millones de oraciones en inglés para crear un modelo desde el que partir. Más tarde añadieron el matiz femenino en todas las masculinas que lo permitían y al revés, para concluir fusionando ambas dentro de un modelo capaz de reconocer esos cambios tan imperceptibles de las traducciones.

Normas
Entra en El País para participar