_
_
_
_
En colaboración conLa Ley
Inteligencia Artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Algoritmos, desigualdad y otros mitos malintencionados

El debate regulatorio futuro debería centrarse en quién y cómo diseña el algoritmo, así como en la definición de las garantías

Getty Images

Según la mitología griega, el titán Prometeo robó el fuego de los dioses para entregarlo como regalo a los hombres. La técnica, la dominación del fuego, sería clave para la transformación social y fisiológica del ser humano.

La tecnología, hoy, nos ofrece una nueva y brillante oportunidad, quizás mayor de lo que supuso el fuego ahora hace más de 500.000 años. Me refiero a la inteligencia artificial (IA), que aúna distintas técnicas entre las que incluye a los sistemas expertos que emulan el juicio humano y ofrecen resultados en base al análisis de múltiples variables y cuya fuente primaria es una ingente base de datos personales. Frente a ellos crece en el debate público una nube de desconfianza y se ha llegado a publicar en la tribuna pública que “los algoritmos perpetúan la desigualdad”. Una premisa errónea, basada en lecturas sesgadas de resultados poco satisfactorios en el empleo de sistemas inteligentes.

Culpar a los algoritmos de las decisiones humanas es una nueva forma de injusticia que pretende desviar el foco de atención y, por el camino, aprovecharse del discurso apocalíptico en torno al avance tecnológico. Ya lo decía Umberto Eco cuando se refería a apocalípticos e integrados, con una célebre fórmula que recuerda la capacidad para adscribirnos fácilmente a posiciones del tipo blanco o negro, conmigo o contra mí.

El debate exige empero más amplitud de miras y comprender cómo funcionan los sistemas de IA, así como la plena aceptación de sus efectos ambivalentes. Si de lo que se trata es de emular el juicio humano, lo primero es reconocer nuestras debilidades, expuestas brillantemente por Kahneman. Los prejuicios tienen un peso muy elevado en nuestra forma de ser y actuar, por encima de la razón, y nuestra mecánica decisoria gira en torno a la comodidad y a nuestras experiencias anteriores. Heurísticos o atajos intuitivos que nos condicionan sin una base empírica sólida.

Esa realidad se proyecta en la práctica en forma de sesgos y desigualdades muy presentes en nuestra sociedad. Los algoritmos no perpetúan la desigualdad, sino que más bien son sus creadores, los humanos, los que proyectamos nuestros prejuicios sobre el código algorítmico.

La lectura de ello no debe ser necesariamente negativa, ni apocalíptica, pues la IA tiene muchos usos beneficiosos, como el fuego en su día. Por ejemplo, en 2014, Amazon intentó solucionar el problema de la contratación mediante un sistema de inteligencia artificial, y el resultado fue que el algoritmo procedió a seleccionar mayoritariamente currículos masculinos excluyendo a mujeres por el solo hecho de serlo. El uso del algoritmo puso de manifiesto la existencia de un sesgo discriminatorio de género en el seno de la empresa, y gracias a ello, ahora se ha podido corregir.

No resulta descabellado entonces apuntar a estos sistemas para un uso preventivo y detectivo de las múltiples desigualdades que reinan en nuestra sociedad, para luego librar la batalla correspondiente solo contra aquellas que merezcan ser suprimidas, teniendo en cuenta que hay que encontrar un equilibrio con la libertad, siendo esta la más importante y la que debe primar por defecto al encontrarnos en una sociedad democrática basada en una estructura de libre mercado.

La tecnología es neutra. El fuego puede usarse para cocinar o para quemar brujas. Otra cosa bien distinta es el diseño humano de las fórmulas algorítmicas, lo que nos recuerda que el debate regulatorio futuro debería centrarse en quién y cómo diseña el algoritmo, así como en la definición de las garantías jurídicas concretas del código, tales como la transparencia (entendida como explicabilidad de los resultados), auditabilidad y trazabilidad, tanto en su diseño como en su implementación y revisión futura.

Pere Simón Castellano, profesor contratado doctor en la Universidad Internacional de la Rioja. Abogado of counsel de Font Advocats.

Archivado En

_
_