_
_
_
_

La opacidad es el principal desafío ético de la inteligencia artificial

Los algoritmos son una oportunidad para el desarrollo, pero también plantean debates morales

GETTY IMAGES

Las nuevas tecnologías asociadas con la inteligencia artificial (IA) representan una oportunidad para empresas e individuos, ya que permiten agilizar y aumentar la velocidad de los procesos, pero también plantean un desafío ético y social. Estos son los impactos que pretende analizar el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) que se presentó este martes en Google for Startups Campus.

“Nuestra intención es extraer todo el buen uso que prometen estas utilidades y eliminar los sesgos negativos que arrastran”, explicó la impulsora de la iniciativa, Idoia Salazar. La mayoría de las organizaciones están implementando códigos éticos en relación a la IA, sin embargo, estos estándares son insuficientes. Conocer la sociedad en la que se va a trabajar es fundamental para cumplir con este objetivo. “Los algoritmos pueden ayudarnos a ser más justos, pero hay que tener en cuenta que no se entiende la ética de la misma manera en todos los países ni en todos los momentos históricos, mientras que estas fórmulas sí se están aplicando de igual manera en todo el mundo”, criticó Marta Peirano, autora de El enemigo conoce el sistema (Editorial Debate), un libro sobre la sociedad y las telecomunicaciones en la era de la información.

Más información
La inteligencia artificial ya toma el papel y la pluma
Cómo rentabilizan las marcas las emociones

Se trata de un asunto complejo que exige ser examinado desde varias perspectivas diferentes. Para el profesor de Ética de la Universidad Pontificia Comillas Javier Camacho, el problema reside en que, con frecuencia, este debate se analiza bajo una óptica meramente tecnológica. “La ética no es algo dicotómico de ceros y unos, sino que su relación con la IA tiene que ser un proceso multidisciplinar y dinámico, no se puede dejar todo en manos de los técnicos”, apoyó.

Un ámbito en el que la opacidad y la falta de transparencia son el principal reto a la hora de valorar las implicaciones sociales de estas fórmulas matemáticas, especialmente para quienes no son expertos. “Vivimos en un entorno en el que un número muy limitado de personas conoce el funcionamiento de los algoritmos, mientras que una gran mayoría de la población está influida por estos, pero ignoran cómo actúan y para qué sirven”, criticó Peirano, quien considera que la transparencia es la primera condición necesaria para caminar hacia un mundo más justo. Antes de hablar de si las soluciones que presentan las máquinas tienen o no sesgos, la experta insistió en que el primer paso debería ser abrir su caja negra. “Cuando veamos cómo funcionan y los podamos auditar, entonces podremos empezar a hablar en ética en la inteligencia artificial”.

Por el contrario, para la investigadora de la Universidad Rey Juan Carlos Cristina Soguero hay un recelo excesivo en este sentido. “Cuando cogemos un coche tampoco sabemos cómo funciona, simplemente nos fiamos”, reprochó. Un símil que no convenció al jefe del gabinete jurídico de la Agencia Española de Protección de Datos (AEPD), David Santos. “Al conducir un vehículo, este me lleva donde yo quiero ir, con la IA esto no es siempre así, existe una manipulación detrás. Es un mundo que debe ser más transparente, y presentarse en un idioma que yo, que no soy ingeniero de telecomunicaciones, pueda llegar a entender”, manifestó. En esta línea, Peirano planteó la posibilidad de establecer inspecciones similares a las que se llevan a cabo en otras industrias, como por ejemplo, la alimentaria. “No se puede sacar cualquier producto a la venta sin que haya pasado unos controles en los que se garantice que no es tóxico, con la IA se podría hacer algo parecido”. Para Soguero, sin embargo, las normativas ya existentes en materia de protección de datos son excesivas. “Son barreras que frenan el desarrollo. Si queremos ayudar al avance de la sociedad, tenemos que colaborar entre todos”, reivindicó.

La falta de cultura por parte de los usuarios es la principal preocupación de Santos. “Estamos regalando nuestra información y no sabemos ni a quién. Primero tenemos que controlar esto, después, que sus usos sean realmente positivos”. Sin embargo, la pasividad ha permitido que este mercado siga creciendo de manera exponencial. “Lo que prima es la comodidad, nos hemos acostumbrado a estos dispositivos porque nos hacen la vida más fácil, pero no nos hemos parado a pensar qué estamos entregando a cambio”, continuó.

“Se trabaja con tal opacidad y la capacidad de procesamiento de las empresas en comparación a los organismos públicos es tal, que solo pueden hacer de policía ellos mismos”, comentó el portavoz de la AEPD. Por ese motivo, que sean las propias corporaciones quienes se responsabilicen y asuman un compromiso moral es la solución más efectiva. “Cuando las compañías empiecen a hacerlo, los ciudadanos también confiaremos más en ellas”, concluyó.

Archivado En

_
_