_
_
_
_
El Foco
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Los tres colores del semáforo y la regulación de la IA

Uno de los peligros más significativos de una inteligencia artificial no convenientemente regulada es el sesgo

Inteligencia artificial
Yuichiro Chino (Getty Images)

La inteligencia artificial (IA) ya incide en múltiples ámbitos de nuestra vida cotidiana. Su avanzada tecnología ofrece innumerables ventajas como la automatización de tareas rutinarias, eficiencia, capacidad de procesamiento de grandes volúmenes de datos y personalización de múltiples servicios. Sin embargo, estas ventajas vienen acompañadas de desafíos en cuanto a privacidad, sesgos algorítmicos, responsabilidad en caso de errores y el impacto en el ámbito de empleo.

Uno de los peligros más significativos de una inteligencia artificial no convenientemente regulada es el sesgo. Ya hemos presenciado incidencias que han provocado casos de discriminación por sexo o raza, entre otras. Los sistemas de IA aprenden a partir de datos y, si esos datos reflejan prejuicios existentes en la sociedad, podrían perpetuarlos o incluso exacerbarlos. Esto podría manifestarse en sistemas de contratación, créditos y sistemas judiciales. Además, sin una regulación adecuada, la IA podría ser utilizada para recopilar, analizar y compartir datos personales sin consentimiento.

Por otro lado, surge la cuestión de la responsabilidad en caso de errores o accidentes causados por la inteligencia artificial. Sin un marco legal claro, determinar quién es responsable puede ser un desafío; y otro de los problemas derivados son los ataques o manipulaciones maliciosas de la misma, lo cual podría tener consecuencias graves en ámbitos como la seguridad nacional o la infraestructura esencial.

A la hora de combatir estos desafíos, la IA no es diferente a otras tecnologías de gran impacto como lo fue el automóvil, en su día, o Internet. Teniendo en cuenta su rápida evolución, sin duda se requiere una regulación dinámica y adaptativa, aunque, a decir verdad, la regulación en materia de IA se encuentra en etapas incipientes.

Por ejemplo, en Estados Unidos, la regulación ha sido más sectorial y depende en gran medida de los Estados individuales, aunque existen ciertos marcos federales en áreas específicas, como la privacidad o la discriminación.

A nivel global, el reto radica en equilibrar la innovación con la protección del ciudadano. Una regulación excesiva podría sofocar la innovación, mientras que una falta de regulación podría dejar a las personas desprotegidas. La UE lleva varios años desarrollando el llamado AI Act en un esfuerzo común entre los organismos reguladores europeos, empresas, expertos en IA y sociedad civil. Su objetivo: proteger los derechos fundamentales de las personas, garantizar la transparencia en la toma de decisiones de los sistemas de IA y establecer mecanismos de rendición de cuentas y supervisión humana adecuados, entre otras cuestiones básicas. No pretenden regular la tecnología en sí misma, ya que esto supondría un problema para su implementación y desarrollo, sino casos de uso específicos que pueden suponer un riesgo.

Así, establecen una especie de semáforo. En rojo prohibido se encuentran los sistemas de IA usados para el rastreo aleatorio de datos biométricos de redes sociales o cámaras de vigilancia para crear o ampliar bases de datos de reconocimiento facial; sistemas de categorización biométrica que usen “características sensibles” cómo el sexo, raza, etnia, religión u orientación política –salvo para su uso terapéutico–; sistemas usados para puntuación social de las autoridades públicas (como es el caso de China), sistemas predictivos de vigilancia para evaluar el riesgo de una persona o grupo de personas de cometer un delito u ofensa o los sistemas de identificación biométrica remota en tiempo real en espacios de acceso público para las fuerzas del orden (niños desaparecidos, ataques terroristas, orden de detención, autorización judicial previa...)

El semáforo naranja (foco de la mayor parte del AI Act) incluye los sistemas de alto riesgo, consideraciones y requerimientos. Se trataría de cualquier implementación cuyo desarrollo pudiera conllevar un impacto negativo sobre los derechos fundamentales de la persona, salud y seguridad de los ciudadanos o el medioambiente. Un ejemplo, la IA generativa, en el caso de que tenga incidencia significativa sobre la vida de las personas. Uso de la IA en educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y beneficios públicos; gestión de migración, asilo y control de fronteras; administración de justicia y procesos democráticos; o aquellos sistemas de IA que puedan influir a votantes en campañas políticas.

Todos deberán cumplir con unos requerimientos entre los que se encuentran una alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y resultados discriminatorios; registros de actividad para garantizar la trazabilidad de los resultados; medidas adecuadas de supervisión humana para minimizar el riesgo; y un alto nivel de robustez, seguridad y precisión, entre otras. Aquellos que no lo cumplan se enfrentarán a multas de hasta el 6% de su facturación global o 30 millones de euros.

El semáforo amarillo aglomera los riesgos limitados; los destinados a interactuar con personas físicas (chatbots) o incluso deepfakes. Aquí las obligaciones serían de transparencia para no crear confusión en el consumidor.

Por último, el semáforo verde quedaría reservado a aquellos sistemas que suponen un mero automatismo. Por ejemplo: filtros de spam o aquellos usados en videojuegos.

Sin duda, la IA presenta un potencial transformador inmenso. Sin embargo, como cualquier herramienta poderosa, conlleva tanto oportunidades como riesgos. Aunque existen esfuerzos en curso para desarrollar una regulación sólida, todavía hay un largo camino por recorrer para garantizar un uso seguro y ético de la IA en nuestra sociedad. En cualquier caso, debemos recordar que el peligro no es la IA, en sí misma (al menos por ahora), sino el uso que nosotros, los humanos, hacemos de ella.

Idoia Salazar es profesora de la Universidad CEU San Pablo, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y experta del Observatorio de IA del Parlamento Europeo (Epaio)

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_