‘AI Act’: inteligencia artificial fiable como un fármaco y rentable como un fondo
El trabajo de los legisladores de la UE requerirá de una revisión constante de la nueva norma para adaptarla a una tecnología que progresa a gran velocidad
La primera ley mundial para regular el uso de la inteligencia artificial (IA) lleva el sello inconfundible de los Veintisiete. Prohíbe lo inadmisible, controla lo razonable y garantiza lo deseable. Fundamentos del Tratado de la Unión Europea como el respeto a los derechos humanos y la protección a las personas más vulnerables articulan el nuevo reglamento de la IA que, a falta de la aprobación de los Estados miembros y su implantación pau...
Para seguir leyendo este artículo de Cinco Días necesitas una suscripción Premium de EL PAÍS
La primera ley mundial para regular el uso de la inteligencia artificial (IA) lleva el sello inconfundible de los Veintisiete. Prohíbe lo inadmisible, controla lo razonable y garantiza lo deseable. Fundamentos del Tratado de la Unión Europea como el respeto a los derechos humanos y la protección a las personas más vulnerables articulan el nuevo reglamento de la IA que, a falta de la aprobación de los Estados miembros y su implantación paulatina hasta 2026, prevé imponer límites para, gracias a ellos, crecer en competitividad.
Lejos de ser un oxímoron, la fórmula funciona con éxito. Vallisoletanos, berlineses o napolitanos acuden con seguridad a las farmacias de su ciudad porque saben que la Agencia Europea del Medicamento vela por el control de los fármacos que se comercializan en la UE. Lo mismo ocurre cuando van al supermercado para llenar la nevera o adquieren el producto financiero que les ha recomendado su banco. Saben que el riesgo está controlado cuando tratan una dolencia, alimentan a sus familias o ahorran para la jubilación porque existen organismos de supervisión que garantizan la confianza de los consumidores y usuarios en las empresas. Y la capacidad para generar confianza sabemos que es una de sus mayores ventajas competitivas.
Una de las primeras medidas que traerá consigo el nuevo reglamento es la creación de la Oficina Europea de Inteligencia Artificial, que habrá de garantizar el cumplimiento de las reglas previstas en la nueva ley para que la IA sea más segura y fiable. O lo que es lo mismo, para que las compañías y organizaciones que desarrollen o apliquen sistemas y programas de IA en territorio europeo sean más seguras y fiables. ¿En comparación con quién? Esperemos no encontrar demasiadas diferencias. Veamos por qué.
Europa trabaja en la regulación de la IA desde hace cinco años, cuando los legisladores no podían siquiera imaginar el estallido de la inteligencia artificial generativa (IAGen) y que, en los últimos meses, apenas ha llegado a impactar en una norma que habrá de ser flexible para adaptarse a la naturaleza de una innovación en permanente cambio.
Mientras tanto, y aunque han perdido la oportunidad de abanderar el liderazgo en materia regulatoria, Estados Unidos y China se han comprometido a regular el uso de la IA para evitar riesgos. Unos riesgos que, a medio y largo plazo, en Washington y en Pekín saben que pueden comprometer la reputación y viabilidad de sus empresas hoy punteras; precisamente estos días, las redes sociales se enfrentan al escrutinio social y también judicial en algunos estados norteamericanos por sus consecuencias sobre la salud mental en menores de edad tras dos décadas de vida operando sin control.
La UE se convierte así en precursora de las dos mayores potencias internacionales, las que más han avanzado en el desarrollo y aplicación de la inteligencia artificial y que difícilmente podrán mantenerse al margen del nuevo marco legislativo de referencia. Homogeneizando prácticas y ofreciendo garantías al nivel de Europa, empresas y organizaciones de todo el mundo y en todo el mundo podrán competir en condiciones de igualdad ofreciendo la mejor versión de sí mismas.
Hasta aquí, las buenas noticias que ha traído consigo la llamada AI Act. No porque advirtamos inconvenientes en el nuevo reglamento, pero sí es necesario prestar atención a los vacíos provocados, en gran medida, por la vertiginosa evolución de esta tecnología. Apuntábamos la necesaria flexibilidad de la norma; el trabajo de los legisladores requiere una revisión continua para adaptar el texto a nuevas técnicas en un contexto en que la IA progresa a una velocidad extrema. Ahí tenemos el aprendizaje federado o la computación cuántica, llamando a nuestras puertas cuando aún no hemos pasado de pantalla.
Más complejo resultará el abordaje de la tecnología subyacente, es decir, los modelos que conforman un sistema de inteligencia artificial, incluidos los fundacionales sobre los que se erige la IAGen y que, por su complejidad, resultan muy difíciles de explicar.
Esta dificultad se traduciría en el incumplimiento tácito de un reglamento que exige a la IA revelar por qué toma determinadas decisiones o por qué actúa como lo hace. Por eso la ley, si bien establece ciertos controles de auditabilidad de los resultados, no se dirige de forma exhaustiva a unos sistemas cuya irrupción en la Unión Europea obligó a los legisladores a acotar la responsabilidad. Esto hace necesario que no den por concluida la regulación cuando queda casi todo el trabajo de la inteligencia artificial generativa por hacer.
Mientras tanto, y a falta de otras certezas, de las empresas depende aplicar una IAGen gobernada, ética y sostenible, rehusando los riesgos inadmisibles, limitando los riesgos altos y respondiendo al resto con una estrategia de transparencia y rendición de cuentas. Porque, no lo olvidemos, cuanta más confianza genere en las personas, las mismas que se fían de la receta que les dispensa el médico, de las ofertas de la tienda del barrio o de la llamada de su asesor financiero, más competitiva y más útil será la IA.
Leticia Gómez Rivero es responsable de Estrategia y Gobierno de IA en Minsait (Indra)
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días