¿Favorecerá el reglamento de la UE el desarrollo de la inteligencia artificial?
Aunque la norma recién aprobada es un hito regulatorio, su efectividad dependerá en buena parte de su marco supervisor y la coordinación entre autoridades
La aprobación definitiva del Reglamento Europeo de Inteligencia Artificial (IA) por parte del Parlamento Europeo convirtió ayer la UE, según algunas autoridades comunitarias, en la primera jurisdicción internacional que cuenta con una ley integral sobre el uso de la IA. El adjetivo integral es muy relevante, porque en los tres años que han durado las negociaciones de esta norma, propuesta inicialmente en abril de 2021 por la Comisión Europea, tanto Estados Unidos como China, con una aproximación mucho menos ambiciosa, han publicado legislación sobre aspectos específicos de esta tecnología o desarrollos recientes como la IA generativa, tan en boga desde que ChatGPT fue lanzado al mercado a finales de 2022.
Sin embargo, ninguna de estas intervenciones legislativas establece en un único texto prohibiciones a ciertas aplicaciones de inteligencia artificial consideradas contrarias a los valores europeos; requisitos adicionales sobre sistemas de IA de propósito general y sobre sistemas cuyo incorrecto desarrollo podría perjudicar la salud, la seguridad o los derechos fundamentales de los ciudadanos; y obligaciones de transparencia sobre sistemas que interaccionan con ciudadanos o generan artificialmente imágenes, sonidos o texto.
Más allá del impacto de cada uno de estos requisitos y obligaciones concretos, la gran incógnita que queda por despejar una vez aprobado el Reglamento es si este favorecerá el desarrollo y adopción de inteligencia artificial “confiable” en la UE, como enfatizan las autoridades europeas, o si, por el contrario, la existencia de estos requisitos puede aumentar la distancia entre la UE y los países líderes en esta tecnología, Estados Unidos y China.
Uno de los aspectos clave para el impacto de la norma será la definición de sistema de IA que se establece en la ley. Aunque está basada en las recomendaciones de la OCDE sobre inteligencia artificial recientemente actualizadas y mejora considerablemente otras versiones que se han barajado durante la negociación, no excluye explícitamente los sistemas automatizados basados en reglas que se usan desde hace tiempo en algunas actividades económicas, pese a que estos sistemas son generalmente bastante simples, carecen de autonomía y son explicables.
Por otro lado, es posible que algunos de los sistemas identificados como de alto riesgo en la norma no estén sometidos a requisitos equivalentes fuera de la UE, lo que incentive su desarrollo en otras geografías. Aunque esto podría ser cierto, los requisitos establecidos para sistemas de IA de alto riesgo reflejan fundamentalmente buenas prácticas en el desarrollo de sistemas informáticos como la identificación y mitigación de riesgos o garantizar un nivel apropiado de ciberseguridad. De hecho, en lo que se refiere a los sistemas de propósito general, estos ya están sometidos en Estados Unidos a la orden ejecutiva firmada por el presidente Biden el 30 de octubre de 2023 o a la ley sobre IA generativa en China
En cualquier caso, el impacto final de esta norma dependerá en gran medida de tres aspectos todavía por concretar: el desarrollo normativo del reglamento, su marco de supervisión y la coordinación entre autoridades.
Respecto al desarrollo normativo, el reglamento de IA será de aplicación entre 6 y 24 meses después de su entrada en vigor. En ese lapso temporal, la Oficina de IA de la Comisión Europea publicará normativa secundaria sobre aspectos concretos de la norma, como la interpretación de la definición de IA o de las prácticas prohibidas o la implementación práctica del reglamento.
En cuanto al marco de supervisión, el reglamento establece que la Oficina de IA supervise los sistemas de IA de propósito general y el resto de los sistemas de IA sean supervisados por las autoridades competentes de los Estados miembros, como la Agencia Española de Supervisión de la Inteligencia Artificial, que será el supervisor principal de este Reglamento en España. En el caso de las entidades financieras, la norma por defecto designa a las autoridades financieras como autoridades de supervisión del mercado.
El hecho de que la supervisión del reglamento recaiga en un número tan amplio de autoridades puede dar lugar a disparidad de criterios entre ellas y a una aplicación desigual de la norma en cada país o, incluso, entre sectores. Por ello, el reglamento crea una estructura de gobernanza supranacional que pretende coordinar la acción de las autoridades nacionales y armonizar criterios. La pieza principal de esta estructura es la ya referida Oficina de IA, cuyos trabajos serán apoyados por el Consejo Europeo de IA, en el que participarán los supervisores nacionales; un panel científico de expertos independientes y un foro consultivo formado por proveedores, desarrolladores y usuarios de IA.
En conclusión, aunque el reglamento recién aprobado supone un hito regulatorio que puede conseguir una protección razonable de los ciudadanos ante la proliferación de sistemas de IA, todavía es pronto para evaluar su impacto en el desarrollo de esta tecnología en la UE, pues este dependerá en gran medida de los trabajos a realizar en los próximos meses por la Oficina de la IA y el perfil supervisor de cada autoridad competente.
En particular, es esencial que los supervisores aborden la implementación con flexibilidad y proporcionalidad, pues, al tratarse de una tecnología en continua evolución y de la regulación más ambiciosa desarrollada hasta la fecha, surgirán imprevistos ante los que habrá que reaccionar con rapidez.
Igualmente, para promover la competitividad de la UE, las autoridades europeas deberán fomentar la coordinación internacional de las intervenciones regulatorias en este campo.
Jesús Lozano Belio es miembro del equipo de Regulación Digital de BBVA.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días