Fumata blanca: la UE pacta la primera ley de inteligencia artificial del mundo
Las instituciones europeas alcanzan un acuerdo tras superar los escollos referidos a la vigilancia biométrica y la regulación de los modelos fundacionales
Las instituciones de la Unión Europea han alcanzado este viernes un acuerdo para sacar adelante la primera ley del mundo que regule el uso de la inteligencia artificial, según anunció el comisario europeo de Mercado Interno, Thierry Breton, uno de los arquitectos de esta regulación. “¡Histórico!”, expresó Breton en la red X (antes Twitter), después de tres días de duras negociaciones entre el Parlamento Europeo, el Consejo y la Comisión Europea. “Con este acuerdo político la UE se convierte en el primer continente en establecer unas reglas claras para el uso de la Inteligencia Artificial”, añadió.
El acuerdo se alcanzaba tras más de 35 horas de negociación y después de superar los escollos respecto a la vigilancia biométrica y el uso de esta tecnología por parte de las fuerzas de seguridad para la identificación de personas en espacios públicos, mediante sistemas como el reconocimiento facial. Otra de las claves ha sido la introducción de reglas específicas para los modelos fundacionales, en los que se basan sistemas de inteligencia como ChatGPT o DALL-E.
El objetivo de la nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales que eviten que esta tecnología se use con fines represivos, de manipulación o discriminatorios; pero sin que se traduzca en una hiperregulación que lastre la competitividad de la Unión Europea. Un equilibrio que ha costado alcanzar.
Breton resaltó en su mensaje en X que la AIAct “es mucho más que un paquete de normas. Es una lanzadera para que las startups europeas y los investigadores lideren la carrera global de la IA”. También Ursula von der Leyen, presidenta de la Comisión, celebró una normativa que es “pionera en el mundo”. Un marco legal, dijo, “único para el desarrollo de una IA en el que se puede confiar”. Por su parte, Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, calificó el acuerdo como “el mayor paso en la historia de la transformación digital europea”. era una de las prioridades fijadas por España para su semestre europeo, que acaba este mes de diciembre.
El acuerdo, una de las prioridades fijadas por la Presidencia española de la UE, que acaba este mes de diciembre, coloca a la UE por delante de Estados Unidos, China y el Reino Unido en la carrera por regular la inteligencia artificial y proteger a los ciudadanos de amenazas potenciales que puedan provocar esta tecnología en rápido desarrollo.
El pacto se ha producido tras años de discusiones entre los Estados miembros y las instituciones europeas. Los eurodiputados han pasado años discutiendo su posición antes de presentarla a los estados miembros y a la Comisión Europea, el órgano ejecutivo de la UE. También las empresas europeas han expresado durante los últimos meses su preocupación porque unas reglas demasiado restrictivas sobre esta tecnología, que está evolucionando rápidamente y ganando terreno después de la popularización de ChatGPT de OpenAI, pudieran obstaculizar la innovación.
En junio pasado, 150 empresas europeas, entre ellas Airbus, Siemens, Renault y Dassault, dijeron que las reglas parecían demasiado estrictas para fomentar la innovación y ayudar a las industrias locales.
La Ley de IA de la UE será la primera de su tipo dirigida específicamente a la inteligencia artificial y llega tras años de esfuerzos europeos para regular la tecnología. La ley tiene sus orígenes en 2021, cuando la Comisión Europea propuso por primera vez un marco regulatorio y legal común para la IA. El mes pasado, el Reino Unido organizó una cumbre sobre seguridad de la IA, que generó amplios compromisos de 28 países para trabajar juntos para abordar los riesgos existenciales derivados de la IA avanzada. Ese evento atrajo a figuras tecnológicas líderes como Sam Altman de OpenAI, quien anteriormente había criticado los planes de la UE para regular la tecnología. También en octubre, el presidente de EE UU, Joe Biden, firmó una orden ejecutiva que obliga a las empresas de IA a notificar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
El acuerdo alcanzado hoy aún puede encontrar algunas resistencias cuando se presente a los Estados miembros, que deberán validarlo para que se convierta en ley, al igual que tendrá que hacerlo el pleno de la Eurocámara.
Las autoridades europeas han ofrecido pocos detalles sobre qué se incluirá exactamente en la ley final, que no entraría en vigor hasta 2025 como muy pronto. La ley dividirá la IA en categorías de riesgo, desde “inaceptable” (es decir, tecnologías que deben prohibirse) hasta formas de IA de alto, medio y bajo riesgo.
Para solventar las discrepancias sobre la regulación de la IA generativa, la UE ha establecido requisitos más estrictos para los modelos más potentes, mientras que el resto tendrán obligaciones de transparencia. Las obligaciones impuestas a los agentes potencialmente sistémicos se basan principalmente en la evaluación y supervisión del riesgo, y se complementan con un código de conducta voluntario, según detalla Les Echos. Unas medidas que han sido consideradas insuficientes por la Oficina Europea del Consumidor, que lamenta la falta de “resguardos necesarios” a sistemas como ChatGPT o Bard “para hacer que los consumidores confíen en ellos”.
Este jueves, Borja Adsuara, abogado especializado en derecho digital, explicaba a CincoDías cuando ya estaba cerca el acuerdo, que aunque quedaba por leer los acuerdos alcanzados, “parece que van en la línea de establecer un ‘marco regulatorio’ con unas obligaciones para las empresas de IA, que permitirá un margen para la autorregulación sectorial (supervisada), de tal forma que no se impida la innovación de las empresas europeas (con una normativa corsé), pero dentro de unos límites, para no dejar algo tan importante como el respeto de los derechos fundamentales de los ciudadanos a un mero código de buenas prácticas. Es lo que se ha venido en llamar la corregulación o autorregulación regulada”.
También advertía que estábamos ante “un acuerdo marco” que tendrá que desarrollarse después por actos ejecutivos de la Comisión y, sobre todo, por las Autoridades de Supervisión de la IA de los Estados miembros y de la Oficina Europea de IA, dependiente de la Comisión Europea, que se encargará de supervisar la aplicación de la ley y podrá imponer sanciones. Se trata de “un sistema parecido a la aplicación del Reglamento General de Protección de Datos (RGPD) y el que también está previsto para la aplicación de la Ley de Servicios Digitales (DSA)”, aclaró Adsuara.
En cuanto al otro punto crítico, el uso de la IA por parte de las fuerzas del orden, el texto establece varias prohibiciones, incluyendo el altamente controvertido reconocimiento facial en tiempo real, con algunas excepciones, como la búsqueda de víctimas, la prevención de amenazas terroristas o la localización e identificación de personas sospechosas de haber cometido delitos. El Parlamento Europeo apostaba por una prohibición total del reconocimiento facial en vivo, pero varios países de la UE pedían que se pudiera utilizar con fines de seguridad nacional.
Dragoș Tudorache, el eurodiputado rumano que ha liderado la batalla de cuatro años del Parlamento Europeo para regular la IA, defendió que “somos los primeros en el mundo en establecer una regulación real para la IA y para el futuro mundo digital impulsado por la inteligencia artificial, guiando el desarrollo y la evolución de esta tecnología en una dirección centrada en el ser humano”.
Anteriormente había dicho que la UE estaba decidida a no cometer los errores del pasado, cuando a gigantes tecnológicos como Facebook se les permitió convertirse en corporaciones multimillonarias sin obligación de regular el contenido de sus plataformas, incluida la interferencia en las elecciones y el sexo infantil. Abuso y discurso de odio, según informa The Guardian.
Anu Bradford, profesora de la Facultad de Derecho de Columbia y experta en la UE y la regulación digital, también aseguró que una regulación sólida de la UE podría “ser un poderoso ejemplo para muchos gobiernos que estén considerando regularla”. Otros países “tal vez no copien todas las disposiciones, pero probablemente emulen muchos aspectos de ellas”, añadió.
Las empresas de IA que tendrán que obedecer las normas de la UE probablemente también extenderán algunas de esas obligaciones a mercados fuera del continente, dijo Bradford a la agencia AP. “Después de todo, no es eficiente volver a entrenar modelos separados para diferentes mercados”.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días