La UE pacta normas históricas sobre la IA... cómo lo abordan otros países
Europa fija líneas rojas para aplicaciones de IA que quedan prohibidas. EE UU pone el foco en la seguridad nacional, no en las personas. Y Reino Unido, Japón y Singapur apuestan por guías en vez de regulaciones específicas
La UE acordó el pasado viernes la primera ley integral del mundo para limitar el uso de la inteligencia artificial, una tecnología en rápida evolución con implicaciones sociales y económicas de amplio alcance. “Es un momento histórico”, celebraron las autoridades europeas, conscientes de que “Europa se convertía en el primer continente en establecer reglas claras para el uso de la IA”. Un hito que no es baladí, pues como admitió Thierry Breton, comisario de Mercado Interior, “varias empresas, apoyadas por terceros países, han tratado de desalentarnos. Sabían que el primero en sentar las reglas tenía la ventaja de ser el primero en establecer el estándar mundial”.
Europa ya ha jugado un papel clave como emisor de otras normas de gran alcance relacionadas con la privacidad de datos, la competencia y la moderación de contenidos. Y quiere volver a hacerlo. Sabe que la carrera por la IA es una prueba de velocidad, no solo en el ámbito empresarial, donde ya compiten a cara de perro empresas como OpenAI, Microsoft, Google, Meta, Amazon, Anthropic o Mistral AI y Aleph Alpha, sino también en el regulatorio, pues de los límites que se marquen dependerá el uso que puede hacerse de esta tecnología.
La regulación de la IA ganó urgencia tras el lanzamiento de ChatGPT el pasado año, que hizo comprender el enorme potencial y los grandes riesgos asociados a esta tecnología, y muchos países trabajan en ello. Así lo revela un estudio de EY sobre el entorno regulatorio global de la IA, que estudia ocho territorios (Canadá, China, la UE, Japón, Corea del Sur, Singapur, Reino Unido y EE UU). Según desvela los enfoques entre ellos son muy diferentes, aunque también hay tendencias comunes. Por ejemplo, la mayoría de países está desarrollando un enfoque regulatorio basado en el riesgo, como ha hecho la UE, que están vinculados a la privacidad, la no discriminación, la transparencia y la seguridad.
Los ocho territorios analizados se han comprometido con los principios establecidos por la OCDE, que abarcan aspectos como garantizar que los beneficios de la IA se extiendan ampliamente a toda la sociedad, que la IA no entre en conflicto con la protección de los derechos humanos y que las organizaciones que utilizan IA cuenten con una gobernanza y una rendición de cuentas adecuadas.
Guías o regulación
“La diferencia principal está en que hay países como Japón, Singapur o Reino Unido que apuestan por dar más libertad y permitir que las empresas tengan capacidad de desarrollo de la IA en un entorno menos regulado, y otros, como la UE, Canadá y China, que prefieren establecer regulaciones específicas de la IA, con claras restricciones. “Incluso en el caso de la UE con un régimen sancionador y autoridades supervisoras de control, que es lo que al final hace moverse a las empresas a cumplir con la normativa”, dice David de Falguera, director de Regulación de Inteligencia artificial de EY.
Según el informe, la legislación de la UE y la que está desarrollando Canadá, fija requisitos obligatorios sobre la gestión de riesgos, como el uso de IA en infraestructuras críticas y en la contratación. Además, la UE va más allá de los principios de la OCDE y establece “líneas rojas” para aplicaciones de IA que quedan prohibidas, como el polémico análisis biométrico que clasifica a las personas según características sensibles, como creencias políticas o religiosas, orientación sexual o raza. También marca la prohibición de otros sistemas como el reconocimiento facial en espacios públicos, salvo en excepciones (prevención de una amenaza terrorista, búsqueda de víctimas o localización de personas sospechosas de delitos).
De Falguera reconoce que los países que han apostado por modelos de buenas prácticas y guías –”documentos que son muy interesantes, pero que no son vinculantes para las empresas”– favorece más la innovación sobre el papel, pero también implican muchos más riesgos. Por ello, cree muy “exitoso” el pacto alcanzado en la UE. “Es la primera en llegar a un acuerdo sobre una regulación de IA, que tiene un régimen sancionador asociado y que regula esta tecnología de forma directa y específica. Además, hay dos puntos muy destacables a su favor: la mayoría de obligaciones que establece están vinculadas a los sistemas de IA de riesgo alto, los más críticos, y establece una normativa muy flexible, ya que la propia regulación contiene mecanismos para ir adaptándola a la evolución que tenga esta tecnología, salvaguardando la innovación. Esto es muy positivo, porque era el riesgo principal que tiene regular una tecnología que es tan cambiante como la IA”.
EE UU, de momento, está en el punto de dar orientaciones y buenas prácticas, “pero a futuro con la orden ejecutiva de Joe Biden se verá qué camino toma”, continúa el directivo de EY. De momento, el informe refleja que EE UU, con esa reciente orden sobre inteligencia artificial, pone el foco en los efectos de la IA en la seguridad nacional. Es decir, establece obligaciones de información al Gobierno a los proveedores de sistemas de IA que puedan tener impacto en la seguridad nacional. Por contra, la ley europea pone el foco en las personas y sus derechos fundamentales. Por su parte, China, ha impuesto ciertas restricciones sobre el uso de datos y los algoritmos de recomendación.
Algunos países están contemplando desarrollar normativas específicas para sectores. Por ejemplo, Singapur en el Marco de Gobernanza de la IA proporciona a las organizaciones orientación general para alinearse con los principios regulatorios del país en relación con el uso ético de la IA. Pero, además, la Autoridad Monetaria de Singapur ha emitido una guía sectorial específica para el sector financiero basada en los principios de equidad, ética, responsabilidad y transparencia en el uso de la IA y en el análisis de datos. El informe apunta que pueden estar justificadas pautas o normas específicas para otros sectores como el de los vehículos autónomos por los riesgos que comportan.
‘Sandboxes’ regulatorios
En la UE, Singapur y Reino Unido, los reguladores han apostado por usar entornos de prueba regulatorios (regulatory sandboxes) para abordar el doble desafío del rápido desarrollo de la IA y su propia falta de experiencia con las tecnologías de IA. En España se acaba de poner en marcha el primero a nivel europeo y pretende testar las obligaciones que incorporará el reglamento en un entorno controlado.
Los reguladores de varios países están considerando cada vez más cómo la IA impacta otras áreas regulatorias. David de Falguera, de EY, recuerda que en España el Estatuto de los Trabajadores incluyó con la Ley Rider el derecho del trabajador a conocer las reglas que encierran los algoritmos que inciden en sus condiciones laborales. Y apunta que esto puede ocurrir en otros ámbitos, como el de la salud.
La carrera por regular la IA y los efectos que esta produzca han ganado protagonismo en los últimos meses. Y es que, como apunta The New York Times, en juego están billones de euros en valor estimado, ya que se prevé que la IA remodelará la economía global. “El dominio tecnológico precede al dominio económico y al dominio político”, dijo la semana pasada Jean-Nöel Barrot, ministro delegado de Transición Digital y Telecomunicaciones de Francia.
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días