_
_
_
_

La ley europea de inteligencia artificial entró en vigencia: ¿qué se puede esperar?

La normativa es la primera de su tipo a nivel global y pretende mitigar los riesgos de los productos que utilicen esta tecnología, así como aplicar sanciones a las empresas que no cumplan los criterios de seguridad

Luis Alberto Peralta
Inteligencia artificial imagen de conexiones de datos
Imagen que representa inteligencia artificialPexels

La nueva Ley europea de Inteligencia Artificial (IA) ha entrado en vigencia la primera semana de agosto, generando una serie de dudas y especulaciones sobre su posible impacto para este sector en la región. Según la Comisión Europea, esta normativa es la primera de su tipo a nivel global y se centra en “identificar riesgos” y “fomentar la innovación responsable”. Sin embargo, algunos empresarios y analistas no parecen estar totalmente convencidos. A pesar de que existe un consenso entre los privados de que esta tecnología debe ser regulada, algunos expertos temen que la implementación de estas directivas obstaculice el avance en este campo cada vez más relevante, evitando que las compañías del Viejo Continente puedan competir con rivales de China o Estados Unidos.

“El enfoque europeo de la tecnología pone a las personas en primer lugar y garantiza que se preserven los derechos de todos. Con la Ley de IA, la UE ha dado un paso importante para garantizar que la adopción de estas herramientas respete las normas comunitarias”, afirmó recientemente Margrethe Vestager, vicepresidenta ejecutiva para una Europa adaptada a la era digital, sobre esta regulación.

Los Estados miembros tienen hasta el 2 de agosto de 2025 para designar autoridades nacionales competentes, que supervisarán la aplicación de las normas para los sistemas y llevarán a cabo actividades de vigilancia del mercado. “La Oficina de IA de la Comisión será el organismo clave de implementación de la normativa a nivel de la UE, así como el encargado de hacer cumplir las normas para los modelos de IA de uso general”, indica una portavoz del Ejecutivo comunitario a CincoDías.

Tres órganos asesores adicionales apoyarán la implementación de las normas. Según explica la portavoz, un Consejo Europeo de Inteligencia Artificial será el encargado de garantizar “una aplicación uniforme de la Ley de IA en todos los Estados miembros de la UE y actuará como principal organismo de cooperación entre la Comisión y los Estados miembros”. Asimismo, un panel científico de expertos independientes ofrecerá asesoramiento técnico y aportaciones sobre la aplicación. “En particular, este panel podrá emitir alertas a la Oficina de IA sobre los riesgos asociados a los modelos de IA de propósito general”, señala la portavoz. Finalmente, la Oficina de IA también podrá recibir orientación de un “foro consultor”, que estará compuesto por un conjunto diverso de partes interesadas, como por ejemplo el sector privado.

Dicho esto, desde el Ejecutivo comunitario resaltan que en los próximos 12 meses sus esfuerzos estarán enfocados en hacer crecer la capacidad de la Oficina de IA y en reclutar a un equipo competente. Además, se establecerán las estructuras de gobernanza de la Ley de IA, entre ellas, los órganos asesores tanto nacionales como regionales. Por último, se desarrollarán directrices y legislación secundaria para definir y detallar cómo se implementa la norma. En esta línea, es improbable que en el corto plazo se inicien investigaciones o procesos contra empresas del sector.

Posición de los privados

En general, las opiniones del sector privado se muestran favorables a la regulación. Sin embargo, el aumento de las barreras burocráticas y la posible pérdida de competitividad frente a las empresas chinas o estadounidenses es una preocupación general en el sector.

“La Ley de Inteligencia Artificial de la UE es, en conjunto, el marco regulador más completo que existe en el mundo para el desarrollo de la inteligencia artificial. Sin embargo, como ocurre con cualquier acto legislativo, existe una tensión natural entre regulación e innovación. Por muy bien pensada que esté una ley, inevitablemente impondrá una barrera legislativa a la entrada”, responde Kevin Cochrane, chief marketing officer del proveedor de servicios en la nube Vultr, a preguntas de CincoDías.

Cochrane advierte de que en el contexto del mercado europeo esta situación puede desalentar a los emprendedores a unirse al ecosistema de startups. “Mientras que los grandes operadores del mercado pueden permitirse dedicar importantes recursos a comprobar los requisitos reglamentarios, un emprendedor con una idea innovadora y la pasión de llevarla a cabo puede no ser capaz de permitirse este lujo. Especialmente si no generan ingresos sustanciales o no cuentan con un gran respaldo financiero”, asegura el ejecutivo.

No obstante, una parte del sector considera que el impacto también puede ser positivo. En opinión de José Andrés García Bueno, country leader de Qlik para España y Portugal, “la Ley de IA va a traducirse en seguridad jurídica para las empresas porque, a partir de ahora, ya saben lo que está regulando Europa si desean implementar, desarrollar o usar un modelo de IA. Es responsabilidad de las organizaciones conocer cuáles son los sistemas prohibidos y también aquellos que están sujetos a un mayor número de controles. Según un estudio realizado por Qlik en colaboración con TechTarget, un 97% de las organizaciones ya están aplicando la IA generativa de alguna forma. Sin embargo, un 74% afirma que carece de un enfoque unificado sobre IA responsable”.

Las gestoras de fondos que participan del sector también se muestran favorables a la regulación. “Los inversores necesitan que las empresas, tanto desarrolladoras como implantadoras, apliquen prácticas de IA responsable en toda la organización para protegerse de los riesgos sociales y medioambientales que plantea la IA. Las organizaciones deben establecer principios claros sobre cómo aplicar la GenAI y establecer barandillas que garanticen su aplicación segura y eviten específicamente la parcialidad, la discriminación, la desinformación y la violación de la privacidad”, apunta Deepshika Singh, responsable de stewardship de la gestora Crédit Mutuel Asset Management.

Niveles de riesgo

La regulación está enfocada en evitar y penalizar la utilización irresponsable o riesgosa de la IA por parte de las empresas. Con este objetivo en mente, se han creado categorías según el nivel de riesgo que pueden suponer distintos productos. Así, la Comisión indica que la mayoría de los sistemas de IA (como los de recomendación y los filtros de spam) entran en la categoría de riesgo mínimo. “Estos sistemas no enfrentan obligaciones según la Ley de IA debido a su riesgo bajo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales”, explica una publicación oficial.

A este nivel regulatorio le sigue el “riesgo de transparencia específico”, donde se encuentran los sistemas como los chatbots. Según la normativa, estas herramientas “deben revelar claramente a los usuarios que están interactuando con una máquina. Asimismo, esta etiqueta afecta a ciertos contenidos generados por IA, incluidos los deepfakes, que deberán etiquetarse como tales. Los usuarios también deben ser informados cuando se aplique categorización biométrica o de reconocimiento de emociones.

En cuanto a los productos de “alto riesgo”, se incluye, por ejemplo, a los sistemas utilizados para la contratación, para evaluar si alguien tiene derecho a obtener un préstamo o para ejecutar robots autónomos. Los productos de esta categoría deberán incorporar sistemas de mitigación, registro de actividad, documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de precisión y ciberseguridad.

Finalmente, los productos de “riesgo inaceptable” serán prohibidos. Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, sistemas que permiten la “puntuación social” por parte de Gobiernos o empresas y ciertas aplicaciones de vigilancia policial predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas.

Sanciones

En este contexto, el reglamento establece umbrales para las sanciones: hasta 35 millones de euros o el 7% del volumen de negocios anual total mundial del ejercicio anterior (lo que sea mayor) por infracciones de “prácticas prohibidas” o incumplimiento de los requisitos sobre datos. Asimismo, se castigaría con hasta 15 millones de euros o el 3% del volumen de negocios anual total mundial del ejercicio anterior a quien incumpla cualquiera de los demás requisitos u obligaciones del reglamento, y hasta con 7,5 millones de euros o el 1,5% a las compañías que suministren “información incorrecta, incompleta o engañosa” a organismos notificados y autoridades nacionales competentes en respuesta a una solicitud.

La Comisión también puede hacer cumplir las normas sobre los proveedores de modelos de inteligencia artificial de uso general mediante multas, teniendo en cuenta el siguiente umbral: hasta 15 millones de euros o el 3% del volumen de negocios anual total mundial del ejercicio anterior por incumplimiento de cualquiera de las obligaciones o medidas solicitadas por la Comisión en virtud del reglamento. Se espera que las instituciones, agencias u organismos de la Unión den ejemplo, por lo que también estarán sujetos a las normas y a posibles sanciones. El Supervisor Europeo de Protección de Datos tendrá la facultad de imponerles multas en caso de incumplimiento.

“Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no respeten los requisitos del reglamento, los Estados miembros tendrán que establecer sanciones efectivas, proporcionadas y disuasorias, incluidas multas administrativas, en relación con las infracciones y comunicarlas a la Comisión”, asegura la portavoz de la CE.

“Para armonizar las normas y prácticas nacionales en la fijación de multas administrativas, la Comisión, con el asesoramiento de la junta, elaborará directrices. Como las instituciones, agencias u organismos de la Unión Europea deberían dar el ejemplo, también estarán sujetos a las normas y a posibles sanciones; el Supervisor Europeo de Protección de Datos tendrá la facultad de imponerles multas”, añade para concluir.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!
Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_