_
_
_
_

Europa busca liderar la regulación de la inteligencia artificial

La IA generativa, en pleno auge, se enfrenta a un ambicioso marco normativo en la Unión Europea con la AI Act, una reglamentación que pretende equilibrar innovación y seguridad, pero genera inquietud en sectores como el financiero o el de la salud y en la competitividad global del continente

Desde la izquierda, Margarita Fernández de Prada Afín, directora de Transformación Digital Global de Iberdrola; Ricardo Garcia Martín, head of Analytics Transformation de BBVA; Laura Landaluce, senior Manager Data & AI Strategy de Capgemini Inven; Carlos Miranda de Larra, head of IA Program de Ferrovial y Maribel Solanas, CDO Corporativa de Mapfre.Foto: Pablo Monge

La inteligencia artificial generativa ha revolucionado la forma en que empresas y usuarios interactúan con la tecnología, planteando oportunidades, pero también riesgos. En este contexto, la Unión Europea ha decidido asumir el liderazgo global con la aprobación de la AI Act, una normativa que establece estrictos controles para garantizar un uso ético y seguro de la IA. A diferencia de Estados Unidos, donde las regulaciones son más laxas y varían según el estado, o China, que combina un control estricto con incentivos a la innovación, Europa opta por un enfoque centrado en proteger derechos fundamentales.

La AI Act clasifica los sistemas basados en algoritmos según su nivel de riesgo –inaceptable, alto, limitado y mínimo– y exige medidas específicas como la supervisión humana, la gobernanza de datos y la certificación de sistemas críticos. Aunque estas normas pretenden generar confianza y seguridad, su impacto en la competitividad global y en la innovación genera un amplio debate.

Por eso, CincoDías, en colaboración con Capgemini Invent, organizó un desa­yuno para abordar este tema que contó con la participación de Margarita ­Fernández de Prada (directora de transformación digital global de Iberdrola), Ricardo García Martín (head of analytics transformation de BBVA), Laura Landaluce (senior manager data & AI strategy de Capgemini Invent), Maribel Solanas (CDO de Mapfre) y Carlos Miranda de Larra (head of AI program de Ferrovial). Moderado por Daniel Toledo, subdirector del periódico, el debate analizó cómo están gestionando precisamente las empresas los retos y oportunidades que plantea esta regulación.

Una normativa exigente

“El AI Act es ambicioso y necesario, pero no exento de desafíos”, sostuvo Laura Landaluce. Según la experta de Capgemini Invent, la norma “obliga a las empresas a sistematizar procesos que ya estaban en marcha, como la gobernanza de datos y la gestión de riesgos”. Sin embargo, el consenso entre los ponentes fue que la normativa exige a las empresas europeas más preparación que a sus competidores globales.

Margarita Fernández de Prada destacó que, aunque Iberdrola ya cuenta con políticas internas para el uso responsable de la IA, “el reto está en aplicar estas normas de manera uniforme en todos los países donde operamos, dado que no todos comparten el mismo nivel de regulación”. Para Maribel Solanas, de Mapfre, “la transparencia y la confianza en los sistemas de IA son esenciales para el sector asegurador. No es solo un requisito regulatorio, es una demanda de nuestros clientes”.

Una de las mayores preo­cupaciones de los cinco participantes en el debate es cómo puede afectar la nueva regulación a la competitividad global de las empresas europeas. Ricardo García Martín, de BBVA, señaló que la rigidez normativa puede ralentizar el desarrollo de nuevas soluciones, sobre todo en sectores de alto riesgo como las finanzas y la salud. “Mientras que en EE UU las empresas pueden lanzar productos más rápidamente, en Europa nos enfrentamos a tiempos de validación más largos, lo que podría ponernos en desventaja”.

El directivo de Ferrovial Carlos Miranda de Larra, por su parte, indicó que el enfoque europeo, aunque restrictivo, también puede ser una ventaja. “La normativa asegura estándares de calidad que otros mercados podrían adoptar en el futuro, convirtiendo a Europa en referente. Pero esto solo será posible si se logra un equilibrio entre supervisión e innovación”.

IA, tecnología disruptiva

La regulación también debe enfrentarse a los retos específicos de la inteligencia artificial generativa, una tecnología que evoluciona rápidamente y cuyo potencial apenas comienza a comprenderse. Fernández de Prada resaltó su impacto transversal: “No se trata solo de procesos internos. La IA generativa está redefiniendo cómo interactuamos con los datos y cómo tomamos decisiones en tiempo real”.

Sin embargo, Landaluce subrayó que la rapidez con la que avanza plantea dudas sobre si la regulación será suficiente a medio plazo. “Estamos legislando para una tecnología que cambia a un ritmo vertiginoso. Las normas actuales podrían quedarse cortas en pocos años, especialmente en lo que respecta a la gobernanza de datos”.

Aunque los retos no son menores, la UE ha implementado herramientas para fomentar la innovación responsable. El sandbox regulatorio, un entorno controlado donde las empresas pueden probar soluciones antes de su implementación a gran escala, fue señalado como un recurso clave. Según García Martín, “no solo beneficia a startups y pymes, también permite a los reguladores ajustar las normas a la realidad del mercado”.

Miranda de Larra, sin embargo, advirtió sobre la burocracia que puede dificultar el acceso a estas iniciativas, especialmente para las pequeñas empresas. “Si queremos que las pymes participen plenamente en la revolución de la IA, debemos simplificar los procesos y reducir las barreras administrativas”.

Pese a todo, los participantes coincidieron en que la AI Act es una oportunidad única para que Europa lidere la adopción ética y responsable de la inteligencia artificial. Margarita Fernández de Prada concluyó: “La regulación no es un obstáculo, es un marco para innovar con seguridad. Si lo hacemos bien, Europa puede marcar la pauta global”.

Innovar con seguridad

El sandbox regulatorio se ha convertido en una pieza clave para facilitar la adopción responsable de la IA. Este entorno controlado permite a las empresas probar nuevas soluciones tecnológicas sin asumir los riesgos de un despliegue completo, ajustándose al marco de la AI Act.

Ricardo García Martín, de BBVA, destacó que el sandbox es especialmente valioso “para firmas emergentes y pymes, ya que les permite experimentar y demostrar el valor de sus soluciones en un espacio seguro”. Laura Landaluce, de Capgemini Invent, añadió que también es fundamental para ajustar la regulación a las necesidades del mercado.

Carlos Miranda de Larra, de Ferrovial, avisó de que la burocracia asociada puede ser un obstáculo: “Es crucial simplificar los procesos para que las pymes puedan participar plenamente y no queden relegadas en un entorno que favorece a las grandes corporaciones, con más recursos para adaptarse”.

Actividades de riesgo ante el reto de la AI Act

La implementación de la AI Act, en vigor desde agosto, está teniendo un impacto significativo en sectores regulados como las finanzas, la salud y las infraestructuras. Considerados de alto riesgo por la normativa, se enfrentan a requisitos más estrictos para garantizar la transparencia, la seguridad y la supervisión humana en los sistemas de inteligencia artificial.


Ricardo García Martín, de BBVA, subrayó que la AI Act exige un inventario detallado de los sistemas de IA y una supervisión constante para asegurar su cumplimiento. “El impacto es doble: por un lado, debemos garantizar que nuestros modelos de scoring de crédito cumplen con los nuevos estándares. Por otro, nos enfrentamos a tiempos de aprobación más largos que pueden retrasar la implementación de soluciones diseñadas para mejorar la inclusión financiera”.

En el sector asegurador, Maribel Solanas (Map­fre) destacó la necesidad de combinar innovación y responsabilidad. “Nuestros sistemas generativos no pueden exponerse directamente al cliente final sin una supervisión exhaustiva. Esto asegura la calidad del servicio, pero implica un esfuerzo adicional para equilibrar riesgos y beneficios”.
Infraestructuras

Carlos Miranda de Larra, de Ferrovial, ilustró cómo esta normativa afecta a las infraestructuras: “Hemos desarrollado sistemas de IA que ayudan a prevenir accidentes en obras y autopistas, pero su implementación está siendo retrasada por los requisitos regulatorios. Si bien entendemos la necesidad de garantizar la seguridad, este proceso está limitando el impacto positivo que podríamos tener en la vida de nuestros trabajadores”.

La regulación también plantea interrogantes sobre cómo clasificar y supervisar los sistemas de IA generativa. Laura Landaluce, de Capgemini Invent, apuntó que, si bien los marcos actuales son claros para los sistemas tradicionales, “la IA generativa presenta retos que no se habían anticipado cuando se diseñó la AI Act. Esto añade incertidumbre para las empresas que operan en sectores críticos”.

A pesar de estos desafíos, los cinco especialistas coincidieron en que la normativa también puede ser una oportunidad. Margarita Fernández de Prada, de Iberdrola, defendió que “la regulación no debe verse como una barrera, sino como un marco que nos obliga a trabajar con más rigor y previsión, fortaleciendo nuestras capacidades y nuestra reputación”. 





Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_