Empresas y bufetes buscan fórmulas para explotar la IA sin pisar minas legales
Un grupo de expertos debatió sobre las esperanzas y dudas del marco regulatorio de la inteligencia artificial, aún neófito. La norma europea desplegará todos sus efectos en 2027

Las compañías están ansiosas por exprimir las bondades de la inteligencia artificial (IA) para ahorrar costes, ganar eficiencia y explorar alternativas comerciales. Pero también se muestran desconfiadas, pues esta tecnología puede abrir la puerta a ciberataques, a filtraciones o a graves incumplimientos legales en su seno. Entre el entusiasmo y el miedo, y en plena carrera por regular la IA —con EE. UU. en un papel más liberal y la UE en una postura más garantista— las empresas se preguntan cómo actuar en un entorno regulatorio aún incipiente. El debate se centra en decidir qué modelo es mejor: si regular y garantizar los derechos de los ciudadanos, o bien optar por un esquema laissez faire, donde el mercado defina su modus operandi.
Expertos en gestión del conocimiento y abogados se dieron cita para abordar este debate en un nuevo Think Tank Legal, la tercera de una serie de charlas organizadas por Aranzadi LA LEY, que en esta ocasión moderó el periodista experto en asuntos legales Marcelino Abad.
En el encuentro, los ponentes coincidieron en que son tiempos tan prometedores como inciertos. Como señaló Cristina Retana, directora de contenidos e innovación de Aranzadi LA LEY, “hay muchos conceptos interpretables del reglamento que aún necesitan ser aterrizados en el día a día de las empresas”. La experta incidió en la importancia de confiar en sistemas con garantías que utilicen bases de datos especializadas, fiables y actualizables, porque “si al sistema le metes basura, saca basura”.
“El dilema es cómo implantar la IA sin que la regulación suponga un freno”, planteó Alberto Moreno, director comercial de Aranzadi LA LEY. A pesar de las arenas movedizas regulatorias, el experto cree que el momento brinda grandes oportunidades a las empresas. Ponerse al día en el ámbito regulatorio no es una carga sino una oportunidad: “Quien se anticipe, lo haga bien y construya un sistema robusto y ético será el que gane la batalla y el posicionamiento”, remarcó.
Burocracia
El Reglamento de Inteligencia Artificial, que entró en vigor en agosto de 2024, desplegará efectos de forma escalonada hasta 2027. Tras un año de normativa, los expertos identifican los riesgos más inmediatos en tres frentes: la privacidad, la propiedad intelectual y la responsabilidad civil. Si bien no todo son amenazas: los participantes coincidieron en que el abanico de posibilidades de eficiencia y de oportunidades comerciales que brinda esta tecnología es extraordinario.
Pero los participantes también trasladaron sus temores. “La mera definición de inteligencia artificial ya genera polémica”, señaló en la cita Beatriz Rodríguez, socia de RocaJunyent y delegada de protección de datos. La abogada detecta, por ejemplo, dificultades para calificar los modelos de uso general, una de las cuatro categorías de sistema que la norma define para escalonar su regulación. Pero “los baremos para identificarlos pueden tener dudoso recorrido con el avance tecnológico que estamos viviendo”, criticó la jurista. Rodríguez dejó claro que intensificar la carga burocrática de las empresas no garantiza que la gente esté más protegida. “Si hay una brecha de seguridad tienes a la CNMV, la AEPD, a la Agencia de Inteligencia Artificial, el supervisor europeo… Cada uno con procedimientos distintos. Cuando hay un momento de crisis te preguntas, ¿por dónde empiezo?”.
Por su parte, Noelia Palacios, general counsel de Hipoges, recordó que el 2 de agosto de 2026 es una fecha clave pues entrará en vigor la regulación de los sistemas de alto riesgo. La abogada apuntó que los sandboxes (entornos controlados donde los emprendedores pueden probar innovaciones y tecnologías sin miedo a incumplir leyes) están demostrando ser “eficaces para las empresas que desarrollen estas tecnologías de alto riesgo”. Palacios defendió una regulación “garantista” y remarcó que hay territorios en Estados Unidos, como Colorado, que “han implementado regulaciones muy similares” a la europea, lo que demuestra que “no regular la IA no es la solución”. Y advirtió: “Es una herramienta tan potente que puede cambiar las reglas del juego y a nosotros como sociedad”.
Competitividad
Pocos dudan en que la inteligencia artificial tiene que ser controlada. Los participantes en la charla coincidieron en mayor o menor medida en esta idea; el quid es con qué intensidad regular y controlar a las empresas. Sobre todo, hacerlo sin espantar la inversión hacia paraísos regulatorios.
“Quizás Europa deba flexibilizar su postura en algunas cuestiones”, expuso Marisa Delgado, directora de Conocimiento e Innovación de A&O Shearman en España. “Hay proveedores que pueden implementar rápidamente sus soluciones de inteligencia artificial en Estados Unidos, Australia o Asia, mientras que en Europa deben hacerlo a una velocidad diferente por la carga regulatoria que les supone”. Para Delgado, la solución podría pasar por “una normativa común global”, que permita hacer negocios en distintos países de manera segura y responsable, pero sobre todo sin que esto suponga un freno a la innovación.
Daniel Lara, director legal de Afianza, cree que “queda mucho por hacer”. “En Europa somos proteccionistas por naturaleza, pero hay países que no lo son tanto. Si a una persona de la India, de China o de Estados Unidos le trasladas nuestras normas europeas quizás le explote la cabeza. ¿Cómo vamos a regular algo mundial si solo somos una parte del planeta?”. El abogado aterrizó una idea muy presente en la conversación: la tecnología avanza demasiado deprisa. Y los tediosos procesos de redacción de las leyes hacen que la norma llegue tarde o desactualizada. Los reglamentos son actualizables, pero es indudable que la lentitud legisladora es una rémora. Lara lo expuso así: “Si la tecnología va a 100 km/h, el mundo regulatorio va a 10 km/h”. Por lo que “sencillamente cuando llegamos ya existen diez retos nuevos”.

