Agentes de inteligencia artificial: una inoportuna laguna para la regulación europea
Van a suponer la siguiente gran sacudida social de la IA

La inteligencia artificial (IA) generativa supuso un nuevo paradigma en la evolución de esta tecnología, a partir de las redes neuronales del aprendizaje profundo. La tecnología que hace posible los agentes de IA, por el contrario, según el experto mundial Oriol Pujol, “no es un nuevo paradigma”. Podría pues pensarse que el impacto social de estos agentes sería mucho más limitado.
Ahora bien, como este experto indica, los agentes de inteligencia artificial se basan en “un uso avanzado y evolucionado de los grandes modelos de lenguaje de IA generativa con diversas capas de software, al que, gracias a la potencial capacidad de planificación de estos modelos y de crear código, se le permite actuar sobre el mundo real” sin intervención humana directa. De un modo proactivo, en lugar de meramente reactivo. Y es por esto por lo que el impacto social puede ser muy notable.
Cierto que los agentes de IA no plantean desafíos jurídicos radicalmente nuevos. Llevamos ya años identificando estos problemas, en términos de privacidad, discriminación o propiedad intelectual. La diferencia radica en que esos riesgos se materializan en el mundo real, pero no a resultas de las instrucciones que la máquina haya podido recibir, sino de las decisiones que autónomamente haya adoptado. Decisiones además adoptadas en nombre y por cuenta de su principal, que somos nosotros. No es lo mismo que un chatbot generativo se haya entrenado con datos personales obtenidos de modo ilegítimo, que un chatbot agencial envíe por cuenta nuestra, correos de spam. Sin duda el desarrollador será responsable de ese entrenamiento ilegítimo, pero esta responsabilidad quedaría circunscrita. La potencial multiplicación de responsabilidades por actuaciones autónomas de agentes de IA, de la mano de riesgos como los citados y de muchos otros, resulta vertiginosa.
La Unión Europea ha aprobó un reglamento de inteligencia artificial (RIA). No tengo dudas de que esta norma rige de lleno respecto de los sistemas de inteligencia artificial agencial. Si la autonomía resulta quizá la principal nota distintiva de la IA respecto de sistemas algorítmicos que no puedan considerarse artificialmente inteligentes, tanto más sucedería así a propósito de los agentes de IA, justamente caracterizados por su autonomía reforzada. En consecuencia, las obligaciones que el RIA impone a desarrolladores y usuarios se aplicarían igualmente a estos sistemas más complejos.
Aunque aquí comienza la paradoja. El RIA optó deliberadamente por no regular la responsabilidad civil derivada del uso de IA. Este importante asunto quedó en manos de dos normas paralelas: el nuevo reglamento sobre productos defectuosos de 2024, y el proyecto de directiva sobre responsabilidad derivada del uso de IA, que se extendía a todo sistema de IA (no solo los encastrados en productos o vinculados a ellos) y cubría la culpa (no la responsabilidad objetiva propia del régimen de productos).
La cuestión es que, a raíz de la simplificación legislativa recomendada por el Informe Draghi de septiembre de 2024, ese proyecto de directiva fue abandonado por la Comisión Europea en febrero de 2025. Lo que hay pues que preguntarse es si dicha retirada no se hizo quizá sin prever el impacto de tecnologías como los agentes de IA, que se concreta precisa y fundamentalmente en la responsabilidad por daños.
La consecuencia es clara: si bien no estamos ante un nuevo paradigma, los agentes de inteligencia artificial van a suponer la siguiente gran sacudida social de la IA. Y el aspecto más problemático de esta sacudida, la responsabilidad por daños, va a quedar al margen del RIA. Así pues, cuando la responsabilidad no provenga de IA encastrada o vinculada a un producto – lo que justamente sucede con los modelos de lenguaje de IA, sobre los que estos agentes se arman –, las víctimas deberán recurrir exclusivamente a los regímenes civiles de cada Estado miembro. Esto entraña la dificultad de la carga probatoria en este tipo de asuntos para quien sufre el daño, y por tanto para obtener compensación efectiva.
El problema hace inevitable pensar que el RIA, una norma de gran extensión y complejidad, habría quedado anticuado tras apenas unos meses de su entrada en vigor. También que quizá hubiera sido preferible una regulación menos extensa y menos intensa, regulando principios y abordando riesgos delimitados. De haberse hecho así, no habría podido evitarse esta laguna sobrevenida, aunque al menos sí los serios inconvenientes de este modelo regulatorio para la innovación.
Por todo lo dicho, propugnar mayor regulación puede resultar contradictorio, máxime a la vista de que el RIA está ahí para cumplirse. Pese a ello, es inevitable plantearse si la UE no debiera reconsiderar su decisión y recuperar, al menos en parte, las previsiones del abandonado proyecto de directiva sobre responsabilidad civil derivada del uso de IA.