Ir al contenido
En colaboración conLa Ley

Comercio agéntico y banca: el riesgo sistémico cuando paga la IA

El usuario no consiente la compra específica del billete de avión en el microsegundo de la ejecución, sino que consiente los parámetros, los límites de riesgo y la lógica bajo la cual el agente operará

La historia del comercio es la historia de la voluntad humana. Desde el trueque en el Neolítico hasta el clic en Amazon, el acto de comprar siempre ha requerido un impulso volitivo consciente: “quiero esto, pago por esto”. Sin embargo, el anuncio realizado por Getnet (Banco de Santander) hace unos días en el NRF 2026 de Nueva York no es solo una noticia financiera; señala el ocaso de esa era antropológica.

Al presentar su estrategia de “Agentic Commerce”, la entidad no ha lanzado un nuevo producto; ha forzado un reordenamiento de las categorías jurídicas con las que atribuimos voluntad, prueba y responsabilidad en una transacción. La promesa de que agentes de inteligencia artificial autónomos inicien, negocien y ejecuten pagos en nombre del consumidor —según estimaciones de mercado basadas en análisis de Deloitte, podría situarse en torno al 30% del volumen global en 2030— supone la defunción conceptual del homo economicus racional que presupone nuestro Código Civil.

El derecho privado moderno descansa sobre una ficción elegante que ha permanecido inalterada desde 1804: la centralidad absoluta de la voluntad humana. Portalis, uno de los grandes artífices del Código Napoleónico, impulsó un sistema donde el “consentimiento” (artículo 1.261 de nuestro CC) era el átomo indivisible de cualquier transacción. Sin embargo, la tecnología ha comenzado a operar a una velocidad que la teoría clásica de las obligaciones no había previsto. ¿Qué sucede cuando ese consentimiento no es humano, sino algorítmico? Conviene, además, deslindar planos con precisión: una cosa es la validez del contrato subyacente; otra, distinta y decisiva en la práctica, es la autorización de la operación de pago y su régimen de responsabilidad.

Debemos aprovechar —sin violentarlo— el mandato tradicional (artículo 1709 CC) para precisar un concepto operativo: el “Consentimiento Programático”. En el comercio agéntico, la voluntad humana no desaparece, se difiere. El usuario no consiente la compra específica del billete de avión en el microsegundo de la ejecución, sino que consiente los parámetros, los límites de riesgo y la lógica bajo la cual el agente operará. Jurídicamente, estamos validando una voluntad “encapsulada” y condicional cuya ejecución realiza el algoritmo como instrumento: lo que el Derecho debe reconocer y blindar no es una personalidad de la máquina, sino el mandato parametrizado, sus límites y su prueba.

El segundo obstáculo es regulatorio: el marco vigente de PSD2 y su régimen de Autenticación Reforzada de Cliente (SCA); y, en el horizonte, la futura PSD3. Un agente autónomo no aporta biometría humana, cierto, pero conviene recordar que la SCA no exige necesariamente inherencia: puede satisfacerse también con combinaciones de posesión y conocimiento. El verdadero choque no es metafísico —que la máquina “no sea”—, sino operativo: cómo demostrar que cada ejecución queda dentro del perímetro que el usuario autorizó previamente, con trazabilidad suficiente y con controles que resistan el escrutinio supervisor.

Getnet ha anunciado mecanismos de “identificación y validación de agentes”. Cuando una infraestructura “valida”, el mercado tiende a confiar. Y la confianza —en el derecho y en la técnica— genera expectativas, deberes de diligencia y, sobre todo, la necesidad de definir qué se está validando: ¿identidad del agente, integridad de sus credenciales, cumplimiento de políticas, o calidad del código? En esa frontera, la infraestructura deja de ser un mero “tubo” y se aproxima a un orquestador de riesgo, con implicaciones contractuales y probatorias que conviene anticipar antes de que lo hagan los tribunales.

Juzgar el comercio agéntico con la literalidad de 1889 generaría una inseguridad jurídica incompatible con la velocidad que exige el mercado digital, arrojando dudas sobre la atribución del consentimiento que lastrarían la escalabilidad del modelo. Pero si aceptamos el reto de reinterpretar la “autonomía de la voluntad” para acomodar la autonomía operativa del agente dentro de un perímetro de voluntad humana previa y verificable, abriremos la puerta a la mayor revolución en eficiencia comercial de nuestra era.

Conviene advertir, asimismo, sobre el riesgo sistémico de los “Flash Crashes de Consumo”. Si miles de agentes autónomos, operando bajo la misma lógica defectuosa de un LLM popular, deciden simultáneamente comprar o vender un activo, pueden colapsar el inventario de una multinacional o provocar una crisis de liquidez en un marketplace.

Es imperativo que los términos y condiciones de estas plataformas incluyan cláusulas de desconexión de emergencia que permitan al banco suspender la operativa del agente cuando concurran razones objetivas de seguridad, fraude o uso no autorizado, sin incurrir en incumplimiento contractual.

La visión presentada en Nueva York demuestra que la banca española está dispuesta a liderar el futuro de los pagos. Ahora, incumbe a los abogados expertos en IA y a los reguladores construir la “bóveda de seguridad” jurídica imprescindible para que la innovación no colapse bajo su propio peso.

Archivado En