Cuando la IA se asusta de sí misma
Los ciudadanos y las empresas necesitan comprender que no es solo un asistente que resume sus emails; es también una herramienta capaz de vaciar cuentas, robar secretos industriales o manipular los mercados en los que están invertidos sus ahorros
Si los propios creadores de una tecnología deciden no lanzarla al mercado por miedo a sus consecuencias, quizá ha llegado el momento de reflexionar en serio. Soy abogado, pero me muevo con cierta comodidad en el complejo mundo tecnológico. Aún así hace una semana me robaron una clave de API. ¿Qué no le ocurrirá al ciudadano medio, a la pyme?, ¿y qué les puede pasar en un futuro próximo con la sofisticación de la IA detectando vulnerabilidades?
Hace unos días ocurrió algo sin precedentes. Anthropic -los creadores de Claude, una de las IAs más avanzadas del mundo- anunció que su último modelo, Claude Mythos, no saldrá al mercado. No por un problema técnico. No por falta de demanda. Sino porque han comprobado que es capaz de encontrar y explotar fallos de seguridad desconocidos en prácticamente cualquier sistema informático del planeta. Vulnerabilidades que llevaban décadas ocultas, que habían sobrevivido a millones de pruebas automatizadas y a los mejores expertos humanos. Y Mythos las encuentra, las explota y entrega el resultado empaquetado. Mientras dormimos.
La empresa ha decidido restringir el acceso a un puñado de gigantes tecnológicos para que parcheen sus sistemas antes de que otros modelos similares -que llegarán en 6 a 18 meses, según la propia Anthropic- caigan en manos menos escrupulosas. Bien por ellos. Pero la pregunta incómoda es obvia: ¿y si alguien roba ese modelo?, ¿y si otro actor lo replica sin esos escrúpulos?, ¿y si -como le ha pasado a la propia Anthropic estas semanas- una filtración accidental lo pone en la calle?
No es una hipótesis paranoica. Es exactamente lo que ya está ocurriendo a menor escala.
En noviembre de 2025 escribí en esta misma tribuna sobre cómo un grupo patrocinado por el estado chino logró que un modelo de IA ejecutase de forma autónoma entre el 80 y el 90% de las operaciones de una campaña de espionaje industrial contra treinta grandes corporaciones. Advertí entonces que los estados debían prepararse. Cinco meses después, las capacidades se han multiplicado exponencialmente y la advertencia sigue vigente. Solo que ahora el reloj corre más rápido.
Pensemos en un escenario concreto. Hoy, buena parte de las operaciones bursátiles las ejecutan algoritmos. Sistemas de IA que invierten, desinvierten y reequilibran carteras en milisegundos. Esos sistemas tienen sesgos, patrones predecibles, reacciones programadas ante determinados estímulos. Un modelo suficientemente potente -del calibre de Mythos- podría identificar esos sesgos y explotarlos. No hace falta robar dinero directamente: basta con manipular el comportamiento de las máquinas que mueven el dinero para provocar una reacción en cadena capaz de desestabilizar mercados enteros. Un flash crash diseñado por una IA contra otras IAs. No es ciencia ficción; es la consecuencia lógica de lo que ya existe.
Mucha gente criticó la AI Act europea. Que era excesiva, que Europa se quedaba atrás, que mientras Bruselas regulaba, Silicon Valley y China avanzaban sin freno. La regulación es mejorable, pero el planteamiento de fondo era correcto: no se puede liberar tecnología con este potencial sin mecanismos de contención. Lo irónico es que hoy son los propios desarrolladores quienes, con su decisión de no lanzar un modelo al mercado, están validando exactamente lo que Europa venía diciendo. La cautela no era debilidad; era sentido común.
Pero la regulación sola no basta. Necesitamos algo más básico y más urgente: que la gente entienda lo que está pasando.
El Estado tiene que invertir seriamente en dos frentes. El primero es educación. No campañas genéricas sobre contraseñas seguras, sino programas de concienciación a la altura de la amenaza real. Los ciudadanos y las empresas necesitan comprender que la IA no es solo un asistente que resume sus emails; es también una herramienta capaz de vaciar cuentas, robar secretos industriales o manipular los mercados en los que están invertidos sus ahorros.
El segundo es dotar de recursos reales a los equipos de ciberseguridad (UCO, INCIBE, UDEF...). Los profesionales que hoy trabajan en la administración pública en este ámbito están encorsetados por presupuestos ridículos, estructuras que no pueden competir en salarios con el sector privado y una burocracia que se mueve a velocidad del siglo pasado mientras las amenazas viajan a la del presente. No se combate un ciberataque autónomo con un contrato público que tarda seis meses en adjudicarse.
Anthropic ha tenido la prudencia (ya sea por falta de computación u honestidad) de no soltar su criatura al mundo. Pero otros no tendrán esos escrúpulos. Y cuando eso ocurra, más vale que estemos preparados. Porque como escribí hace cinco meses en estas mismas páginas: no estar preparado ya es perder.