Cuando la imagen ya no prueba nada: el inquietante auge del ‘deepfake’
La democracia no puede permitirse que el viejo “ver para creer” desaparezca sin ofrecer un sustituto: etiquetar ayuda, pero no basta

Hay una frontera que se ha vuelto peligrosamente frágil: la que separa la conversación pública de la prueba audiovisual. Durante décadas, una imagen o un vídeo bastaban para cerrar un debate. Hoy, ese reflejo automático ya no funciona. En los últimos tiempos, distintos gobiernos europeos han pedido a los reguladores que investiguen a grandes plataformas por la difusión de contenidos generados con inteligencia artificial (IA) destinados a alimentar campañas de desinformación. No es un episodio excepcional ni una anécdota tecnológica. Es el anticipo de una normalidad inquietante, en la que cualquier audio, vídeo o captura puede presentarse como prueba de algo que nunca ocurrió.
La respuesta normativa ha empezado a acelerarse, y no sin motivos. En España se han impulsado medidas específicas para reforzar la protección de menores en entornos digitales, incluyendo la tipificación de determinados deepfakes de contenido sexual o gravemente vejatorio. En paralelo, la Unión Europea ha puesto en marcha una regulación ambiciosa sobre inteligencia artificial, con un calendario de aplicación escalonado que ya está en marcha y que culmina este agosto de 2026. La arquitectura legal se construye con rapidez, pero conviene no engañarse: la velocidad legislativa no garantiza, por sí sola, eficacia social.
Una de las soluciones más repetidas consiste en etiquetar el contenido sintético. La lógica es sencilla y tranquilizadora: si el usuario sabe que lo que ve es artificial, la mentira pierde fuerza. El problema es que esa lógica funciona bien sobre el papel y mal en la realidad. Cuanto más se confía en la etiqueta, más rentable resulta falsificarla, eliminarla o sacarla de contexto. La advertencia acaba convirtiéndose en un elemento decorativo, útil para cumplir formalmente y poco eficaz para frenar el daño cuando el contenido ya circula sin control.
El debate, por tanto, no debería quedarse en el aviso al usuario, sino avanzar hacia algo más incómodo pero necesario: un nuevo pacto probatorio y procedimental. Necesitamos mecanismos de trazabilidad técnica razonables, que permitan seguir el rastro del contenido más allá del momento en que se genera. Metadatos, sistemas de procedencia o huellas técnicas no son una panacea, pero sí pueden reducir el espacio de impunidad y facilitar reacciones rápidas cuando el daño es inminente. No se trata de crear contenidos “infalsificables”, sino de que la falsificación tenga un coste y deje huella.
También hace falta un marco de actuación urgente con garantías. La retirada exprés sin control puede derivar en censura privada; la retirada tardía convierte el derecho en un elemento ornamental. El equilibrio pasa por procedimientos claros, trazables y revisables, con derecho de contradicción y mecanismos de reparación cuando el contenido era lícito. El dilema no es elegir entre libertad de expresión o protección frente a la desinformación, sino diseñar una debida diligencia que sea compatible con ambas.
La cuestión de la responsabilidad exige, además, una afinación quirúrgica. No todo contenido sintético es ilícito, ni toda recreación es fraude. La parodia, la creación artística o el uso legítimo de herramientas de IA no pueden tratarse como sospechosos por defecto. El derecho penal tiene sentido en supuestos especialmente lesivos, y la protección de menores es un buen ejemplo, pero la respuesta estructural está en el ámbito administrativo y en las obligaciones de gestión de riesgos. Identificar campañas coordinadas, limitar la amplificación artificial, cooperar con las autoridades y ofrecer datos verificables a investigadores independientes resulta más eficaz que confiarlo todo a la sanción a posteriori.
La democracia no puede permitirse que el viejo “ver para creer” desaparezca sin ofrecer un sustituto. Etiquetar ayuda, pero no basta. Hace falta un ecosistema de autenticidad, procedimientos con garantías y, sobre todo, una cultura cívica que aprenda a desconfiar sin caer en el cinismo permanente. Si el siglo pasado reguló la imprenta y la radiodifusión, el nuestro tendrá que regular, con inteligencia y prudencia, la fábrica de apariencias. Porque cuando todo puede ser falso, el mayor riesgo no es la mentira, sino la pérdida de confianza colectiva.