¿Pruebas manipuladas por IA? El reto legal de la suplantación de identidad en los tribunales
La IA complica saber si una prueba es auténtica. La obsolescencia del marco legal genera vacíos normativos ante delitos cometidos con estas herramientas

Un vídeo falso, creado con inteligencia artificial (IA), muestra a una víctima pidiendo retirar una denuncia. Otro, manipulado, simula a un acusado confesando un delito que no cometió. La revolución de los deepfakes y los audios generados por IA plantea un dilema jurídico urgente: ¿cómo saber si una prueba digital es real o ha sido manipulada? Jueces y abogados se enfrentan a desafíos inéditos para garantizar procesos justos en un entorno donde la tecnología puede distorsionar la verdad.
Cada vez es más fácil y accesible generar audios, vídeos o mensajes falsos muy realistas que, además de amenazar la fiabilidad de las pruebas digitales, también pueden alterar la dinámica procesal. “Lo más grave no es que se puedan crear pruebas falsas, sino que ahora se puede poner en duda una prueba verdadera alegando que ha sido generada por IA”, advierte Paloma Llaneza, abogada y CEO de la consultora tecnológica Razona LegalTech. “Estamos ante lo que yo llamo el escudo de la duda artificial. Cualquier imputado puede alegar que una grabación auténtica en su contra es falsa, generada por IA, y es muy difícil demostrar lo contrario”, explica.
El problema no es teórico. Como destaca el magistrado Carlos Javier Galán, es habitual que las partes en un proceso digan “no me reconozco en ese audio” o “esos WhatsApp no son míos”, a pesar de que las pruebas sean reales. Un ejemplo reciente del uso de este argumento lo han protagonizado los políticos Ábalos y Cerdán. Ambos han manifestado que no se reconocen en los audios de Koldo. “No podemos naturalizar que se generalice como estrategia de defensa el cuestionar alegremente la autenticidad de una prueba digital solo por complicar el proceso”, apunta Galán. Para evitar este juego, el magistrado cuenta que a veces hay que avisar a los desmemoriados de que la negación infundada va a tener consecuencias. “Por mi experiencia, tras esa advertencia en más del 90% de los casos alguien recupera la memoria y se acaba reconociendo”, afirma.
El problema es cada vez más preocupante. Según confirma el perito judicial informático Rubén Maldonado, CEO de TecnoPeritaciones, las falsificaciones con IA han alcanzado tal grado de sofisticación que “ni jueces ni abogados pueden confiar en una grabación sin un análisis técnico forense”. Detectar un deepfake de voz, por ejemplo, puede requerir programas específicos, análisis espectral y cotejo con muestras vocales originales. Esta dificultad técnica genera otro grave problema: la desigualdad en el acceso a estas periciales por su coste. “En los procedimientos con justicia gratuita, las periciales de calidad necesarias para analizar este tipo de contenidos simplemente no están cubiertas”, lamenta Paloma Llaneza.
Normativa obsoleta
Tampoco ayuda la obsolescencia de las leyes procesales. “Tenemos una normativa probatoria pensada para un mundo analógico a la que se le han ido añadiendo parches para afrontar lo digital, que, en realidad, ya lo abarca prácticamente todo”, alerta Carlos Javier Galán.
Mientras se produce la modernización de la legislación, el magistrado Alfonso Peralta Gutiérrez, miembro del Comité Consultivo de IA del Consejo de Europa, recuerda que el Código Penal ya contempla el delito de estafa procesal. Sin embargo, “ciertos fenómenos no encajan del todo en las normas penales actuales”, advierte el juez, quien reclama reformas que aumenten las penas por el uso de IA para delinquir. Peralta propone incluso incorporar la identificación biométrica dinámica en las vistas telemáticas para prevenir la suplantación de identidad en tiempo real: “La IA generativa ya puede ponerte la cara de Elon Musk en una videoconferencia en vivo. Pero ¿qué ocurrirá cuando pueda sustituirla por la de una persona concreta y desconocida?”, plantea.
Sonia Gumpert, socia del área de derecho procesal de Monereo Meyer Abogados, coincide en que tiene que haber una revisión continua de las medidas de supervisión de pruebas fraudulentas y adaptaciones rápidas de la normativa para regular todos los posibles casos, “ya que la IA es una herramienta que se encuentra en evolución constante”. La abogada sostiene que cualquier solución para mitigar los riesgos de la manipulación de pruebas con IA debe pasar por tres ejes: “Estándares modernos de admisión de pruebas, peritos informáticos especializados en IA adscritos a los juzgados y un protocolo claro de validación digital”.
Claves para detectar una prueba manipulada
Origen. Solicitar siempre información sobre cómo, cuándo, dónde y con qué dispositivo se obtuvo la prueba digital. Hay que pedir que se conserve el archivo original sin modificar. Los metadatos —fecha, ubicación, modelo de dispositivo, software usado— pueden ser decisivos para acreditar la autenticidad o revelar alteraciones o falsificaciones generadas por IA.
Consistencia. Revisar si la prueba es coherente con los hechos conocidos. ¿Cuadra con el contexto? ¿Tiene sentido el lenguaje? ¿Hay incongruencias en la imagen, el audio o el texto? Desajustes sutiles como iluminación irregular, movimientos faciales artificiales o errores en la entonación pueden indicar que el contenido ha sido manipulado con IA generativa.
Firma digital o hash. Una prueba fiable debe incluir un hash criptográfico o firma digital que permita verificar que el archivo no ha sido alterado desde su obtención. Esta "huella digital" es única para cada versión de un archivo. Si el archivo carece de este dato o ha pasado por ediciones, pierde fuerza probatoria. Muchos tribunales ya valoran este tipo de sellos como garantía técnica.
Análisis pericial. Pedir un informe técnico emitido por un perito judicial informático acreditado. Herramientas como ASVspoof o Resemblyzer permiten detectar voces clonadas y vídeos falsos con alta precisión.
Actitud procesal. Si una parte niega sistemáticamente pruebas sin fundamento, el juez puede advertirle de que esa estrategia tendrá consecuencias procesales. La duda artificial como defensa sin prueba puede volverse en contra.

