Ir al contenido
_
_
_
_
En colaboración conLa Ley
Tribunales
Tribuna

Cuando la IA “alucina” en los tribunales, ¿quién paga el precio?

La tecnología no firma escritos, no dicta resoluciones, ni asume responsabilidades: lo hacen abogados y jueces

Sansert Sangsakawrat (Getty Images)

Imagine que pierde un recurso porque la sentencia que lo sustentaba nunca existió. Que su abogado citó una jurisprudencia impecablemente redactada, con número de resolución, fecha y ponente… pero inventada por una máquina. O que un juez inadmitió su demanda apoyándose en precedentes que nadie puede encontrar en ningún repositorio oficial. No es ciencia ficción. Está pasando. Y está pasando ya.

En España, el Tribunal Superior de Justicia de Canarias investiga a un abogado por haber citado sentencias inexistentes del Tribunal Supremo, supuestamente sugeridas por una herramienta de IA. Resoluciones que no aparecen en ninguna base de datos jurídica. Ni rastro. No se cuestiona el uso de herramientas de inteligencia artificial, sino la falta de comprobación. El propio tribunal ha calificado la conducta como una “palmaria negligencia”. No por usar IA, sino por no comprobar.

En paralelo, en Ceuta tentemos un caso que va un paso más allá y resulta especialmente preocupante. Un abogado ha denunciado a un magistrado por basar una resolución en jurisprudencia inexistente atribuida a la inteligencia artificial. El origen habría estado en un informe de la Fiscalía que utilizó inteligencia artificial y atribuyó doctrina literal entrecomillada a sentencias que no existen. El magistrado habría incorporado ese informe sin verificarlo, convirtiéndolo en fundamento directo de su decisión. El resultado: la inadmisión de un recurso. El impacto ya no es solo profesional, sino institucional. Porque cuando el error lo comete quien juzga, el daño se multiplica.

No es un fenómeno local. Estos casos se suman a una epidemia global que se acelera. En Estados Unidos, varios tribunales ya han sancionado a abogados por presentar escritos con citas falsas generadas por IA. En algunos casos, las multas han sido ejemplares. En otros, los jueces han advertido expresamente de que el uso de estas herramientas no exime de responsabilidad profesional. De hecho, algunos jueces ya exigen expresamente que se declare si se ha utilizado IA en la elaboración de escritos y que se garantice la verificación humana de todas las fuentes citadas.

La clave está ahí. En la supervisión. Porque la IA no piensa, no razona jurídicamente. No distingue entre una sentencia real y una con apariencia de realidad. Tan sólo predice palabras y construye textos verosímiles. Y eso, en Derecho, es un riesgo enorme si no hay control humano. El patrón se repite siempre. Textos bien escritos. Argumentos plausibles. Jurisprudencia “creíble”. Y, sin embargo, falsa.

Aquí está el verdadero riesgo. La IA no distingue entre lo verdadero y lo falso. No “sabe” Derecho. No contrasta bases de datos oficiales. Y eso, en el ámbito judicial, es extremadamente peligroso si no existe un control humano riguroso.

Son las llamadas alucinaciones de la inteligencia artificial: contenidos fabricados que no responden a la realidad, pero que se presentan con una apariencia de autoridad que puede engañar incluso a profesionales experimentados.

¿Debe, por tanto, la Justicia dar la espalda a la tecnología? No. Sería un error. La IA puede ser una aliada poderosa para buscar información, resumir documentos, detectar patrones o mejorar la eficiencia. Pero nunca puede sustituir al criterio profesional. Nunca puede operar sin supervisión. No puede convertirse en una fuente de autoridad.

El error no es tecnológico. Es profesional. La tecnología no firma escritos, no dicta resoluciones, ni asume responsabilidades. Lo hacen abogados y jueces. Profesionales cuyo deber sigue siendo el mismo de siempre: comprobar, contrastar, verificar. Un deber que se enraíza en el cumplimiento del Reglamento Europeo de Inteligencia Artificial. De lo contrario, ¿quién pagará el precio?

Los casos de Canarias y Ceuta, como los de Estados Unidos o Argentina, no son anomalías sino advertencias. Para los justiciables, las consecuencias son devastadoras. Si su abogado presenta jurisprudencia fantasma, su defensa se sustenta en humo. Si un juez fundamenta su resolución en doctrina inexistente, la decisión carece de base legal real. Clientes pueden ver desestimadas sus pretensiones por errores ajenos a su voluntad. Acusados pueden enfrentar condenas o absoluciones basadas en precedentes ficticios. El sistema entero se expone a una erosión de confianza cuando las palabras de la justicia pueden ser generadas por algoritmos opacos sin supervisión humana.

La solución no pasa por prohibir. Pasa por formar profesionales en su uso responsable. establecer protocolos de verificación obligatorios e imponer sanciones ejemplares a quienes antepongan la comodidad del copia-pega a la responsabilidad de su función. Por recordar algo esencial: la IA no es infalible. Las personas tampoco. Pero solo las personas pueden, y deben, hacerse responsables de sus decisiones.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_

Últimas noticias

Buscar bolsas y mercados

_
_