Ir al contenido
_
_
_
_
En colaboración conLa Ley

¿Prepara juicios con IA? Los tribunales ya han detectado 590 alucinaciones en todo el mundo

La mayoría de las infracciones se produjeron por citar precedentes judiciales y leyes que ya no estaban en vigor; Estados Unidos es el país que recoge el mayor número de casos

Mientras la inteligencia artificial (IA) se abre paso en los bufetes con la promesa de ahorrar horas de trabajo, los tribunales empiezan a medir su impacto real. En solo dos años, jueces de todo el mundo han detectado 590 casos en los que se presentaron demandas con citas jurídicas falsas creadas por algoritmos. Así lo documenta un trabajo elaborado por Damien Charlotin, abogado y científico francés, quien ha construido una base de datos que recopila todos los errores cometidos por abogados y otros profesionales jurídicos por culpa de las máquinas.

La radiografía de Charlotin refleja un patrón inquietante: más de 400 alucinaciones jurídicas corresponden a citas de jurisprudencia completamente erróneas o falsificadas. A ello se suma un centenar de asuntos en los que la IA invocó mal las leyes. Estados Unidos lidera con holgura el ranking de países donde la IA alucina con 400 asuntos, seguido de Australia (40), Canadá (39), e Israel (32). En Europa, el fenómeno es más residual, con Reino Unido (21) como el país con más infracciones. En España, por ejemplo, los tribunales solo han detectado dos casos en total.

Los perfiles que han confiado en exceso de la IA son variados. Según el análisis, al menos 230 casos implican directamente a abogados en ejercicio. La mayoría de las infracciones cometidas se debe a que presentaron escritos en los que el algoritmo se inventó precedentes judiciales y citó artículos legislativos que ya no están en vigor. Incluso se han detectado seis casos en el que los propios jueces usaron la IA para citar sentencias inexistentes. La cifra aumenta cuando los ciudadanos litigan por su cuenta: más de 300 asuntos provienen de personas que recurrieron a ChatGPT como si fuera un asistente legal.

En el caso de los abogados, ¿por qué cometen tantos errores con la IA? Porque aún no saben cómo funciona. “Hay una brecha digital importante”, reconoce Miguel Hermosa, presidente de la subcomisión de justicia digital de la Abogacía Española (CGAE). “Muchos letrados utilizan los modelos de lenguaje como si fueran una base de datos de jurisprudencia o el buscador de Google”. Un caldo de cultivo que enciende las alarmas. “Cuando se desconocen las funcionalidades, se exige a la IA cosas que no sabe hacer y se producen errores por alucinaciones o brechas de seguridad de protección de datos”, señala Alfonso Peralta, magistrado experto en derecho digital y miembro del Comité Consultivo de Inteligencia Artificial (AIAB) del Consejo de Europa.

Otro error común es el exceso de confianza. Muchos letrados confían plenamente en que las respuestas de estos asistentes son fiables, cuando no siempre es así. “Detrás de la IA se esconde un algoritmo que contesta con respuestas basadas en probabilidades estadísticas”, explica Jorge Cabet, socio director de Cabet Abogados especializado en nuevas tecnologías. “Si supiéramos que, cuando le preguntamos ‘dónde está la tienda más cercana donde vendan naranjas’, no tiene ni idea de lo que responde, —ni siquiera responde sabiendo si queremos un color o una fruta— seríamos más circunspectos”, opina.

Precauciones

El problema de fondo es que las máquinas no entienden los conceptos legales. “Imitan redacciones jurídicas, pero no lo comprenden”, señala Mabel Klimt, diputada del Colegio de la Abogacía de Madrid (ICAM) responsable de tecnología, digitalización y cultura. Por ello, subraya, los abogados deben revisar cada detalle: “Tienen que asegurarse de que los escritos, recursos y dictámenes que firma están correctamente fundamentados y ajustados a derecho”. La abogada también anima a desconfiar de las respuestas automáticas: “Hay que saber interpretar los resultados, contrastarlos con fuentes fiables y verificar cualquier cita o argumento que se pretenda incorporar a un escrito”.

Para evitar líos legales, Alfonso Peralta recomienda huir de los chats genéricos, incluso de aquellos que ofreces una versión premium. “Suelen carecer de la formación especializada necesaria y documentación jurídica para el razonamiento legal, porque no han sido entrenadas principalmente con fuentes oficiales tales como leyes, normativas, ni jurisprudencia”, afirma. Por ello, considera que los algoritmos creados especialmente para el sector legal “son más recomendables y confiables que otros”.

La confidencialidad es otro punto crítico que no se puede pasar por alto. Los abogados deben asegurarse de que no comparten datos personales con la IA. “El abogado tiene que comprobar resultados, citas, artículos… y ser conscientes de la obligación de anonimizar los documentos, salvo que se usen en un entorno seguro”, advierte Hermosa.

Si un tribunal detecta un escrito con errores generados por IA, el responsable, según el Código Deontológico de la Abogacía, será el abogado. “Es quien firma el documento y quien asume la responsabilidad de la dirección técnica del procedimiento”, explica Hermosa. Y aunque la herramienta sea de un tercero, reitera, es el letrado quien paga por los platos rotos. Por otro lado, reconoce Mabel Klimt, los abogados también tendrán que responder ante el cliente por los trabajos y servicios realizados en su nombre.

En cualquier caso, señala Jorge Cabet, la mejor precaución es “saber el proceso interno que lleva a cabo un chatbot desde el prompt hasta el output y ser conscientes de que estas máquinas trabajan con representaciones matemáticas”. Asimismo, añade, lo más recomendable es utilizar la IA “solo en lo imprescindible”, puesto que existen efectos que veremos a largo plazo y que depender en exceso de esta herramienta “puede resultar patológico”. Aun así, matiza, un buen uso puede hacer que un despacho sea más rentable, dada “la enorme inversión en capital humano que requieren los despachos”.

Los dos casos españoles

Tribunal Constitucional. El 9 de septiembre de 2024, los magistrados pillaron a un abogado que había incluido en una demanda de amparo hasta 19 citas procedentes de sentencias del Tribunal Constitucional que, en realidad, no existían. El letrado alegó que el error se debía a una base de datos desconfigurada, pero el tribunal descartó esta explicación al no aportarse prueba alguna. No hubo sanción para el jurista (solo apercibimiento) y el tribunal dejó claro que la responsabilidad del uso de los algoritmos recae siempre en el profesional que firma el escrito, sin poder echar la culpa a las máquinas. Los magistrados advirtieron de los riesgos de usar la IA con un estudio que alerta de que el uso de los asistentes virtuales genera alucinaciones entre el 69% y el 88% de las veces.

TSJ Navarra. El 4 septiembre de 2024, el Tribunal Superior de Justicia (TSJ) de Navarra emitió un auto contra un abogado que citó en un juicio el Código Penal colombiano, creyendo que hacía referencia a la ley española. Los jueces iban a condenarle por mala fe procesal, pero el letrado reconoció que utilizó ChatGPT y se disculpó. Dado que se trataba de un asunto novedoso, el tribunal no impuso ninguna sanción (solo apercibimiento) y dejó claro que la responsabilidad del uso de los algoritmos recae siempre en el profesional que firma el escrito, sin poder echar la culpa a las máquinas.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_