_
_
_
_
En colaboración conLa Ley

Joaquín Delgado: “La IA puede abrir la puerta al uso de pruebas falsas fabricadas por ‘deepfake’”

El magistrado de la Sala de lo Penal de la Audiencia Nacional advierte de los riesgos que plantea el uso de la inteligencia artificial en los juzgados y por los ciudadanos

Joaquín Delgado, en la presentación de la los anuarios 'Prácticas para Abogados 2024'
Joaquín Delgado, en la presentación de la los anuarios 'Prácticas para Abogados 2024'Cedida por Uría Menéndez

Los jueces y magistrados están preocupados por el avance de la inteligencia artificial. La judicatura muestra cierta inquietud, porque el avance de esta tecnología plantea beneficios, y de hecho ya se utiliza en el día a día de los juzgados, para agilizar el trabajo, como muchos reconocen, pero también abre la puerta a una cascada de riesgos. Por ejemplo, “se pueden presentar pruebas falsas generadas por inteligencia artificial y deepfake, cree Joaquín Delgado, magistrado de lo penal de la Audiencia Nacional.

Así lo advirtió Deglado el pasado jueves, en la presentación de la recopilación anual de casos de los grandes bufetes, Anuarios Prácticas para Abogados, de Aranzadi LA LEY, que tuvo lugar en la sede del bufete Uría Menéndez. En el encuentro, el magistrado de la Sala de lo Penal aprovechó la ocasión para alertar de las amenazas que esconde una tecnología que evoluciona a velocidad de vértigo. Tanto, dijo, que cualquier intento de control por parte del legislador siempre llega tarde.

Frente a abogados, juristas y personalidades del sector legal, el jurista puso el acento en que “cada vez hay más personas que utilizan ChatGPT para asesorarse jurídicamente”. Y ello es peligroso, porque este tipo de herramientas construye respuestas “a raíz de toda la información disponible”, pero no de “fuentes y datos especializados de empresas especializadas en Derecho”. Es decir, “hay datos buenos y datos malos y la máquina puede inventar jurisprudencia, citas…”. Son las llamadas alucinaciones, respuestas que parecen totalmente lógicas y racionales, pero que en realidad utilizan datos inventados o resultados directamente erróneos.

El juez, especialista en la transformación digital de la justicia, advirtió de los peligros que puede acarrear utilizar estas herramientas como Chat GPT en los propios juzgados. No es una realidad paralela, de hecho, un 44% de los jueces utiliza este tipo de herramientas para ayudarse a la hora de redactar sus sentencias, según un reciente estudio de la UNESCO. “Hay que ser conscientes del riesgo de imprecisión, que es enorme”, además de que “toda la información que se suba al sistema será de uso público y será utilizado por el sistema”. Son arenas movedizas en materia de protección de datos, resumió Delgado.

El magistrado descartó que llegue el día en el que las máquinas sustituyan el criterio de los jueces. Habrá cierta comunión entre el juez y la máquina, pero el primero siempre tendrá que revisar cualquier contenido generado de forma automática. El magistrado sí acepta que las herramientas como ChatGPT puedan ayudar en el día a día de los juzgados a realizar tareas rutinarias, como la redacción de un correo o la elaboración de un borrado de un documento judicial, incluso de una sentencia. Todo es correcto, siempre, apostilló, que exista una “labor de revisión”.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_