¿ChatGPT para escribir una demanda? Abogado, antes de meter la pata siga estos consejos
Sentencias que no existen o leyes que no están en vigor: utilizar inteligencia artificial en escritos jurídicos es jugar con fuego si no se toman precauciones

“Hola. ¿Puedes revisar esta demanda? Me gustaría que la corrigieras ortográfica y gramaticalmente. Además, quiero una lista de sentencias sobre casos parecidos y que analices la posibilidad de éxito de mi cliente. También quiero saber si esta estrategia procesal es la mejor y que me propongas alternativas”. A lo que la máquina responde: “¡Por supuesto!”. Y cinco segundos después, la pantalla devuelve un documento que resume la esencia de la demanda, desgrana sus puntos clave, enumera los antecedentes, reescribe párrafos y se atreve a entrar en el fondo del asunto. No solo se queda en detalles gramaticales, sino que además analiza el caso y traza caminos procesales alternativos. Todo es coherente... en apariencia.
Es un secreto a voces que los abogados utilizan asistentes virtuales. Un reciente informe de la Asociación Europea de Tecnología Jurídica (ELTA) refleja que el 80% de los profesionales jurídicos encuestados afirmó utilizar inteligencia artificial (IA) generativa semanalmente. Casi la mitad admitió usarla a diario. El Consejo General de la Abogacía Española (CGAE) ha puesto su mira en este asunto porque “el uso de herramientas de IA es la formación que más están demandando los colegiados”, traslada Miguel Hermosa, presidente de la subcomisión de Justicia Digital del CGAE. Pero “ChatGPT puede inventar sentencias, casos y referencias legales que no existen”, advierte Hermosa.
Ya hay antecedentes. En 2023, dos abogados estadounidenses fueron condenados a pagar 5.000 dólares por citar sentencias que nunca existieron (ChatGPT se las inventó). En 2024, en Navarra, un abogado esquivó una sanción por citar el Código Penal colombiano en un escrito que, como admitió, había trabajado con un asistente virtual. Evitó la sanción porque reconoció el error y se disculpó.
¿Cómo utilizar la IA en textos jurídicos sin pisar ninguna mina? CincoDías lanza esta pregunta a varios expertos en IA aplicada al mundo jurídico. Alfonso Peralta, magistrado experto en Derecho Digital y miembro del Comité Consultivo de Inteligencia Artificial (AIAB) del Consejo de Europa aconseja, ante todo, huir de los chats genéricos. “El uso de sistemas de IA específicamente jurídicos, destinados al mercado español, entrenados con boletines oficiales, legislación y jurisprudencia española y bases de datos de las editoriales supone una diferencia brutal”, recalca.
El segundo error detectado es dejarse engañar por la apariencia de que todo es coherente. Son las llamadas alucinaciones, informaciones que, aunque a simple vista son acertadas y razonables, son pura invención de la máquina. El ejemplo más común es citar sentencias que no existen o aplicar leyes que no están en vigor.
“La cantidad de errores es sorprendente sobre todo cuando se busca precisión quirúrgica en los matices”, señala Eva Bruch, consultora sobre transformación digital de LOIS (Legal Operations Institute Studies). “Muchos profesionales se confían pensando que todo lo que redacta es correcto por defecto y no. Es una herramienta poderosa, pero no infalible”.
Incoherencias
Otra equivocación es esperar que la inteligencia artificial resuelva dudas legales. “ChatGPT puede identificar errores gramaticales, sugerir mejoras estilísticas o detectar incoherencias básicas en la redacción”, reconoce Moisés Barrio, letrado del Consejo de Estado y experto en derecho digital. Pero “no tiene la capacidad de evaluar si los argumentos legales son sólidos, relevantes o aplicables a la jurisdicción específica”.
Por ejemplo, no puede verificar “si las normas legales citadas son correctas, están actualizadas o se aplican al caso concreto”, señala Barrio, quien coincide con Peralta en recomendar aquellas herramientas de IA del mercado que estén entrenadas con “un fondo legal, jurisprudencial y doctrinal”, porque los chats genéricos tienden a alucinar.
En esta línea, Noemí Brito, socia responsable del área de Propiedad Intelectual y Nuevas Tecnologías de KPMG Abogados, insiste en que es responsabilidad del abogado asegurarse de que sus fuentes son fiables. O en otras palabras, el profesional no puede echar la culpa a la máquina. Así lo recalcan varias organizaciones de la abogacía institucional, explica Brito, como la Unión Internacional de Abogados.
Esta agrupación da cuatro consejos: revisar los términos de la IA que se utilice; optar por sistemas que no conserven información o no lo compartan con otros; anonimizar los datos y, por último, no compartir con la máquina información sensible, como datos de salud, contraseñas o secretos comerciales. “Se debe extremar la precaución”, subraya la experta de KPMG. Y añade: “Los abogados también deben asegurarse de que su uso de la IA esté cubierto por su seguro de responsabilidad civil profesional”.
Los juristas consultados ponen el dedo en otro punto extremadamente sensible: la confidencialidad. “No es nada recomendable compartir datos del cliente en una plataforma de IA porque se puede comprometer la privacidad, la propiedad intelectual y la seguridad ética”, subraya Cristina Retana, directora de contenidos e innovación de Aranzadi LA LEY, quien aconseja, siempre, anonimizar los documentos".
La postura del CGAE coincide. La recomendación es “anonimizar completamente cualquier documento antes de introducirlos en un asistente virtual”, remarca Hermosa. Por el momento no hay obligación de informar al cliente sobre el uso de ChatGPT en la redacción de sus documentos, si bien el CGAE cree que es previsible que, en el futuro, esta cuestión sea regulada.
Los casos más sonados
El caso Schwartz. Es quizás el ejemplo más sonado de cómo meter la pata con ChatGPT en un juicio. Un juez de Nueva York, Kevin Castel, condenó a dos abogados a pagar una multa de 5.000 dólares por presentar un escrito creado por inteligencia artificial (IA) generativa con varios precedentes inventados. El juez que cazó el engaño no solo condenó a pagar al abogado Steven Schwartz y a su compañero Peer LoDuca por “obviar conscientemente” las señalas de que los casos eran falsos, sino que, además, les obligó a hablar con cada uno de los jueces falsamente citados e informarles del contenido de la sentencia.
España. El Tribunal Constitucional sentó un importante precedente al pronunciarse sobre los escritos judiciales que olían a IA. El aviso fue solo un apercibimiento porque un letrado engordó un importante recurso de amparo con citas de sentencias que no existían y frases inventadas. El máximo intérprete de la Carta Magna dejó claro que la responsabilidad del escrito siempre es del letrado: no se puede echar la culpa a la máquina.
