La IA revoluciona el trabajo jurídico: ahora el reto es controlarla con criterio y rigor
La extensión en el uso de estas herramientas obliga a los profesionales legales a pasar de la teoría a la acción. Supervisión, formación y estrategia marcan el uso responsable y eficaz de la IA

La inteligencia artificial (IA) ha dejado de ser una posibilidad futura para el sector legal para convertirse en una exigencia presente. En el último Think Tank Legal, organizado por Aranzadi LA LEY, expertos de despachos de abogados y asesorías jurídicas de empresa coincidieron en que ya no basta con preguntarse si usar o no esta tecnología. Ahora, el verdadero reto es gobernarla: establecer políticas, formar equipos, prevenir riesgos y anticipar escenarios. El encuentro, centrado en el control interno y externo de la IA, reveló que el sector legal ha madurado en su relación con la IA y empieza a exigirle tanto como a cualquier otra herramienta crítica de trabajo.
La periodista de Aranzadi LA LEY para CincoDías, Patricia Esteban, fue la encargada de moderar este encuentro. En su introducción recordó que el reglamento europeo de IA, que entró en vigor el año pasado, aunque muchas de sus disposiciones no serán aplicables hasta agosto de 2026, ya ha activado los engranajes internos en muchas organizaciones para su adaptación.
Alberto Moreno, director comercial de Aranzadi LA LEY, dio la bienvenida a los asistentes y recalcó que, si bien antes el debate en el sector era sobre si usar o no la IA, ahora ya se estaba empezando a hablar de la parte operativa. “El foco ha pasado de la decisión de adoptar o no estas tecnologías a la necesidad urgente de implementarlas con criterio”, afirmó.
Estrategia
Beatriz Martínez-Falero, directora de la asesoría jurídica de Mahou San Miguel, señaló que la IA es una herramienta clave en el desarrollo de su plan estratégico. “La IA cuenta con formación obligatoria en la compañía”, declaró. La directora explicó que en Mahou San Miguel han elevado la regulación de esta tecnología a la “categoría de política general” aprobada por el Consejo. “Los profesionales del área legal nos hemos convertido en parte de los actores principales en los desarrollos de las herramientas de IA dentro de la compañía”, subrayó.
Por su parte, Fabio López, director de gestión operativa y proyectos de CMS Albiñana & Suárez de Lezo, relató la experiencia de su firma, que ha implantado una estrategia de IA que se revisa anualmente. Para López, la IA es un aliado: “un complemento para poder concentrarnos en la parte de la abogacía en la que aportamos más valor, pero también un riesgo porque nos exige un nivel de diligencia constante”. En su opinión, en este punto es esencial anticiparse: “Hemos pasado a un enfoque más proactivo y no tan reactivo”.
La directora de contenidos e innovación de Aranzadi LA LEY, Cristina Retana, destacó la falta de preparación en gran parte del sector: “Según el informe Break the limits, solo un 12% de los despachos y un 16% de las asesorías jurídicas de empresa cuentan una política de uso de la IA definida”. Retana defendió que la IA afecta de forma transversal a toda la organización y lamentó que los comités que deben regularla a menudo trabajen de forma aislada. También advirtió sobre la brecha generacional en el uso de estas herramientas: “Mientras los profesionales sénior cuestionan los resultados de una herramienta de IA, los jóvenes los dan por válidos, con los riesgos que ello supone”, indicó.
Riesgos y gobernanza
De hecho, Lucía Sánchez-Ocaña, directora global de riesgos, compliance y sostenibilidad en Qualitas Energy, calificó de preocupante que el usuario a veces no sea consciente de los riesgos que supone el uso de esta tecnología. Antes de lanzarse recomendó preguntarse: “¿Sabes dónde va a ir esta información que vuelcas en una herramienta de IA?”. Sánchez-Ocaña también alertó del impacto en la cadena de valor: “el 90% de las empresas son pymes y muchas de ellas carecen de controles, por lo que puedes verte expuesto por el uso de terceros”.
Ángel Vallejo, secretario del consejo de Fremap, confirmó esa falta de conciencia inicial respecto al uso de la IA en empresas de su sector que pensaban que se trataba de una materia técnica. En su caso, el proyecto de concienciación arrancó desde el área de cumplimiento normativo con formación dirigida a la alta dirección. “Lo primero a regular son las cláusulas de los contratos”, afirmó, señalando el riesgo latente en la cadena de suministros. Asimismo, Vallejo alertó de que “muchas herramientas tienen IA y la gente no lo sabe”, y de ahí, “la necesidad de hacer inventarios exhaustivos”.
También en clave de prevención, Ángel José Báscones, CIO de Ontier, expuso cómo pasaron de una aproximación técnica a una de gobernanza. “El despacho trabaja con información muy sensible y estas tecnologías tienen mucho riesgo”, comentó. Para proteger la información, cuentan con una herramienta que alerta de los peligros al usuario: “El sistema graba ese ‘sí’ cuando el usuario acepta los riesgos”. El experto reflexionó sobre cómo la IA está forzando una reingeniería de procesos que, en definitiva, permitirá que los profesionales jurídicos empleen su tiempo en las tareas de mayor valor creativo.
Desde una perspectiva organizativa, Laura Paz Ramírez, directora de legal operations de BDO Abogados, puso la lupa en el rápido desarrollo de esta tecnología en constante evolución. “La estrategia de IA está embebida en la estrategia de la compañía y debe actualizarse prácticamente cada mes”. Aunque reconoció que “la política de riesgo cero no existe”, defendió la necesidad de lanzarse a la ejecución sin paralizarse por el miedo. Para concluir su intervención, también subrayó la importancia de la “explicabilidad”, es decir, “que las herramientas de IA te proporcionen una trazabilidad para que puedas hacer seguimiento y no perder la confianza en los resultados”.
Todos los asistentes coincidieron en que para avanzar con garantías en el uso de la inteligencia artificial en el sector legal es necesaria una estrategia clara y actualizada, una gobernanza transversal que implique a toda la organización, políticas de uso bien definidas y formación continua para mitigar riesgos y fomentar una aplicación crítico y responsable de esta tecnología.