Aspectos destacables sobre la regulación del uso de sistemas de IA en la Administración de Justicia
La instrucción prohíbe expresamente el uso de sistemas de IA que no hayan sido facilitados por las Administraciones competentes en materia de justicia, o por el CGPJ

Es conocida la idea de que el exceso de legislación indica la decadencia de una sociedad. Sin embargo, no todo lo que reluce es despreciable. La Instrucción 2/2026, sobre el uso de sistemas de inteligencia artificial (IA) en el ejercicio de la actividad jurisdiccional, publicada por el Consejo General del Poder Judicial (CGPJ), puede enorgullecerse de su prudencia. De entrada, la Instrucción prohíbe el uso de sistemas de IA que no hayan sido facilitados por las Administraciones competentes; jueces y magistrados pueden usar IA libremente para estudiar, siempre que no incorporen datos judiciales y que la información proceda únicamente de fuentes abiertas.
Esta postura templada se refuerza en la Instrucción con unos principios por los jueces y magistrados deben guiarse, de los cuales cabe destacar el principio de prevención de sesgos algorítmicos, y el de proporcionalidad y uso limitado. El primero obliga a una cautela proactiva para identificar y evitar sesgos en el uso de sistemas de IA. En términos menos técnicos, esto significa que los jueces y magistrados deben procurar que la justicia que imparten no se vea envilecida por el uso de herramientas defectuosas. En cuanto al segundo, subraya la importancia de que los sistemas de IA sean realmente útiles como apoyo a la actividad jurisdiccional, conminando a jueces y magistrados a hacer un uso racional de los medios técnicos.
Por huera que pudiera parecer, la introducción de estos principios quiere prevenir una desarticulación entre el gran aparato burocrático encargado de administrar justicia y las resoluciones judiciales que inciden en la vida de las personas, postura pertinente y necesaria en un momento en que existe una sobreestimación acerca de las capacidades de la IA, y una presión por adoptarlas de manera irreflexiva.
La instrucción también apunta que el incumplimiento de los criterios, pautas de uso y principios establecidos en la misma por los jueces y magistrados podrá dar lugar a las responsabilidades que procedan, conforme a lo previsto en la Ley Orgánica del Poder Judicial, sin perjuicio de las medidas preventivas o correctoras que puedan adoptarse en el ámbito organizativo o de gobierno del Poder Judicial. En teoría, esto significa que cualquier persona que sospeche que un juez o magistrado esté haciendo uso de un sistema de IA que pueda afectar significativamente a un proceso judicial, puede dirigirse a la autoridad competente en cada caso, para solicitar que se abra un expediente, se investigue, y, en su caso, se sancione al juez o magistrado por ello.
En la práctica, es poco probable que una de las partes lo inste, salvo que el cliente exprese un interés intenso en ello, lo cual cabe imaginar que sólo sucedería en casos flagrantes. Lo ideal sería que los jueces y magistrados se supervisen entre ellos para proteger celosamente la justicia. La instrucción tiene la cortesía de recordarnos la existencia de la Política de uso de IA en la administración de justicia que publicó el Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE) hace unos años.
Dicha Política se publicó al mismo tiempo que el Reglamento de IA, razón por la cual es posible que pasara desapercibida. No obstante, comparte con la Instrucción ese espíritu preventivo, sensato, práctico y breve que vincula a los trabajadores de la Administración de Justicia hacia un uso prudente de la IA. Por ejemplo, destaca la racional clasificación de los casos de uso: están los generalmente permitidos; los que requieren la aprobación de la dirección; los que requieren aprobación de IT, y los prohibidos. Entre estos últimos, se incluye el uso de sistemas de IA generativa que sustituya la irremediable presencia en comités, reuniones, o similares.
La razón de ello es que el uso de sistemas de IA que procesan el audio de las reuniones y realizan resúmenes automáticos puede llevar a los usuarios a no acudir a las mismas, como correctamente identifica la política. También es destacable el establecimiento de responsabilidad por uso de IA, que se atribuye individualmente a la persona que lo use en cada juzgado, tribunal, oficina judicial o fiscalía; y lo mismo respecto a los servicios ofrecidos a la ciudadanía o a los profesionales de la Justicia.
En suma, la Instrucción 2/2026, y antes que ella, la desapercibida Política del CTEAJE, adoptan una postura prudente y proporcionada frente a la adopción de la IA en la Administración de Justicia: promueven un uso útil y limitado, exigen prevención de sesgos y asignan responsabilidades claras, evitando así la adopción irreflexiva de tecnologías que puedan desvirtuar la función judicial. En el momento que estamos viviendo, caracterizado por una actitud generalizada de improvisación imprudente, este es un enfoque que debe aplaudirse; aún más importante, jueces y magistrados deben exigir su efectividad y cumplimiento para el bien de todos.