Ir al contenido

IA, transparencia algorítmica y actuaciones administrativas automatizadas

La opacidad de las resoluciones plantea objeciones desde la perspectiva de la motivación y del derecho a la defensa

En los últimos años se ha intensificado exponencialmente la utilización de técnicas de inteligencia artificial por parte de la Administración Pública, y de forma especialmente significativa en el ámbito tributario. Ello ha provocado que un número creciente de obligados tributarios haya sido sometido a procedimientos de verificación de datos, comprobaciones limitadas o actuaciones inspectoras, en ocasiones sin que exista una motivación clara o comprensible para el administrado.

Este fenómeno se vincula de manera directa al desarrollo de herramientas de análisis masivo de datos y de sist...

Para seguir leyendo este artículo de Cinco Días necesitas una suscripción Premium de EL PAÍS

En los últimos años se ha intensificado exponencialmente la utilización de técnicas de inteligencia artificial por parte de la Administración Pública, y de forma especialmente significativa en el ámbito tributario. Ello ha provocado que un número creciente de obligados tributarios haya sido sometido a procedimientos de verificación de datos, comprobaciones limitadas o actuaciones inspectoras, en ocasiones sin que exista una motivación clara o comprensible para el administrado.

Este fenómeno se vincula de manera directa al desarrollo de herramientas de análisis masivo de datos y de sistemas expertos implementados por la Agencia Estatal de Administración Tributaria (AEAT), cuyo uso ha optimizado la capacidad de detección de riesgos fiscales y ha incrementado el rendimiento recaudatorio. Desde una perspectiva estrictamente financiera, este aumento debe considerarse positivo en la medida en que permite ampliar la capacidad de financiación del gasto público. Sin embargo, su utilización plantea interrogantes de carácter jurídico-constitucional relacionados con la transparencia, la motivación y el control de las decisiones automatizadas.

La Sentencia del Tribunal Supremo n.º 1119/2025, de 11 de septiembre, constituye un pronunciamiento de especial relevancia en esta materia. El litigio tenía por objeto determinar si la Administración podía denegar el acceso al código fuente de la aplicación telemática BOSCO, utilizada por el Ministerio para la Transición Ecológica para verificar la condición de consumidor vulnerable en el procedimiento de concesión del bono social energético. El sistema no se limitaba a ofrecer información; generaba un resultado evaluativo mediante mecanismos automatizados que condicionaban de forma directa la situación jurídica del solicitante.

El tribunal analiza la cuestión a partir del artículo 105.b) de la Constitución y su desarrollo en la Ley 19/2013, de Transparencia, concluyendo que la Administración puede emplear sistemas de toma de decisiones automatizadas en el ejercicio de potestades públicas, pero que ello no excluye –sino que refuerza– las exigencias de transparencia y control inherentes al denominado principio de transparencia algorítmica.

Según el tribunal, este principio implica que, cuando la decisión administrativa se funda total o parcialmente en procesos informáticos o algoritmos, el ciudadano tiene derecho a acceder a la información necesaria para comprender su funcionamiento, lo que puede incluir –en supuestos determinados– el propio código fuente o, al menos, sus elementos esenciales. Esta exigencia responde a una finalidad de garantía: permitir que los interesados puedan conocer, cuestionar y fiscalizar los parámetros que fundamentan la actuación administrativa.

Protección de datos y ciberseguridad

El Supremo no desconoce los riesgos asociados a la divulgación del código fuente, como la posible vulneración de datos personales o la exposición a brechas de seguridad. No obstante, subraya que tales riesgos no pueden servir de fundamento para instaurar una opacidad absoluta, especialmente cuando las decisiones automatizadas producen efectos jurídicos directos en la esfera de derechos e intereses de los ciudadanos.

El pronunciamiento adquiere especial relevancia en un contexto normativo caracterizado por la ausencia de autoridades independientes de supervisión algorítmica, lo que incrementa la necesidad de reforzar los mecanismos de transparencia y control democrático sobre el uso de tecnologías avanzadas por parte del sector público. Aunque la sentencia no se refiere específicamente al Derecho tributario, sus implicaciones resultan evidentes. Hacienda y la AEAT reconocen el empleo de sistemas de IA para la detección de perfiles de riesgo y la selección de contribuyentes sujetos a comprobaciones. Sin embargo, la Administración se ampara en el artículo 95 de la Ley General Tributaria –relativo a la reserva de datos con trascendencia tributaria– para excluir la posibilidad de que los interesados conozcan los criterios, algoritmos o modelos.

Esta opacidad plantea importantes objeciones desde la perspectiva de la motivación administrativa y del derecho a la defensa, especialmente cuando numerosos contribuyentes constatan que las actuaciones de comprobación carecen de motivación individualizada y se limitan a reproducir listados de preceptos normativos, sin referencia a los hechos determinantes del inicio del procedimiento.

La LGT reconoce en su artículo 34 un catálogo de derechos del obligado tributario, entre los que destaca el derecho a obtener información y asistencia por parte de la AEAT, y a recibir una motivación adecuada de las actuaciones administrativas. Estos derechos se ven afectados cuando la decisión de iniciar un procedimiento deriva de algoritmos opacos cuya lógica interna permanece inaccesible para el contribuyente.

El uso de IA en la gestión tributaria constituye una herramienta valiosa para optimizar recursos y detectar comportamientos defraudatorios, especialmente ante la insuficiencia de medios personales. Sin embargo, su empleo sin mecanismos adecuados de supervisión o transparencia puede derivar en una intensificación indiscriminada de la presión administrativa sobre los contribuyentes, apartándose del objetivo de lucha contra el fraude y acercándose a prácticas de control masivo carentes de suficiente garantía jurídica.

La IA puede y debe constituir un instrumento eficaz para la lucha contra el fraude fiscal. Sin embargo, su utilización sin controles adecuados compromete principios esenciales del Estado de Derecho, como la transparencia, la motivación y la defensa del administrado. La reciente jurisprudencia del Supremo marca una línea doctrinal que, previsiblemente, deberá proyectarse también en el ámbito tributario, obligando a la Administración a compatibilizar la eficacia recaudatoria con las garantías constitucionales y legales que protegen a los contribuyentes frente a decisiones automatizadas.

Más información

Archivado En