_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

El uso de ChatGPT por las Administraciones Públicas

La cuestión no es prohibir este tipo de herramientas, sino el poder utilizarlas correctamente y con plenas garantías jurídicas

Los recientes avances en inteligencia artificial (IA) han suscitado un creciente interés por la utilización de herramientas de IA para mejorar los servicios públicos. Así, los grandes modelos lingüísticos (LLM por sus siglas inglesas de large language models) y la IA generativa con ChatGPT a la cabeza han surgido como potentes herramientas capaces de generar textos que se asemejan mucho al lenguaje humano y pueden ser empleados para mejorar los servicios públicos, especialmente la atención ciudadana y la automatización documental.

A mi juicio, la cuestión no es prohibir este tipo de herramientas, sino el poder utilizarlas correctamente y con plenas garantías jurídicas. En particular, es crucial que los sistemas de IA se utilicen respetando los derechos fundamentales, como la igualdad, la no discriminación y la protección de datos. Por eso, el elemento clave en este proceso es el establecimiento de procesos sólidos de evaluación de impacto para identificar y mitigar los riesgos potenciales de los sistemas de IA.

En este aspecto, mi experiencia como asesor internacional de regulación y consultor es que no existe un enfoque único para la evaluación de impacto de la IA sobre los derechos fundamentales. Los riesgos y afectaciones específicos variarán en función del contexto concreto en el que se utilicen. No es lo mismo emplear un sistema de IA para el numerado o paginado de los expedientes administrativos que aplicarlo para automatizar por entero un procedimiento administrativo. En todo caso, existen algunos principios generales que pueden aplicarse a todas las evaluaciones de impacto.

En primer lugar, es importante implicar a un amplio abanico de actores interesados en el proceso de evaluación de impacto. Esto involucra a las personas que se verán afectadas por el sistema de IA, así como a expertos en campos relevantes como el derecho, la ética y la tecnología. En segundo lugar, es crucial considerar todos los riesgos e impactos potenciales del sistema de IA, tanto positivos como negativos. Esto incluye tener en cuenta sus repercusiones en diferentes grupos de personas, como las minorías y los grupos vulnerables. En tercer lugar, la evaluación de impacto debe realizarse de forma transparente y participativa. Esto significa que los resultados de la evaluación deben hacerse públicos y que las partes interesadas deben tener la oportunidad de formular su opinión.

El futuro Reglamento europeo de IA (el RIA o AI Act), actualmente en fase final de trílogos para su aprobación, supone un importante paso adelante en la regulación de este conjunto de tecnologías. La norma exige que todos los sistemas de IA de alto riesgo se sometan a una evaluación de impacto sobre los derechos fundamentales. Se trata de un avance positivo, que contribuirá a garantizar que los sistemas de IA se utilicen observando los derechos fundamentales.

El reto que debemos resolver es que la regulación se aplique de forma eficaz y proporcionada. El derecho digital europeo se caracteriza por un papel central de los Estados tanto en el fomento de la economía digital como en el uso de la regulación para defender los derechos fundamentales de los ciudadanos, preservar las estructuras democráticas de la sociedad y asegurar una distribución justa de los beneficios en la economía digital.

La IA tiene el potencial de revolucionar la forma en que se prestan los servicios públicos. Sin embargo, es importante utilizarla de forma responsable y segura. El sandbox español de IA, cuyo Real Decreto de regulación verá la luz en noviembre, es un buen punto de partida para extender su uso entre nuestras Administraciones. Así como crear un modelo LLM público en español. Y el Derecho digital pretende garantizar que la IA sea una fuerza positiva en la sociedad, y que su fin último sea incrementar el bienestar de todos los ciudadanos.

Moisés Barrio Andrés, Letrado del Consejo de Estado. Profesor de Derecho digital

Más información

Archivado En

_
_