_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

¿Permite la UE tratar datos personales en el desarrollo y despliegue de la IA?

El Comité Europeo de Protección de Datos da respuesta sobre el uso de la información privada por parte de la inteligencia artificial

Concepto de IA (Inteligencia Artificial). Red de comunicación
metamorworks (Getty Images/iStockphoto)

El Comité Europeo de Protección de Datos (en adelante, CEPD) adoptó, el pasado 17 de diciembre de 2024, su Dictamen 28/2024 sobre ciertos aspectos relacionados con el tratamiento de datos personales en el contexto de los modelos de inteligencia artificial (IA). Es un dictamen relevante que da respuesta a la solicitud hecha por la Autoridad Irlandesa de Protección de Datos, en virtud del apartado 2 del artículo 64 del Reglamento General de Protección de Datos (RGPD), sobre un asunto de aplicación general.

En su dictamen el CEPD da respuesta a las cuatro cuestiones que le había planteado la citada autoridad de protección de datos. Las preguntas planteadas se refieren a los tratamientos de datos personales en las fases de desarrollo y despliegue de modelos de IA y son las relativas a cuándo y cómo un modelo de IA puede ser considerado como anónimo; cómo pueden los responsables del tratamiento demostrar la idoneidad del interés legítimo como título habilitante para el tratamiento de datos personales en la fase de desarrollo de un modelo de IA; la misma cuestión que la anterior también en la fase de despliegue y cuáles son las consecuencias de un tratamiento ilícito de datos personales en las fases de desarrollo y despliegue.

El dictamen está dirigido a las autoridades europeas de protección de datos y plantea cuestiones trascendentales que requerirán de aclaraciones y futuras directrices que permitan asegurar la necesaria certidumbre jurídica para todas las partes involucradas, incluyendo a los responsables, corresponsables y encargados del tratamiento que tratan los datos personales durante las fases de desarrollo y despliegue de modelos de IA, así como a los interesados de quienes se tratan datos personales.

Aunque el CEPD responde a las cuestiones que le planteó la Autoridad Irlandesa de Protección de Datos, deja en manos de las autoridades europeas de protección de datos evaluar, caso por caso, cuándo considerar si un modelo de IA es anónimo. Esta cuestión requeriría futuros pronunciamientos por el CEPD ya que, por una parte, podrían darse criterios dispares de las autoridades de protección de datos y, por otra parte, la evolución y uso de las tecnologías de IA requerirán revisar y, en su caso, actualizar los pronunciamientos que se hacen ahora.

Vinculado a lo anterior, qué es anónimo, con las implicaciones que tiene dicho concepto, requerirá un profundo análisis por las autoridades competentes con la finalidad de lograr un consenso sobre dicho concepto y poder tener un mejor criterio sobre qué se entiende por la probabilidad de la extracción directa (incluyendo la probabilística) de datos personales de interesados de quienes se utilizaron datos personales para el desarrollo del modelo de IA, y de obtener, de manera intencionada o no, datos personales a partir de consultas.

Otra cuestión relevante es la relativa al interés legítimo como título habilitante para el tratamiento de datos personales. Sobre los títulos habilitantes para el tratamiento de datos personales, el CEPD aprovecha para recordar que no hay ninguna relación de jerarquía y recuerda la prueba de tres pasos que se debe llevar a cabo para evaluar la posibilidad de recurrir al interés legítimo por los responsables del tratamiento. Dejando a un lado la descripción de los pasos a seguir, lo importante es la coherencia entre las autoridades europeas de protección de datos al recurrir a este título habilitante, de manera que se evite el riesgo de posiciones excesivamente restrictivas o, en el otro extremo, laxas.

Y también será necesario recordar los mecanismos de cooperación y coherencia previstos en el RGPD cuando se evalúen posibles incumplimientos de la normativa sobre protección de datos en el desarrollo y despliegue de modelos de IA por las autoridades de protección de datos.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_