_
_
_
_
En colaboración conLa Ley
Inteligencia Artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La propuesta de reglamento europeo sobre inteligencia artificial para mitigar los riesgos de ChatGPT

Reconoce expresamente la posibilidad de que el modelo fundacional se encuentre integrado en un sistema de alto riesgo

Una captura de la aplicación de inteligencia artificial ChatGPT.
Una captura de la aplicación de inteligencia artificial ChatGPT. Florence LO (REUTERS)

El propósito de situar a la Unión Europea como líder mundial en la defensa y garantía de los derechos fundamentales e intereses públicos ante la aparición de las nuevas tecnologías de inteligencia artificial se acercaba a su culminación en abril de 2021 con la aprobación de la conocida como Propuesta de Reglamento en materia de inteligencia artificial, dando un paso más este miércoles, 14 de junio.

Todo ello no es más que el resultado del pulso entre el desarrollo tecnológico y su regulación, una carrera que la tecnología suele ganar, a pesar de los evidentes esfuerzos de los legisladores por marcar el ritmo. ChatGPT no ha sido una excepción.

La propuesta ha establecido tres categorías distintas de sistemas de IA, caracterizando cada una en función de su nivel de riesgo: inaceptable, alto y bajo o mínimo. Esta última clasificación no contiene normas vinculantes, sino que crea un marco para la elaboración de códigos de conducta voluntarios.

La primera categoría prohíbe la IA cuyo uso se considere inaceptable por ser contrario a los valores de la Unión, por ejemplo, porque violan derechos fundamentales. Un supuesto sería aquel en el que la IA es utilizada para manipular a las personas mediante técnicas subliminales que trasciendan su consciencia.

La segunda categoría, de sistemas de alto riesgo, implica una problemática inherente a la IA: ¿Cómo regular una tecnología cuyo funcionamiento defectuoso puede dar lugar a la vulneración de nuestros derechos fundamentales, teniendo en cuenta, además, su naturaleza autónoma? Y, aún antes, ¿en qué situaciones puede darse tal vulneración, cuando apenas tenemos precedentes en los que basarnos? La respuesta está en el sexto artículo de la propuesta.

Vinculado con el segundo apartado de este artículo, el Anexo III de la propuesta enumera una serie de supuestos en los que la utilización del sistema de IA vendría a considerarse de alto riesgo: gestión y funcionamiento de infraestructuras esenciales; educación y formación profesional; empleo, gestión de los trabajadores, etcétera.

Además de estos casos, para acometer el dilema planteado, la propuesta aprovecha el ya desarrollado marco regulatorio de control del mercado por parte de las autoridades. En concreto, echa mano de conceptos ya conocidos como el marcado CE (evaluaciones de conformidad o control ex ante) y con la vigilancia del mercado y la conformidad de los productos (control ex post).

Por ello, se considerará de “alto riesgo” todo aquel sistema de IA que sea un producto (o forme parte del mismo como componente de seguridad), que deba someterse a una evaluación de conformidad para su marcado CE.

Sin embargo, la aparición de ChatGPT ha evidenciado que el proyecto legislativo aún se encuentra en pañales, obligando a la Comisión de Mercado Interior y Protección del Consumidor (IMCO) a elaborar un borrador (publicado el pasado 5 de mayo) con enmiendas a la propuesta aprobada este miércoles, 14 de junio, por el Parlamento Europeo, que se integrarán en la postura definitiva.

La realidad es que los sistemas de IA que han penetrado recientemente en el mercado encontraban difícil encaje en la propuesta. Estamos hablando de programas como ChatGPT, Midjourney o DALL-E, que generan textos o imágenes de acuerdo con lo ordenado por el usuario; de ahí su nombre: “Inteligencia Artificial Generativa”.

Como es evidente, estas IA no encuentran cabida en la categoría de sistemas de riesgo inaceptable, y difícilmente encontrarán hueco en la clasificación de “riesgo alto”, aunque tampoco parece razonable dejarlas huérfanas de regulación.

La única manera de encajar a ChatGPT, o un sistema equivalente, en la propuesta es estando a lo señalado en su artículo 6. Por ejemplo, si se utilizase ChatGPT para “determinar el acceso o la asignación de personas físicas a los centros de educación y formación profesional” (parágrafo 3.a del Anexo III de la Propuesta), deberá considerarse consecuentemente un sistema de “alto riesgo”. Sería en ese caso, cuando el operador deba someter el sistema a controles previos de conformidad específicos y asegurarse de que cumple con la normativa aplicable, una vez ya está en funcionamiento.

Para evitar que ChatGPT quede postergado a una regulación tan limitada y condicionada a su uso en determinados productos, la enmienda de mayo incluye en la propuesta una nueva subcategoría: la del modelo fundacional. Aquí entrarían los sistemas de IA con un propósito o finalidad general.

La enmienda reconoce expresamente la posibilidad de que el modelo fundacional se encuentre integrado en un sistema de alto riesgo. En segundo lugar, establece una serie de obligaciones para los proveedores de los modelos fundacionales, principalmente de transparencia, como revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenido ilegal o publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

En definitiva, la llegada de la inteligencia artificial generativa —entre otras, ChatGPT— es un imprevisto más al que el legislador europeo, con mayor o menor acierto, está teniendo que adaptarse con enmiendas como la comentada.

Tomás Villatoro González, socio del área de Mediación y Arbitraje de Ius+Aequitas, y Gabriel Camblor Echanove, del área de ADR de Ius+Aequitas

Más información

Archivado En

_
_