_
_
_
_
Tecnología

España, campo de pruebas europeo para la inteligencia artificial

El Gobierno sopesa lanzar una prueba piloto para poner en práctica la nueva norma de la UE. También crea un Observatorio del impacto social de los algoritmos

Cecilia Castelló Llantada

España quiere ser pionera en Europa en la regulación de la inteligencia artificial. No solo en la aprobación de leyes que regulen este ámbito, sino también en su aplicación práctica. El Gobierno español se ha ofrecido a la Comisión Europea para ser el país donde se hagan pruebas sobre el próximo Reglamento sobre el marco jurídico aplicable a los sistemas de Inteligencia Artificial, que la Unión Europea presentó el pasado mes de abril y que aún está en trámite para su aprobación, prevista para dentro de dos años.

La Comisión Europea pretende con esta normativa fijar los estándares internacionales en el sector de la inteligencia artificial. Aunque el potencial de esta tecnología en ámbitos como el de la salud, la energía, el transporte o la educación es enorme, también lo son sus riesgos. Ante la rapidez de desarrollo, y teniendo como marco los valores y derechos fundamentales de la UE, la propuesta de la Comisión define sistemas de la inteligencia artificial y garantías de transparencia. Así, fija cuatro niveles de riesgo, desde el denominado riesgo inadmisible hasta el riesgo mínimo, con dos intermedios (alto y limitado).

España ha propuesto a la Comisión convertirse en una especie de banco de pruebas para el Reglamento, según fuentes de la Secretaría de Estado de Digitalización e Inteligencia Artificial dependiente del ministerio de Asuntos Económicos y Transformación Digital. De esta forma, la norma europea se empezaría a aplicar con ciertas empresas o participantes de la industria antes de que sea de obligado cumplimiento, como prueba piloto. El sector podría probar en España, antes de su aprobación definitiva, las normas que en el futuro regirán este sector.

Los participantes en el programa podrán expresar problemas de aplicación, dificultades o formas de agilizar el cumplimiento. Aunque la propuesta no es formal, el sector siempre se ha mostrado colaborativo con este tipos de iniciativas, aseguran fuentes de a Secretaría de Estado. De momento, el plan se encuentra en fase de negociación con el Centro Común de Investigación (JRC) de la Comisión.

La normativa europea recoge que se deben promover marcos en favor de la innovación, “tales como espacios controlados de pruebas” y medidas concretas que ayuden “a los usuarios y proveedores de sistemas de IA de alto riesgo a pequeña escala a cumplir las nuevas normas”.

Modelo de ‘sandbox’

También en la Carta de Derechos Digitales de España, una guía o marco sobre las políticas en materia digital, se contempla la posibilidad de crear “espacios de pruebas controladas para desarrollar nuevos modelos de negocio, aplicaciones, procesos o productos basados en la tecnología”, como el modelo de sandbox en el ámbito financiero.

El proyecto piloto para aplicar el Reglamento en España forma parte de una batería de medidas impulsadas desde la Secretaría de Estado que pretende fijar un marco normativo y jurídico para la inteligencia artificial, antes de que el mercado registre un desarrollo explosivo que pudiera llevar a situaciones que vulneren los derechos y libertades fundamentales. Además, se busca establecer para los datos unos estándares comunes, de manera que se puedan intercambiar datos de unos sectores a otros. “Los algoritmos no son sectoriales pero sus impactos sí”, señalan.

Entre otras medidas, el Gobierno tiene previsto poner en marcha un Observatorio del impacto social de los algoritmos (Obisal), un espacio que pretende evaluar los efectos de esta tecnología en múltiples aspectos de la economía y la sociedad. De momento, el proyecto se encuentra aún en una fase inicial de definición, como la identificación de actores y expertos en cada ámbito que se van a analizar.

El objetivo del Observatorio será emitir con “frecuencia” informes con objetivos, grado de cumplimiento y conclusiones, de manera que se pueda ir adaptando las políticas y las guías a esos datos. Se propone abrir un debate social sobre los límites y riesgos de los algoritmos, en el que participe el mayor número posible de agentes de la sociedad.

Un modelo de auditorías para el diseño de los algoritmos

 

Control. Dentro de las propuestas europeas más tangibles para establecer herramientas de control de la inteligencia artificial se encuentra la utilización de sistemas de autoría para supervisar ex ante, qué tipo de datos alimentan los algoritmos, cómo se construyen esos sistemas y qué criterios rigen las tomas de decisiones.

Trazabilidad. Precisamente la propuesta de Reglamento sobre Inteligencia Artificial de la Unión Europea recoge que las administraciones públicas deberán “facilitar que se realicen auditorías de los sistemas de IA” con nuevos requisitos en materia de documentación, trazabilidad y transparencia.

Carta. También la Carta de Derechos Digitales que aprobó el Gobierno recientemente se abre la puerta a la implantación de esas auditorías sobre los sistemas de algoritmo. En concreto, el texto señala que en el desarrollo y ciclo de vida de los sistemas de inteligencia artificial “se establecerán condiciones de transparencia, auditabilidad, explicabilidad, trazabilidad, supervisión humana y gobernanza”. En todo caso, añade, “la información facilitada deberá ser accesible y comprensible.”

Independencia. El modelo de quién debe llevar a cabo esas auditorías no está aún claro, pero todo apunta a que se propondrá un organismo independiente.

 

Sobre la firma

Cecilia Castelló Llantada
Es redactora jefa de la mesa digital en Cinco Días, periódico donde trabaja desde el año 2000. Licenciada en Economía y Periodismo, ha escrito en la sección de Mercados, en Empresas y, en los últimos años, ha formado parte del equipo que ha impulsado la transformación digital del diario económico decano de España

Archivado En

_
_