La UE establece líneas rojas a la inteligencia artificial: ¿Por qué, cuáles son y a quién afectan?
La Comisión Europea anunció ayer una regulación estricta de la inteligencia artificial. Las autoridades comunitarias han decidido marcar unas líneas rojas que no quieren que se traspasen a la hora de utilizar esta tecnología, considerada como uno de los principales avances científicos y un elemento esencial de la nueva economía del dato. “En inteligencia artificial, la confianza es imprescindible, no un lujo”, dijo la vicepresidenta Margrethe Vestager. Pero qué propuestas recoge la nueva normativa, qué riesgos aborda, a quién se aplicará, qué efectos puede tener… CincoDías recoge aquí las claves para entender cómo planea la UE encabezar el desarrollo de una regulación global que aún está por ver si se sale adelante y cuándo se hará.
¿Qué objetivos persigue la UE con esta normativa? ¿Y por qué ahora?
La Comisión Europea aspira a fijar los estándares internacionales en el sector de la inteligencia artificial, como ya hizo en materia de protección de datos, y lograr una posición de liderazgo mundial. Reconoce que esta tecnología tiene un enorme potencial en ámbitos tan diversos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, pero también que entraña riesgos. Como ejemplo pone la opacidad de muchos algoritmos utilizados en los ámbitos de la contratación, la asistencia sanitaria o la aplicación de la ley que pueden amenazar la seguridad de las personas y los derechos fundamentales. Por eso, y ante el rápido desarrollo de la IA, quieren establecer las reglas que fomenten una inteligencia artificial “centrada en el ser humano, sostenible, segura, inclusiva y fiable”, que ayude a reforzar la adopción, la inversión y la innovación en esta materia en toda la UE.
¿A quién se aplicará? ¿Me afectará a mí?
El reglamento, aun debe ser negociado y aprobado tanto por los Gobiernos de la UE como por la Eurocámara, lo que puede llevar más de un año. Pero, una vez que se apruebe, las nuevas normas se aplicarán de forma directa en todos los Estados miembros y se aplicarán a todos los actores públicos y privados, tanto dentro como fuera de la UE, cuando los sistemas de inteligencia artificial estén ubicados en la UE o su utilización afecte a los ciudadanos que residen en los 27 países. Así, podrá afectar tanto a los proveedores (por ejemplo, una empresa que desarrolle una herramienta de evaluación de resúmenes curriculares) como a los usuarios de sistemas de IA de alto riesgo (por ejemplo, un banco que compre esa herramienta). La Comisión dejó claro que la normativa no se aplica a los usos privados no profesionales.
¿Cómo se fija qué se prohíbe y qué no?
Las nuevas reglas se han elaborado basándose en el nivel de riesgo y el reglamento establece cuatro categorías: “riesgo inadmisible”, “alto riesgo”, “riesgo limitado” y “riesgo mínimo. Los sistemas de IA incluidos en la primera serán prohibidos, y aquí aparecen todos los sistemas que sirven para manipular el comportamiento humano (por ejemplo, juguetes que utilicen asistencia vocal para incitar comportamientos peligrosos en los menores) y los sistemas que permitan la “puntuación social” por parte de los Gobiernos, como los que utiliza China para controlar a sus ciudadanos. Los de “alto riesgo” estarán sometidos a una serie de obligaciones muy estrictas antes de que puedan comercializarse y abarcan las tecnologías de IA empleadas en infraestructuras críticas como el transporte (que pueden poner en peligro la vida), sistemas utilizados para filtrar los curriculums de candidatos en procedimientos de contratación, que pueden discriminar, o sistemas de calificación crediticia que pueden impedir que una persona obtenga un préstamo.
¿Qué se les exigirá a esos sistemas para que puedan salir al mercado y usarse?
Antes de ser comercializados deberán seguir procedimientos adecuados de evaluación y mitigación de riesgos, tener garantías de alta calidad de los datos empleados, tener un registro de la actividad para garantizar la trazabilidad de los resultados, aportar documentación detallada sobre el sistema y su finalidad, proporcionar información clara y adecuada a los usuarios y contar medidas apropiadas de supervisión humana.
¿Y qué ocurre con el reconocimiento facial en espacios públicos? ¿Se podrá hacer vigilancia masiva biométrica en la calle?
El reglamento prohíbe el uso en espacios públicos de sistemas de inteligencia artificial que permitan la identificación biométrica remota por parte de las autoridades policiales a través del reconocimiento facial. Pero establece excepciones. Se podrá utilizar cuando sea necesario para buscar a un menor desaparecido, para prevenir una amenaza terrorista, o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave. En cualquier caso, su uso estará sujeto a la autorización de un órgano judicial u otro órgano independiente y se establecerán límites de duración, alcance geográfico y bases de datos exploradas.
¿El reglamento afecta a los bots (los robots conversacionales)?
Sí. Estos están incluidos en la categoría de sistemas de “riesgo limitado”, a los que se aplicará obligaciones específicas de transparencia. Así, quienes utilicen este tipo de inteligencia artificial tendrán que garantizar que los usuarios son conscientes de están interactuando con una máquina para poder tomar una decisión informada de continuar o no.
¿Y qué pasa con los filtros de correo basura que utilizan inteligencia artificial?
Para ellos y para otras aplicaciones como los videojuegos basados en inteligencia artificial el reglamento no establece ninguna medida, pues los considera de “riesgo mínimo o nulo” para los derechos o seguridad de los ciudadanos. Según la Comisión Europea, la inmensa mayoría de los sistemas de IA entran en esta categoría.
¿Se penalizará a quien se salte la normativa? ¿Y cómo se garantizará su cumplimiento?
Sí, el reglamento contempla sanciones para las empresas que lo incumplan de hasta el 6% de su facturación anual global o 30 millones de euros, según sea la cifra más alta. Según la propuesta, los Estados tendrán un papel clave en la aplicación y cumplimiento de la nueva norma y cada uno deberá designar una o varias autoridades nacionales competentes para supervisar su aplicación y ejecución, y llevar a cabo tareas de vigilancia del mercado. También contemplan la creación del Comité Europeo de Inteligencia Artificial con representantes de cada Estado, la Comisión y el Supervisor Europeo de Protección de Datos para vigilar la aplicación uniforme de las nuevas normas y generar conocimientos especializados.
Ya hay voces que critican la norma ¿Por qué?
El reglamento se enfrenta aún a un largo proceso de aprobación y es más que probable que enfrente críticas y ajustes. La comunidad tecnológica teme que las medidas planteadas sofoquen la innovación, sean muy complicadas de cumplir y eleven sus costes. Además, se cuestiona el modo en que la Comisión ha etiquetado los sistemas en función del riesgo “algo por sí mismo muy vago” y el que se hayan dejado fuera los sistemas de IA utilizados solo para el manejo de armas u otros propósitos militares, lo que pone al margen las armas militares autónomas.