La primera ley europea sobre inteligencia artificial se amplía para incluir a ChatGPT y entra en su recta final
El Parlamento Europeo aprueba la regulación modificando el borrador que elaboró la Comisión Europea para aumentar el control sobre la IA generativa y prohibir los sistemas de vigilancia biométricos
La primera ley europea sobre inteligencia artificial entra en la recta final para ser aprobada por las autoridades comunitarias, previsiblemente, a finales de este año. Este miércoles, el Parlamento Europeo ha dado luz verde a esta legislación con 499 votos a favor, 28 en contra y 93 abstenciones. Ahora, deberá pasar por el Consejo Europeo para atender las diferentes consideraciones de los países miembro. El documento aprobado por la cámara es una versión más dura de la propuesta inicial que esbozó la Comisión Europea en 2021 e incluye bajo vigilancia a los sistemas de IA generativa como ChatGPT. Además, manteniendo la clasificación de distintos niveles de peligro en los usos de esta tecnología que ya incluía la propuesta inicial, los europarlamentarios han impulsado una prohibición adicional sobre el uso de la IA para sistemas de vigilancia biométrica.
La norma distingue principalmente tres niveles de riesgo. Según especificaba el borrador de la Comisión, de un lado estarían las IAs que por cuyo uso no representan una gran amenaza para los ciudadanos. En este grupo, los responsables de la IA estarían sometidos a unas obligaciones generales de transparencia.
En segundo lugar, están las IAs de riesgo alto para los derechos fundamentales o para la seguridad, entrando en este grupo, por ejemplo, las asociadas con la conducción autónoma o los sistemas que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona. También se cataloga de alto riesgo los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios. Estos sistemas estarán sometidos a una mayor vigilancia que garantice la seguridad e integridad en su uso.
En un tercer grupo, se encuentran las IAs de riesgo inaceptable, que pasarán a estar prohibidas en el territorio de la Unión Europea una vez la norma entre en vigor. Es en esta última categoría donde ahora se ha incluido oficialmente a los sistemas biométricos de vigilancia.
“Los sistemas de inteligencia artificial con un nivel inaceptable de riesgo para la seguridad ciudadana estarán prohibidos, así como los que tengan potencial de impulsar la creación de una escala de comportamiento de buen ciudadano. El Parlamento ha expandido la lista de usos prohibidos a aquellos intrusivos y discriminatorios, como por ejemplo, los sistemas de identificación biométrica en tiempo real, identificación biométrica en diferido si no media una orden judicial, bases de datos biométricas que clasifiquen basándose en características sensibles como el género, la raza, la religión o la orientación políticas”, detalla el Parlamento Europeo en el comunicado de prensa oficial. Los parlamentarios también han incluido en la lista de prohibiciones el uso de sistemas de seguridad predictivos o los de reconocimiento de emociones.
Así mismo, el Parlamento ha incluido cláusulas para establecer una vigilancia sobre las IAs de uso general o generativas como ChatGPT, actualizando así la propuesta regulatoria con la tecnología más en auge en estos momentos. “Los proveedores deberán identificar y mitigar los potenciales riesgos (para la salud, la seguridad, los derechos fundamentales, el entorno, la democracia o el Estado de derecho) y registrar sus modelos en la base de datos de la Unión antes de lanzarlos en el mercado comunitario. Los modelos de IA generativa como ChatGPT tendrán que cumplir con requisitos de transparencia (avisando de que el contenido fue generado por IA, además de ayudar a distinguir las imágenes deep fake de las reales) y asegurar que cuentan con salvaguardas contra la generación de contenido ilegal. Información detallada sobre los datos con copyright empleados para el entrenamiento de la IA se deberán hacer públicos”, escribe el Parlamento Europeo.
Brando Benifei, cointegrante del comité del Parlamento que estudia esta normativa, ha sostenido que mientras las propias grandes tecnológicas dan la voz de alarma sobre el peligro de sus propias creaciones, Europa ha dado un paso adelante ahora que la propuesta concreta que servirá de respuesta a la IA empieza a asentarse. “Queremos aprovechar el impacto positivo que tendrá la IA en la creatividad y la productividad, pero a la vez queremos combatir para defender nuestra posición ante el Consejo Europeo y contrarrestar los peligros que esta tecnología puede llegar a representar para nuestras democracias y libertades”, ha afirmado.
En declaraciones a Reuters, un portavoz de Microsoft valoró positivamente la propuesta de normativa. “Creemos que la IA requiere de la implementación de guardarraíles legislativos, coordinación y esfuerzos a nivel internacional, así como acciones voluntarias impulsadas por las propias compañías que desarrollen o utilicen la IA”, ha comentado al respecto.
En caso de que las negociaciones entre Comisión, Parlamento y Consejo concluyesen finalmente este año, la norma no se empezaría a aplicar hasta 2026 -aunque la intención es, según refiere EFE, la de poder reducir los plazos- por lo que Bruselas ha propuesto además un pacto entre las grandes tecnológicas para proceder a etiquetar de forma inmediata el contenido falso que se genere con inteligencia artificial.
Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días