En colaboración conLa Ley

Hacia un uso más ético, transparente y seguro de la inteligencia artificial

La nueva ley es un paso significativo hacia la protección de los derechos fundamentales, la transparencia y la responsabilidad en el ámbito tecnológico

metamorworks (Getty Images/iStockphoto)

Momento histórico en Europa en lo que a la legislación del uso de la inteligencia artificial (IA) se refiere. Coincidiendo con el comienzo de las vacaciones, arranca también el despliegue de la Ley de la Inteligencia Artificial (AI Act) una ley que redefine el panorama de la ciberseguridad y tecnología en la UE.

Para unos la ley es excesivamente restrictiva en el uso de la IA y antepone la regulación sobre la innovación llevando a Europa al uso de una IA más lenta que la del resto del mundo. Para otros en cambio, es clara, concisa y necesaria para abordar el poder de los monopolios tecnológicos. Pero todos coinciden en el punto que la flamante AI Act, no solo establece un marco regulatorio claro para el uso de la inteligencia artificial, sino que es un paso significativo hacia la protección de los derechos fundamentales, la transparencia y la responsabilidad en el ámbito tecnológico.

Para ello, la ley clasifica los sistemas de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Este enfoque basado en el riesgo permite una regulación proporcional y específica, evitando la sobrecarga normativa y garantizando la protección de los derechos fundamentales de los ciudadanos.

Los sistemas de IA considerados de riesgo inaceptable incluyen aplicaciones peligrosas para los derechos y libertades fundamentales, como la vigilancia masiva sin justificación y la manipulación subliminal. Estos sistemas están prohibidos por la AI Act para así proteger a los ciudadanos de posibles abusos y mantener estándares éticos en el uso de la tecnología.

En cuanto a los sistemas de IA de alto riesgo, que tienen un impacto significativo en áreas críticas como la salud, la educación y el empleo, están sujetos a requisitos rigurosos. Estos incluyen la gestión de riesgos, gobernanza de datos, documentación técnica, transparencia y supervisión humana. Además, deben pasar por un proceso de certificación y evaluación para asegurar el cumplimiento con los estándares establecidos.

Los sistemas de IA de riesgo limitado pueden causar algún grado de riesgo para los derechos fundamentales de los individuos pero de manera no significativa. No requieren las medidas estrictas aplicadas a los sistemas de alto riesgo, pero deben cumplir con ciertos requisitos de transparencia y responsabilidad. Por ejemplo, el uso de la IA para marketing personalizado, asistentes virtuales en plataformas educativas o los chatbots de atención al cliente.

Los sistemas de IA de riesgo mínimo son aquellos cuya probabilidad de causar daño es extremadamente baja y no están sujetos a requisitos adicionales más allá de las normativas generales de calidad y seguridad. Los filtros de spam en correo electrónico, los sistemas de recomendación de contenido e incluso herramientas de corrección automática de texto, son sistema de IA que pueden comportar riesgo mínimo.

La AI Act tendrá un impacto significativo en las empresas que deben adaptarse a estos nuevos estándares para garantizar que sus sistemas de IA sean transparentes, responsables y seguros, minimizando cualquier potencial impacto negativo. La ley, por ejemplo, impone restricciones severas para el uso de IA en la identificación biométrica y establece regulaciones para prevenir sesgos y discriminaciones en procesos educativos y de recursos humanos.

La AI Act les exige también que los usuarios sean informados cuando interactúan con sistemas de IA, especialmente en casos de IA generativa y sistemas de toma de decisiones automatizadas. Además, se implementan mecanismos de transparencia y supervisión humana para revisar y corregir decisiones automatizadas si es necesario, proporcionando una capa adicional de confianza y seguridad para los usuarios.

Para cumplir con la AI Act, las empresas deben asegurarse de que sus sistemas de IA cumplan con estándares de seguridad y transparencia mediante auditorías periódicas, aplicación de protocolos robustos para proteger datos y sistemas, y explicando claramente el funcionamiento de los algoritmos y procesos de decisión.

Además, deben proteger los datos cumpliendo con normativas como el Reglamento General de Protección de Datos (GDPR por sus siglas en inglés) y utilizando técnicas de anonimización y cifrado. La AI Act también obliga a una actualización continua de los sistemas, asegurando que estén siempre al día y realizando pruebas continuas de rendimiento y seguridad. Y aquellos que no cumplan podrán recibir severas sanciones por incumplimiento de la AI Act pueden ser significativas, con multas que pueden llegar hasta el 6% del volumen de negocios global anual.

En conclusión, la AI Act establece un marco regulador que asegura un uso ético y seguro de la inteligencia artificial en Europa. Al clasificar los sistemas de IA en diferentes niveles de riesgo y establecer requisitos proporcionados, la ley promueve la innovación tecnológica mientras protege los derechos fundamentales de las personas. Las empresas deberán adaptarse a estos nuevos estándares para garantizar que sus sistemas de IA sean transparentes, responsables y seguros, minimizando impactos negativos sobre los ciudadanos.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Archivado En