Inteligencia artificial y nuevo anteproyecto de ley: gestión de riesgos legales y operativos
Esta norma pretende potenciar la coexistencia ética entre el algoritmo y los derechos fundamentales del reglamento de IA aprobado el pasado dos de agosto

El pasado martes 11 se aprobó el anteproyecto de ley sobre inteligencia artificial (IA). Esta herramienta tecnológica pudiera hacer crecer nuestro PIB en un 8% en los próximos diez años, el equivalente a 100.000 millones de euros.
La IA gusta y asusta a la vez. Mueve, pero no conmueve aún. El mayor crecimiento industrial es un hecho. Ahora bien, hay que saber crecer. Ética y estrategia. Gobernanza e innovación. Personas y algoritmos. Productividad y competitividad. Todos ellos, binomios y compañeros imprescindibles de un mismo viaje.
Este anteproyecto de ley pretende potenciar (veremos si se termina consiguiendo) la coexistencia ética entre el algoritmo y los derechos fundamentales que pretende el reglamento de IA aprobado el pasado dos de agosto y parcialmente en vigor desde el dos de febrero.
La IA debe caminar de la mano de la gobernanza del dato. Se trata de un parámetro esencial para la eficaz estrategia de crecimiento empresarial de dicho sistema. En España la demanda de datos pasará de 1.589 exabytes (1.000 millones de gigas) en 2024 a 3.028 exabytes en 2028, con un crecimiento anual del 20%.
Este anteproyecto de ley establece como falta grave la no etiquetación (aviso rotulado) de una producción de audio o de vídeo a través de un sistema de IA.
En este sentido, es importante incorporar un matiz de interpretación clave para los diseñadores de sistemas de IA. Los operadores de motores de búsqueda tradicionales permiten a las personas ejercer sus derechos, en particular el derecho de supresión. No suele ser igual en los desarrolladores de IA generativa. En la UE, esto refuerza la necesidad de un análisis específico del cumplimiento del Reglamento General de Protección de Datos (RGPD) y de los nuevos riesgos para los derechos y libertades asociados a la generación de contenido a partir de datos personales.
En resumen, la jurisprudencia relacionada con los motores de búsqueda no puede extrapolarse automáticamente a la IA generativa.
Las organizaciones deben ser conscientes de que no hay excepciones generales ni exenciones para la IA generativa. Si una organización está tratando datos personales, en cualquier contexto, se aplicará toda la normativa de protección de datos. Además, es fundamental que las organizaciones adopten un enfoque de protección de datos desde el diseño y por defecto para garantizar el respeto a los derechos de los interesados.
Estos riesgos asociados a los sistemas de IA tienen un canalizador esencial dentro del ámbito de la gobernanza eficaz: la gestión y la certificación. En un mundo empresarial caracterizado por la incertidumbre y la disrupción tecnológica, la alta dirección debe priorizar la gestión del riesgo y la gobernanza de la inteligencia artificial (IA) para garantizar el crecimiento y competitividad de sus empresas. En este contexto, dos normas internacionales emergen como pilares clave: la ISO 31000 para la gestión de riesgos y la ISO 42001, centrada en los sistemas de gestión de IA.
La norma ISO 31000 proporciona un marco de referencia para la gestión del riesgo en cualquier tipo de organización. Su enfoque permite a los líderes empresariales integrar el análisis de riesgos en la toma de decisiones estratégicas, no con la intención de eliminarlos completamente, sino de aprender a convivir con ellos de manera estructurada y controlada.
Aplicar esta norma no solo ayuda a mitigar amenazas, sino que también identifica oportunidades que pueden generar ventaja competitiva. Desde el punto de vista de la alta dirección, implementar ISO 31000 implica fomentar una cultura organizacional que acepte el riesgo como parte inherente del negocio, asegurando que los riesgos sean evaluados y tratados de manera sistemática y proactiva. Además, permite una mejor comunicación con inversionistas y partes interesadas, al demostrar un enfoque sólido y transparente en la gestión de riesgos.
Por otro lado, la adopción de la inteligencia artificial en las empresas está en auge, pero con ello surgen desafíos en términos de ética, transparencia y seguridad. La ISO 42001, recientemente desarrollada, establece un marco para gestionar de manera efectiva los sistemas de IA, asegurando su alineación con los valores y objetivos organizacionales. Para la alta dirección, esta norma es clave para minimizar riesgos asociados a la IA, como sesgos algorítmicos, falta de comprensibilidad en las decisiones y cumplimiento regulatorio. No se trata de frenar la innovación, sino de aprender a convivir con sus riesgos y establecer políticas claras de uso de IA, garantizando que su aplicación sea ética, confiable y alineada con la estrategia corporativa.
La combinación de ISO 31000 e ISO 42001 ofrece un enfoque robusto para la gestión del riesgo y la gobernanza de la IA. Adoptarlas no solo protege a las empresas frente a amenazas emergentes, sino que también fortalece la confianza de clientes e inversionistas. En un entorno donde la disrupción es la norma, las empresas no pueden aspirar a eliminar los riesgos, sino a aprender a convivir con ellos y gestionarlos con inteligencia. La alta dirección que lidere con visión y responsabilidad será la que marque la diferencia en el futuro empresarial.
En definitiva, gestionar conlleva saber crecer, fruto de una eficaz combinación de personas y proyectos, de derechos personales y retos tecnológicos. La ética en la gobernanza será, siempre, la prioridad. Creer para crecer.