_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Inteligencia artificial: gobernanza, ética y gestión de riesgos

Ignorar el nuevo reglamento europeo no solo puede resultar en sanciones, sino también en la pérdida de confianza por parte de los clientes y el público en general

Concepto de IA (Inteligencia Artificial). Red de comunicación.
Concepto de IA (Inteligencia Artificial). Red de comunicación.metamorworks (Getty Images/iStockphoto)

El pasado 12 de julio se publicaba en el Diario Oficial de la Unión Europea (DOUE) el Reglamento de Inteligencia Artificial (IA). Muchos retos que conllevan una gestión eficaz de riesgos y una operativa evaluación de impactos. La IA, gusta y asusta. Es un hecho. Se quiere mucho, pero también se duda bastante. Toda evolución tecnológica y social conlleva un proceso de asimilación progresiva. Es ley de vida.

La gestión eficaz de riesgos acelerará y afianzará este proceso. Dos grandes riesgos/retos están protagonizando la gestión empresarial durante este año 2024: seguridad de la información (Directiva NIS-2) y la inteligencia artificial. La IA posibilita la toma de decisiones basadas en datos. Pero, ¿qué sucede cuando los datos contienen datos privados y/o sesgados?

Es por ello necesario que las empresas pongan en marcha una serie de prácticas al diseñar e implementar sistemas de IA. Esto incluye la evaluación de riesgos, la creación de mecanismos de supervisión y la garantía de la calidad de los datos utilizados. En caso contrario, las empresas se arriesgan a sanciones significativas y pérdida de reputación.

Por ello, se establece una forma estructurada de gestionar los riesgos y oportunidades asociados con la IA a través de la ISO/IEC 42001. Así se establece un marco certificable de sistemas de gestión de la IA que permitirá a las organizaciones garantizar que se desarrollan y utilizan de forma responsable, transparente y responsable.

Las empresas que utilicen IA deberán asegurarse de que sus sistemas sean además transparentes y auditables. Esto no solo implica cumplir con la normativa, sino también ganar la confianza de los consumidores. En un entorno donde la privacidad y la seguridad de los datos son prioritarias, ¿cómo pueden las empresas garantizar que sus soluciones de IA sean éticas y responsables?

El nuevo reglamento publicado el pasado 12 de julio establece una jerarquía de riesgos en función del uso de la IA. Riesgo mínimo o sin riesgo: los sistemas de IA considerados de riesgo mínimo no tienen obligaciones jurídicas adicionales y no tienen restricciones. Riesgo limitado: estos sistemas requieren cumplir con ciertas obligaciones, por ejemplo, de transparencia e información, pero no están sujetos a una regulación exhaustiva. Es el caso de los bots. Alto riesgo: estos sistemas están sujetos al cumplimiento de requisitos más estrictos y a una evaluación previa. Por ejemplo, los sistemas de IA que pueden afectar la salud, seguridad o derechos fundamentales. Esto incluye sistemas de identificación biométrica o selección de personal. Riesgo inadmisible: sistemas que están prohibidos o limitados, como por ejemplo los de puntuación o valoración social.

Nos centraremos en el sistema de gestión de riesgos en caso de que este sea alto. En primer lugar, debe consistir en un proceso iterativo continuo que sea planificado y ejecutado durante todo el ciclo de vida del sistema de IA de alto riesgo. Dicho proceso debe tener por objeto detectar y mitigar los peligros pertinentes de los sistemas de IA para la salud, la seguridad y los derechos fundamentales.

Ignorar esta regulación no solo puede resultar en sanciones, sino también en la pérdida de confianza por parte de los clientes y el público en general. ¿Puede una empresa moderna permitirse ese lujo en un mercado tan competitivo? Este proceso debe garantizar que el proveedor determine los riesgos o efectos negativos y aplique medidas de mitigación de los riesgos conocidos y razonablemente previsibles de los sistemas de IA.

Al determinar el uso indebido razonablemente previsible de los sistemas de IA de alto riesgo, el proveedor debe tener en cuenta los usos que, aunque no estén directamente cubiertos por la finalidad prevista ni establecidos en las instrucciones, cabe esperar razonablemente que se deriven de un comportamiento humano fácilmente previsible.

Los datos de alta calidad y el acceso a los mismos desempeñan un papel esencial a la hora de proporcionar una estructura y garantizar el funcionamiento de muchos sistemas de IA, en especial cuando se emplean técnicas que implican el entrenamiento de modelos.

Por ello, las empresas deben identificar a cuál de estas categorías pertenecen sus aplicaciones de IA, definiendo un plan de mitigación de riesgos y actuar en consecuencia, Por ejemplo, en el caso de los sistemas de inteligencia artificial utilizados en contextos críticos como la toma de decisiones sobre las personas, conllevan riesgos éticos significativos. Es por ello por lo que es necesario garantizar la transparencia, la seguridad y la responsabilidad.

Está garantía hará que las empresas puedan diferenciarse en el mercado y construir una ventaja competitiva notoria y cuantitativa. En un mundo donde la IA continuará desempeñando un papel cada vez más importante, es esencial que las compañías actúen con responsabilidad y visión. La adopción del AI Act puede parecer una tarea ardua, pero es un paso necesario hacia un futuro donde la tecnología y la ética coexisten y coexistirán en armonía.

Apliquemos, por lo tanto, las tres claves de toda gestión eficaz y ejemplar. Las tres P: personas (seamos equipo; seamos melé); proyecto ( binomio Industria-nación) y procedimientos (automatización inteligente de procesos, donde asume un posicionamiento estratégico la IA).

En definitiva, talento, gestión y valentía. Un tridente siempre vencedor, siempre productivo.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
_