En colaboración conLa Ley

IA, productividad y fortalecimiento industrial: creer para crecer

La Comisión Europea anuncia la vinculación de las primeras cien empresas al Pacto de Inteligencia Artificial de la Unión Europea y sus compromisos voluntarios

Concepto de IA (Inteligencia Artificial). Red de comunicación.metamorworks (Getty Images/iStockphoto)

Europa pierde Industria. Somos competitivos, pero no productivos. Europa necesita potenciar su productividad. Es una realidad incuestionable. La competitividad sin productividad es una revolución sin ninguna evolución. No sólo requiere inversión, sino también valentía, talento y planificación.

El Pacto de Inteligencia Artificial (IA) de la Unión Europea apoya los compromisos voluntarios de la industria para comenzar a aplicar los principios de la Ley de IA antes de que entre en vigor, y mejora la colaboración entre la oficina de IA de la Unión Europea y todas las partes interesadas relevantes, incluyendo la industria, la sociedad civil y la academia.

Tres aspectos son comunes en este pacto: estrategia de gobernanza de IA (aplicación de la ISO 42001); promoción de la alfabetización y conciencia sobre la IA entre el personal, garantizando un desarrollo ético y responsable de la IA; mapeo de sistemas de IA de alto riesgo (ISO 31022, Gestión de Riesgos Legales); identificación de los sistemas de IA que se clasifiquen como de alto riesgo bajo la Ley de IA.

Para ello, se establece una forma estructurada de gestionar los riesgos y oportunidades asociados con la IA a través de la ISO/IEC 42001. Así se establece un marco certificable de sistemas de gestión de la IA que permitirá a las organizaciones garantizar que se desarrollan y utilizan de forma responsable, transparente y responsable.

Las empresas que utilicen IA deberán asegurarse de que sus sistemas sean además transparentes y auditables. Esto no solo implica cumplir con la normativa, sino también ganar la confianza de los consumidores.

El nuevo reglamento publicado el pasado 12 de julio establece una jerarquía de riesgos en función del uso de la IA. Riesgo mínimo o sin riesgo: los sistemas de IA considerados de riesgo mínimo no tienen obligaciones jurídicas adicionales y no tienen restricciones. Riesgo limitado: estos sistemas requieren cumplir con ciertas obligaciones, por ejemplo, de transparencia e información, pero no están sujetos a una regulación exhaustiva. Es el caso de los bots. Alto riesgo: estos sistemas están sujetos al cumplimiento de requisitos más estrictos y a una evaluación previa. Por ejemplo, los sistemas de IA que pueden afectar la salud, seguridad o derechos fundamentales. Esto incluye sistemas de identificación biométrica o selección de personal. Riesgo inadmisible: sistemas que están prohibidos o limitados, como por ejemplo los de puntuación o valoración social.

La ley de inteligencia artificial de la UE presenta un desafío para las empresas, ya que requiere integrar y adecuar los riesgos específicos de la IA en los procesos de debida diligencia corporativa existentes y proteger los derechos humanos a lo largo de toda la cadena de suministro y valor.

Pero también ofrece una gran oportunidad para las empresas de posicionamiento en el mercado, estar alineados con el cumplimiento normativo, ganar en reputación y solvencia, atraer talento, socios de negocio y colaboradores.

Despegamos con unas pinceladas acerca del mapeo de los principales riesgos legales y penales asociados con la IA generativa: creación de contenido que infringe la propiedad intelectual de terceros; uso no autorizado de obras protegidas; obtención de patentes para invenciones generadas por IA. Desinformación y Difamación: Generación de información falsa (contenido engañoso) o manipulada. Responsabilidad por contenido ofensivo: Generación de material inapropiado o perjudicial.

Riesgos de protección de datos: uso de datos personales sin consentimiento para entrenar modelos y usos indebidos de datos personales. Discriminación algorítmica: producción de contenido y/o decisiones discriminatorias basadas en género, raza, política, creencias religiosas, etc. Responsabilidades por daños causados por decisiones automatizadas. Uso malintencionado: posibilidad de que la IA generativa sea utilizada para crear deepfakes o fraudes. Falta de transparencia: la opacidad en los procesos de generación puede dificultar la rendición de cuentas y llevar a la responsabilidad por resultados imprevistos. Problemas de ciberseguridad: Vulnerabilidades en sistemas que pueden ser explotadas para actividades delictivas. Riesgos regulatorios y de cumplimiento normativo: por no adhesión a las leyes y regulaciones sobre IA. Multas y sanciones por incumplimientos.

Y aterrizamos, en las claves esenciales de mitigación y controles de los anteriores riesgos: Monitorización de sistemas y del contenido generado supervisando rendimiento, contenido e impacto producido. Asegurando que no infrinja la ley, ni cause daños a terceros. Documentación y registro detallado de las decisiones automatizadas y la lógica detrás de ellas.

Capacitación y concienciación hacia una cultura de cumplimiento dentro de la empresa, entendiendo los riesgos legales asociados y uso ético de la IA. Revisión de las aplicaciones de IA desde una perspectiva ética y de cumplimiento. Crear un sistema seguro para que los empleados reporten incidentes o preocupaciones relacionadas con el uso de IA generativa. Colaboración con asesores legales para asegurar que las prácticas de la empresa se alineen con las regulaciones vigentes. Finalmente, la revisión de proveedores de tecnología.

En definitiva, talento, planificación y valentía. Un tridente siempre vencedor, siempre productivo. Revolución y evolución. Competitividad y Productividad. Creer para crecer.


Archivado En