_
_
_
_
En colaboración conLa Ley

Las empresas se ponen las pilas para prevenir los riesgos del uso de la IA por sus empleados

Cada vez es más habitual emplear herramientas de IA en el trabajo y, por ello, los expertos recomiendan elaborar políticas sobre su uso en el ámbito laboral

Seen from behind modern woman working on new ai program
CentralITAlliance (Getty Images)

El uso de herramientas de inteligencia artificial (IA) en todos los ámbitos es cada vez más habitual, también en el laboral. De hecho, el 84% de los empleados españoles reconoce haber trabajado alguna vez con IA o utilizarla activamente, según el I Barómetro de IA publicado por la consultora EY el pasado mes de junio.

Esta encuesta revela, además, que España se sitúa entre los cinco primeros países europeos en términos de libertad en el uso de la inteligencia artificial en el entorno laboral, con un 63% de sus profesionales utilizando la IA en sus tareas diarias. Con estas cifras, no es de extrañar que una consulta recurrente de las empresas a los bufetes sea cómo gestionar el uso de la inteligencia artificial por sus plantillas.

Tal y como destaca David de Falguera, director de IA de EY Abogados, actualmente no existe una normativa específica que exija a las empresas elaborar políticas internas que regulen el uso de la IA por parte de sus empleados. Sin embargo, el experto recomienda desarrollarlas para establecer medidas organizativas internas que permitan garantizar un cumplimiento efectivo de las obligaciones legales aplicables, así como gestionar y mitigar los riesgos asociados al uso de esta tecnología.

Y es que son muchos los peligros asociados al uso de la IA generativa en el trabajo. Para Fernando Ruiz Linaza, socio de derecho laboral de Deloitte Legal, los principales son: la violación de los derechos de autor o de propiedad intelectual de la empresa o de terceros; la difusión de información falsa, manipulada o sesgada, al generar contenido que no refleje la realidad; el daño a la reputación, la confianza o la credibilidad de la mercantil; y la vulneración de la privacidad o la seguridad.

Es más, a pesar de que las empresas no estén obligadas a contar con una política interna de uso de la IA, Miguel Pastur, socio de Laboral de Bird & Bird, señala que el Reglamento de Inteligencia Artificial (RIA), publicado el pasado 12 de julio, sí introduce aspectos que generan determinados compromisos para las compañías en este asunto. “El RIA introduce por primera vez un mandato para que los empresarios que desplieguen sistemas de IA adopten medidas de formación que garanticen que los trabajadores cuenten con un nivel de conocimiento suficiente en la materia”, expone el abogado.

Sistemas de alto riesgo

Otra de las imposiciones del RIA para las empresas, apunta Rodrigo González, socio de derecho digital de Deloitte Legal, es implementar un procedimiento de gestión de riesgos que incluya la interacción de los empleados con herramientas de IA (por ejemplo, respecto al uso de información confidencial o protección de datos), cuando se usen sistemas de alto riesgo.

En el contexto laboral, los sistemas de IA de alto riesgo serían, detalla Alejandro Pacios, asociado de laboral de Bird & Bird, “aquellos destinados a la contratación o selección de personal (que sirvan para publicar anuncios de empleo, analizar y filtrar solicitudes y evaluar a los candidatos), o que puedan tomar decisiones que afecten a las condiciones laborales, a los ascensos, a los despidos y a la evaluación del desempeño de los trabajadores”.

Asimismo, el reglamento europeo prohíbe los sistemas de IA de riesgo inaceptable, que en el ámbito laboral serán aquellos que se utilicen para inferir las emociones, o los biométricos que permitan clasificar individualmente a las personas para deducir su raza, opiniones políticas, afiliación sindical, convicciones religiosas u orientación sexual.

Sanciones

La falta de adopción de políticas de IA para empleados no conlleva sanción ya que no hay una obligación legal al respecto. Sin embargo, advierte Maria Gili, abogada AI & Digital Law en EY Abogados, “las empresas pueden enfrentarse a consecuencias legales indirectas si el uso indebido de la IA por parte de sus empleados supone incumplimientos normativos o daños a terceros, como infracciones en materia de propiedad intelectual o por efectos discriminatorios”.

De manera que, implantar una política sobre el uso de la IA en la empresa es una forma de cubrirse frente a la posibilidad de que los empleados cometan infracciones que sí se sancionan, como aquellas derivadas de incumplimientos del reglamento europeo de inteligencia artificial. El RIA tiene un régimen de sanciones propio con multas fijas y otras que varían en función de la facturación de la compañía. En este sentido, precisa Miguel Pastur, hay que tener en cuenta que el RIA no será aplicable hasta marzo de 2026, aunque con entradas en vigor diferenciadas para las prácticas de IA prohibidas, en septiembre de 2024, o para las obligaciones respecto al despliegue de sistemas de alto riesgo, en marzo de 2027.

Por otra parte, añade Fernando Ruiz Linaza, si una empresa tiene una política sobre el uso de la IA, su incumplimiento por parte de los empleados puede acarrear sanciones disciplinarias ya que sería una infracción de las instrucciones internas.

Recomendaciones para el uso responsable de la IA en la empresa

Claridad. Informar a los trabajadores de una manera clara y accesible sobre cómo se utilizan los sistemas de IA en la empresa, qué datos se procesarán y recogerán y qué impacto tendrán las decisiones automatizadas para sus derechos y oportunidades laborales.

Limitaciones y requisitos de fiabilidad. Establecer los límites éticos y legales que se deben respetar: los criterios de equidad, diversidad e inclusión que se deben aplicar para evitar o reducir los sesgos y la discriminación que puedan derivarse del uso de la IA; las normas de protección de datos y privacidad que se deben observar; y los requisitos técnicos y de calidad que se deben cumplir para garantizar la fiabilidad y seguridad.

Formación y supervisión. Incluir canales de comunicación interna que permitan elevar dudas o reportar el uso o desarrollo de nuevos sistemas de IA. También implementar mecanismos de supervisión y auditoría para los sistemas de IA en uso o que se pretendan desarrollar, así como promover programas de formación continua para los empleados sobre las prácticas éticas y seguras en IA.

Derechos, obligaciones y responsabilidad. Fijar los derechos y obligaciones de los empleados que usan la IA y asignar las responsabilidades y sanciones en caso de que su uso cause algún daño o perjuicio.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_