_
_
_
_
En colaboración conLa Ley
Inteligencia Artificial y trabajo

Las empresas tendrán que negociar el papel de los algoritmos en los ERE

La guía del Ministerio de Trabajo impone al empresario la obligación de pactar con los trabajadores

Getty Images

Hace unas semanas, la vicepresidenta segunda del Gobierno y ministra de Trabajo y Economía Social, Yolanda Díaz, presentó la Guía práctica y herramienta sobre el uso de algoritmos en el ámbito laboral, concebida para diseñar decisiones automatizadas en campos como la selección de candidatos, las condiciones de trabajo o la evaluación del rendimiento de los trabajadores.

Entre los aspectos destacados del documento, llama la atención el uso del algoritmo para determinar las personas afectadas por un despido colectivo. Puesto que la normativa obliga a abrir un periodo de consultas con la representación legal de la plantilla como primer paso del ERE, la comisión de expertos que confeccionó la guía entiende que la negociación del algoritmo que determine, en su caso, los empleados elegidos, deberá incluirse en estas conversaciones.

Las empresas tendrán que prepararse para este reto, si bien se encuentra en una fase incipiente. Así lo expresa Alfredo Aspra, abogado laboralista y socio de Labormatters Abogados: “es fundamental conocer las obligaciones que tienen las empresas de informar a la representación legal de los trabajadores respecto del uso de sistemas de inteligencia artificial”. Para el letrado, es una incógnita “la interpretación judicial de las controversias que se susciten sobre el control de legalidad en determinadas decisiones”, pero cree que “el papel de la negociación colectiva será determinante”.

En este sentido, la información al trabajador es básica. Como señala Ana Belén Muñoz, miembro de la comisión que redactó la guía y profesora del Derecho del Trabajo en la Universidad Carlos III de Madrid, “es importante que desde las instancias públicas se ofrezca a empresas y sindicatos formación sobre el concepto y su materialización matemática, cómo se concretan en programas y cómo interpretar el lenguaje de programación elegido”.

Usos y límites

Parece que la irrupción de estos instrumentos será imparable. Adrián Todolí, profesor de Derecho del Trabajo en la Universidad de Valencia (y miembro de la comisión), indica que “los algoritmos cada vez se usan más para seleccionar y evaluar a trabajadores”. Su utilización, relata, es extensible a la organización y supervisión de los trabajadores, hasta el punto de que sea la inteligencia artificial “la que decida los turnos de los empleados, qué tareas hace cada trabajador o si la calidad prestada por el mismo cumple los estándares”.

Como expresa Jesús Rafael Mercader, catedrático y counsel de Uría Menéndez, “es cuestión de tiempo que estos modelos se expandan a las pequeñas y medianas empresas”. El letrado refiere “desde procesos de selección hasta el ejercicio de facultades de dirección y control, llegando, incluso (no aún en España) a decisiones extintivas”. Mercader destaca las fórmulas de control biométrico de los trabajadores para registrar la jornada. El reconocimiento facial de estas aplicaciones es paradigmático, y los criterios emanados de las Agencias de Protección de Datos ponen de manifiesto su creciente importancia.

Sin embargo, el algoritmo debe respetar ciertos límites. Muñoz recuerda la negociación de un próximo Reglamento de Inteligencia Artificial, que restringirá el llamado reconocimiento de emociones. En relación con este concepto, la Agencia Húngara de Protección de Datos sancionó recientemente a una empresa por usar un software de detección de tales emociones, concebido para aumentar la eficiencia de sus empleados.

Por su parte, Adrián Todolí vaticina retos clave, pues “los algoritmos pueden discriminar incluso más que las personas”, y riesgos específicos (como el hecho de sentirse observado o posibles errores de funcionamiento): “de ahí que la Comisión Europea esté preparando un conjunto de nuevas normas para regular el uso de la inteligencia artificial y, concretamente, en el mundo laboral”.

De momento, ya hay una obligación de transparencia: “las empresas tienen que informar del uso de los algoritmos a los trabajadores, y el incumplimiento puede provocar importantes sanciones en materia de protección de datos o de vulneración de la libertad sindical”, advierte Todolí.

Perspectivas de futuro

 

Información sensible. Los algoritmos pueden utilizarse como instrumentos de detección y control de la conducta del trabajador desleal y de posibles filtraciones de información sensible de la empresa. Para Jesús Rafael Mercader, de Uría Menéndez, “su desarrollo frente a las amenazas internas (insider threat) es una realidad. La inteligencia artificial está empezando a ocupar importantes espacios en relación con la prevención de estos riesgos”. Estas amenazas son especialmente gravosas para el prestigio de cualquier organización.

Retos jurídicos. La profesora Ana Belén Muñoz prevé “nuevas realidades, que experimentarán problemas derivados del uso laboral de los algoritmos” y que precisarán de “una respuesta innovadora, más allá de los derechos de protección de datos, intimidad, igualdad y no discriminación”. Entre otros muchos ejemplos, será necesario regular la responsabilidad por los daños causados por una máquina que adopte una decisión totalmente automatizada que afecte negativamente a la salud, seguridad o bienestar de un trabajador, delimitar cuándo debe prohibirse un sistema de reconocimiento de emociones en el ámbito laboral, o revisar en clave tecnológica el principio de precaución o cautela.

 

Archivado En

_
_