Ir al contenido
En colaboración conLa Ley

La inteligencia artificial en la empresa tiene límites: los derechos no se pueden automatizar

La tecnología no puede transformar, ni mucho menos eliminar, los principios básicos que rigen las relaciones laborales

La inteligencia artificial (IA) ha llegado a nuestras empresas para quedarse. Ya forma parte del día a día en muchos sectores y se utiliza para seleccionar personal, gestionar horarios, controlar el rendimiento o incluso anticipar comportamientos. Pero entre tanta automatización, hay algo que nunca debemos perder de vista: las personas siguen estando en el centro. Y sus derechos también.

La tecnología está transformando la forma en que trabajamos. Pero no puede transformar también —ni mucho menos eliminar— los principios básicos que rigen las relaciones laborales: la dignidad, la intimidad, la igualdad y el derecho a la defensa. Adaptarse al entorno digital es necesario, pero hacerlo sin deshumanizar es imprescindible.

Cada vez son más frecuentes los casos en los que la IA se convierte en una herramienta que, si no se utiliza con garantías, puede vulnerar derechos fundamentales. Un ejemplo claro es el control excesivo de la actividad laboral. Las empresas cuentan hoy con herramientas capaces de registrar cada movimiento del trabajador: qué hace, cuánto tarda, con quién interactúa. Aunque el poder de dirección y control del empleador está reconocido en nuestro ordenamiento, tiene límites. La vigilancia constante puede ser invasiva y desproporcionada.

La Agencia Española de Protección de Datos ya ha advertido sobre estas prácticas. En un dictamen de 2022, consideró excesivo el uso de videovigilancia con reconocimiento facial para medir la productividad. La empresa no informó adecuadamente a la plantilla, y la medida se consideró desproporcionada. No fue un caso aislado, sino un ejemplo de hasta dónde pueden llegar ciertas prácticas cuando no se establecen límites.

Otro riesgo importante es el uso de algoritmos para tomar decisiones en procesos de selección o promoción. Aunque en apariencia estas herramientas puedan parecer objetivas, lo cierto es que están entrenadas con datos humanos. Y si esos datos contienen sesgos, el algoritmo también los reproducirá. Lo que se genera es una discriminación invisible, difícil de detectar y aún más difícil de corregir si no se supervisa activamente.

Otra práctica que empieza a extenderse es el uso de IA para interpretar emociones del personal. Algunas empresas ya aplican tecnologías para analizar expresiones faciales, tono de voz o estilo de escritura. Bajo la apariencia de cuidado emocional, se esconde un control excesivo. Las emociones no son un dato más. Y la dignidad también implica preservar un espacio emocional propio.

En el ámbito de los despidos, la intervención de sistemas automatizados plantea riesgos importantes si no se aplican con garantías. Algunas decisiones se apoyan en datos generados por herramientas de inteligencia artificial, especialmente en lo relativo al rendimiento o al comportamiento del trabajador. Pero cuando esos datos se utilizan de forma automática, sin un análisis humano riguroso y sin contextualización, pueden derivar en decisiones injustas. El uso de tecnología no exime de motivar adecuadamente el despido, permitir la defensa y valorar las circunstancias del caso. Prescindir de estas garantías, aunque exista base digital, puede dar lugar a vulneraciones graves de derechos laborales.

Estas situaciones reflejan una idea clara: el uso de inteligencia artificial en la empresa no puede situarse fuera del marco legal. Las normas europeas son tajantes. Cuando una decisión afecta de forma significativa a una persona, debe haber intervención humana real, y el Reglamento Europeo de Inteligencia Artificial —ya en vigor y con aplicación progresiva— refuerza esta exigencia al considerar de alto riesgo su uso en entornos laborales, especialmente cuando incide en la contratación, evaluación o despido de trabajadores.

Ante este nuevo escenario, actuar con enfoque preventivo no es opcional: es imprescindible. No basta con intervenir cuando el conflicto ya ha estallado; lo verdaderamente eficaz es anticiparse. Evaluar el impacto de los sistemas algorítmicos antes de implementarlos permite detectar posibles riesgos a tiempo. Garantizar una supervisión humana real evita que decisiones importantes se tomen de forma automática y sin control. Medidas como la transparencia interna, las auditorías periódicas y la formación jurídica y ética de los equipos directivos no solo protegen derechos: también previenen conflictos y refuerzan la seguridad jurídica dentro de la empresa.

Cumplir con estas obligaciones no debe verse como una carga, sino como una inversión. Las consecuencias de no hacerlo son cada vez más serias: despidos nulos, indemnizaciones, sanciones por parte de la AEPD, responsabilidad civil, daños reputacionales y actuaciones de la Inspección de Trabajo. Pero más allá de todo eso, está lo esencial: el coste humano. Porque cuando se vulneran derechos, no hablamos solo de tecnología mal usada. Hablamos de personas.

La inteligencia artificial puede ser una gran aliada si se utiliza con criterio. Pero nunca debe sustituir la mirada humana ni desplazar los principios básicos del derecho laboral. El reto no es elegir entre tecnología y derechos. El verdadero reto es saber usar esa tecnología con inteligencia, con conciencia y, sobre todo, con humanidad.

Archivado En