Algoritmos e inteligencia artificial: ¿hasta qué punto confiar en ellos?

Por el momento como norma general no influyen en decisiones de gran importancia

Poco a poco van ganando peso y ya se usan en procesos de selección de personal

Algoritmos e inteligencia artificial: ¿hasta qué punto confiar en ellos?
Getty Images

Ideados con el objetivo de hacer más fácil la vida y el trabajo para los humanos, la inteligencia artificial y los algoritmos, fórmulas que siguen unos determinados pasos para solventar problemas o cumplir órdenes, ya están presentes en nuestro día a día desde hace tiempo. Capaces de funcionar de forma autónoma si se les programa para ello, por ahora, los expertos señalan que los algoritmos mandan en las pequeñas cosas. Por ejemplo deciden la publicidad que más “encaja” con cada persona, sugieren contenidos que pueden resultar interesantes en función de lo que se haya consultado previamente o nos guían por la mejor ruta al usar un GPS. En definitiva, un error en el algoritmo, no suele traducirse en un daño excesivamente grave. No obstante, cada vez ganan más protagonismo en procesos relevantes en los que un fallo sí tiene consecuencias. Un ejemplo de la tendencia a un mayor uso de algoritmos sustentados en la inteligencia artificial es su implementación en los procesos de selección laboral.

Recurrir a ellos tiene lógica en algunos casos, pero según Gemma Galdón, fundadora de la compañía de auditoría algorítmica Eticas Research Consulting, empresa dedicada a asegurar que los algoritmos funcionen bien desde diferentes puntos de vista incluyendo el ético, no son infalibles. La experta detalla que por el momento exclusivamente las grandes empresas emplean algoritmos a la hora de buscar candidatos para cubrir sus vacantes. La experta no recuerda ningún caso de uso en pequeñas o medianas empresas o en los procesos de contratación de la administración pública. “En las grandes empresas lo que más se utiliza en lo que algoritmos laborales se refiere son los llamados de screening. Las empresas que gestionan un gran volumen de currículums lo que hacen es que el algoritmo determina qué currículums superan el umbral mínimo de requisitos. Con lo cual, no todos son revisados por una persona humana. Este seguramente sea el algoritmo más extendido”, afirma.

Este asunto levanta polémica. “En nuestra experiencia estos algoritmos no ayudan a seleccionar al mejor candidato. Los algoritmos que se venden son de mala calidad y tienden a tomar malas decisiones. Básicamente un algoritmo lo que puede hacer en esta selección inicial de currículums es identificar cosas muy básicas. Procedencia, nivel de estudios, experiencia laboral… Es análisis de texto, pero sin contexto”, advierte. Si una máquina es la que lee el currículum y no está bien diseñada para hacerlo, por muy hábil y válido que se sea para el puesto, si no se incluyen alguna de las palabras clave, el candidato queda descartado.

Xabi Uribe-Etxebarria, fundador y consejero delegado de Sherpa.ai, sostiene en cambio que el análisis de la información en base a palabras clave es el funcionamiento que siguen sistemas antiguos, pero existen desarrollos mucho más avanzados. “En nuestra empresa Sherpa.ai tenemos desarrollos con algoritmos de inteligencia artificial mucho más sofisticados que son capaces, entre otras cosas, de analizar dos textos e identificar si hablan sobre el mismo tema sin que siquiera tengan ninguna palabra en común sino distancia entre vectores. Por lo que ese problema está muy superado. Yo siempre digo que los algoritmos tienen fallos y sesgos derivados de los datasets de aprendizaje, pero lo normal es que tengan muchísimos menos sesgos que un humano”, afirma.

Sesgos discriminatorios

En el proceso de aprendizaje automático que siguen los algoritmos para mejorar su funcionamiento pueden ocurrir fallos que incluso lleven a una discriminación hacia las personas. “Lo que estamos encontrando en algoritmos tipo Infojobs o Linked In, algoritmos utilizados por plataformas online que ofrecen trabajos, es que aunque ningún informático incorpore eso en el algoritmo, aprende por ejemplo que si los trabajos técnicos mejor pagados al final van a parar a hombres, el algoritmo entiende que eso es lo correcto y al final va a reproducir el machismo del mundo real. De esta forma cuando una mujer entre en Linked In va a tener menos posibilidades de que la red le sugiera trabajos de esa naturaleza porque el algoritmo ha aprendido de los sesgos del mundo real”, sostiene Galdón.

Libertad de expresión

¿Y si fuera una máquina la que determine lo que alguien puede decir o no? De facto, esto ya ocurre en las redes sociales. Plataformas como Facebook usan “sistemas mixtos” de supervisión del contenido. O lo que es lo mismo, un primer filtro a cargo de una inteligencia artificial que lee palabras clave y una segunda línea compuesta por trabajadores humanos. “Si hablas de bombas o de nazismo o muestras una imagen de personas desnudas, el algoritmo las identifica y las elimina de la página. Puedes estar hablando del holocausto en términos críticos o en términos de ironía y el algoritmo se puede equivocar. Cuando Facebook banea un contenido te ofrece la posibilidad de quejarte y reclamar porque puede haberse equivocado el algoritmo al no tener en cuenta ironías ni absolutamente nada. Lo que debatimos es hasta que punto puede una plataforma decidir de forma algorítmica quitar un contenido que tú has puesto en una página web”, dice la fundadora de Eticas Research.

Los errores frecuentes

En el transcurso de su trabajo de auditoría, Galdón se suele encontrar una serie de errores frecuentes. Para detectarlos, el proceso sigue tres pasos bien definidos. El primer paso es comprobar cómo recopila la información el algoritmo, el segundo, ver que grupos sociales de los afectados por el algoritmo pueden estar siendo perjudicados injustamente y, por último, comprobar cómo interactúa el algoritmo con el humano en caso de que éste sea el que debe adoptar una decisión en base a los datos aportados por la inteligencia artificial. Principalmente, los errores están en los inputs de datos. La experta cita como ejemplo el algoritmo de un sistema de ayudas públicas. Al no incorporar datos demográficos claves, no detectaba personas en auténtica situación de vulnerabilidad. “Hemos encontrado de todo”, concluye. 

Si un algoritmo falla, es culpa de quien lo implementa

Caso Deliveroo

El pasado cuatro de enero un tribunal italiano emitió una sentencia en contra de Deliveroo debido a un mal diseño del algoritmo que reparte entregas entre los trabajadores de la plataforma de envíos. El algoritmo era ilegal porque cuando un ‘rider’ cancelaba una asignación de trabajo esa cancelación llevaba una penalización independiente de los motivos que hubieran llevado al trabajador a rechazar ese trabajo. El empleado renunciaba porque tenía un accidente, una enfermedad o cualquier otro problema y el algoritmo decidía castigarle. Según el tibunal, la culpa de su mal funcionamiento es de Deliveroo. Al respecto, Galdón reivindica el papel de la auditoría como una herramienta que garantiza el buen funcionamiento de los algoritmos. 

Normas
Entra en El País para participar