Xabi Uribe-Etxebarria: "Un coche autónomo es más seguro que uno conducido por una persona"

El fundador y CEO de Sherpa.ai cree que la inteligencia artificial debe usarse como complemento al humano

Trabaja en la elaboración de un código ético que ayude a garantizar que la tecnología mejorará el bienestar humano y el estado del planeta

Xabi Uribe-Etxebarria, fundador y consejero delegado de Sherpa.ai
Xabi Uribe-Etxebarria, fundador y consejero delegado de Sherpa.ai Sherpa.ai

La compañía española Sherpa.ai es capaz de hablar de tú a tú a los titanes de la tecnología de Silicon Valley en lo que a innovación se refiere. En 2020, fue seleccionada por la publicación Datamation como una de las 10 compañías más punteras a nivel mundial en el campo de la inteligencia artificial. Xabi Uribe-Etxebarria es el fundador y CEO de Sherpa.ai, una tarea que lo convierte posiblemente en uno de los principales conocedores del mundo de la inteligencia artificial. Entre otras innovaciones, su empresa desarrolló un método para solucionar el problema de la privacidad en el aprendizaje de las máquinas. Las máquinas aprenden accediendo a los datos de las personas en su dispositivo local y solo comparten con la inteligencia artificial las lecciones que han aprendido, sin desvelar la información sensible de los usuarios logrando así un sistema de enorme potencial respetuoso con la privacidad.

En un contexto de un cada vez mayor rango de usos de algoritmos en distintos aspectos de nuestras vidas, uno de ellos es el de la selección de personal. Hoy en día, su uso se limita prácticamente a grandes empresas que, por su naturaleza, gestionan una cantidad enorme de candidaturas. ¿Cómo se encuentra de desarrollada actualmente la IA en este campo?

La aplicación de Inteligencia Artificial en la selección y gestión del talento es un campo interesante y con mucho potencial en el que todavía queda mucho por explorar. De cara a los próximos años, creo que la IA puede aportar grandes beneficios en esta área, sobre todo, al realizar la selección de los candidatos en base a criterios objetivos, y reducir sesgos. Alrededor de 3 de cada 4 ofertas laborales se cubren por personas que vienen referenciadas, lo que a veces genera que el candidato seleccionado no sea el más adecuado para el puesto o que otra persona con más méritos quede excluida. El uso de Inteligencia Artificial ayudaría a reducir este tipo de problemas. En cualquier caso, el papel de esta tecnología no sería el de sustituir a la figura del recruiter sino servirle de complemento y ayudar a hacer una mejor selección.

He podido comprobar que hay críticas a su uso en esta cuestión debido a que los algoritmos pueden llegar a dejar fuera del proceso perfiles válidos por el hecho de no incluir en el currículum palabras clave que busca el algoritmo y también, casos de todo lo contrario, donde hay gente que escribe en blanco en su currículum posibles palabras clave de cara a pasar el filtro algorítmico.

El análisis de la información en base a palabras clave es el funcionamiento que siguen sistemas antiguos, pero existen desarrollos mucho más avanzados. En nuestra empresa Sherpa.ai tenemos desarrollos con algoritmos de Inteligencia Artificial mucho más sofisticados que son capaces, entre otras cosas, de analizar dos textos e identificar si hablan sobre el mismo tema sin que siquiera tengan ninguna palabra en común sino distancia entre vectores. Por lo que ese problema que planteas está muy superado. Yo siempre digo que los algoritmos tienen fallos y sesgos derivados de los datasets de aprendizaje, pero lo normal es que tengan muchísimos menos sesgos que un humano.

¿Cómo puede la IA mejorar nuestras vidas?

Tendemos a asociar la Inteligencia Artificial a robots futuristas o a máquinas que nos hablan, como las que vimos en la película “Her”. Pero la Inteligencia Artificial va mucho más allá. Actualmente, hay muchos sistemas que nos ayudan en nuestra vida cotidiana pero que no sabemos que funcionan gracias a la Inteligencia Artificial. Por poner algún ejemplo, el reconocimiento de la huella dactilar o facial para desbloquear el móvil, el reconocimiento de voz que utilizamos para diferentes aplicaciones, el parking que lee la matrícula y que no tenemos que meter la tarjeta, cualquier foto que hacemos con el móvil o aplicaciones más sofisticadas en el sector salud que ayudan a detectar cánceres que el ojo humano no puede detectar.

Más específicamente. Un problema acuciante y fácilmente reconocible por todos. Covid. ¿Qué armas puede darnos la IA si la usamos correctamente?

La crisis del Covid-19 ha servido para visibilizar el potencial que la tecnología y, en particular la IA, tiene para resolver algunos de los grandes retos de la sociedad. Durante estos meses, se ha demostrado cómo la IA ha sido tan importante como la medicina para controlar o mitigar los daños de esta pandemia. Se están haciendo avances cruciales gracias a esta tecnología, tanto en diagnóstico, como gestión de recursos o en la lucha para reducir los tiempos de la investigación de la vacuna, donde ha sido fundamental para descifrar el genoma. Personalmente, dentro de la batalla contra la pandemia, donde creo que la IA es clave es en la creación de algoritmos de predicción o previsión de nuevos casos. Con este objetivo, desde Sherpa.ai hemos colaborado con el Servicio de Salud para utilizar nuestros conocimientos en Inteligencia Artificial en la lucha contra el virus. De manera altruista desarrollamos una plataforma de Inteligencia Artificial capaz de responder a sus necesidades más urgentes. La plataforma, entre otros aspectos, es capaz de predecir las necesidades futuras de las Unidades de Cuidados Intensivos (UCIs). En concreto, el desarrollo realizado es capaz de descubrir por territorio el número de UCIs necesarias de los siguientes siete días, por lo que se ayuda a las autoridades sanitarias a preparar los recursos necesarios en cada momento con gran exactitud. Esta herramienta también es capaz de reconocer patrones y tendencias del virus, además de identificar datos de vital importancia para los servicios sanitarios como tendencias de infectados, futuros focos, entre otras funcionalidades. También hemos trabajado en tecnología para el desconfinamiento, que permitiese mitigar los daños durante la desescalada.

¿Hasta qué punto podemos confiar en que los algoritmos funcionarán correctamente? No me refiero a que si cumplen o no su trabajo, si no si cumplen bien su misión, es decir, el objetivo con el que fueron ideados.

La Inteligencia Artificial debe entenderse como un complemento al humano, capaz de facilitarle su trabajo y ayudarle a obtener mejores resultados. Como todo, puede tener un margen de error; pero, para una tarea concreta, lo normal es que sea muy inferior al de un humano. La clave no es si funcionará correctamente sino si funcionará mejor que el sistema que actualmente se utiliza. A mí me gusta utilizar el ejemplo de los coches autónomos. Dentro de muy poco tiempo, incluso en ciertos tipos de carreteras ya mismo, un coche autónomo es más seguro que uno conducido por una persona. La persona se puede despistar al volante o verse afectado por el cansancio, por ejemplo. Como comentaba, el algoritmo o unos datasets nunca van a ser perfecto, pero para una tarea concreta la tasa de error debería ser inferior a la de los humanos.

La intuición me dice que muchos errores en los algoritmos vienen de parte de los humanos que están detrás de su creación. Aquí la pregunta es, si en algún momento decidiéramos que la IA es la más cualificada para crear otras IAs, ¿hasta qué punto podría ser en tu opinión esto peligroso?

Todavía estamos muy lejos de ese momento. Como dijo Andrew Ng, profesor de la universidad de Stanford, “preocuparse por la posibilidad de que la Inteligencia Artificial se vuelva malvada es como preocuparse por la superpoblación de Marte”. Al final, la Inteligencia Artificial funciona en base a la información que se ha utilizado en el entrenamiento de los algoritmos, y si esta tiene sesgo, las predicciones generadas también lo tendrán. Por eso, es fundamental que se entienda la IA como un complemento para nosotros, y que abordemos su desarrollo desde un enfoque humanista, que sitúe a las personas en el centro.

¿Qué más novedades pueden llegar este año en la IA? ¿La veremos implementada en más campos?

Yo siempre veo la IA como una tecnología capaz de acelerar el potencial humano. Como una ayuda allí donde el humano no puede llegar que permite mejorar nuestra calidad de vida. En este sentido, estoy seguro de que la Inteligencia Artificial va a jugar un papel fundamental en la resolución de muchos de los desafíos a los que nos enfrentaremos la humanidad y nuestro planeta durante los próximos años, en diferentes áreas como salud, educación, eficiencia energética, transporte o sostenibilidad.

En tu opinión, ¿Debemos confiar en el progreso simplemente por el hecho de ser un progreso?

La ciencia y la tecnología son de por sí neutras; pero, como todo, corren el riesgo de ser utilizadas también con fines no beneficiosos. Por eso es importante abordar el desarrollo de la Inteligencia Artificial de una manera ética, situando a las personas en el centro y garantizando que los desarrollos contribuyan al bienestar de la sociedad.

Desde Sherpa lanzasteis una solución para lidiar con el problema de la privacidad y la IA

Para Sherpa.ai, y para mí personalmente, la privacidad es un valor ético fundamental. Por ese motivo, hemos desarrollado una nueva plataforma, puntera mundialmente en IA aplicada a privacidad de datos. Se trata de una plataforma para la privacidad de datos que permitirá, entre otras cosas, poder usar la potencia de los algoritmos de Inteligencia Artificial sin necesidad de compartir datos privados. Esto podría tener aplicaciones en muchos ámbitos de nuestra vida, por ejemplo, en salud. Si pudiéramos compartir datos de enfermedades y pacientes haríamos un progreso enorme en curar enfermedades que ahora mismo no tienen cura. Porque los algoritmos están ya. Pero estos algoritmos necesitan cientos o miles de datos para aprender. Por supuesto, nadie va a hacer eso porque sería una violación de la privacidad de los pacientes. Toda esa información está sujeta a regulaciones de protección de datos ¿Cómo se podría entrenar un modelo sin compartir esta información? La respuesta es el Aprendizaje Federado. Es seguro y privado porque no hay un intercambio de datos personales, los modelos se entrenan de forma local, y solo las mejoras se combinan en la nube sin intercambio de datos sensibles. Estas se agregan a un modelo global que se perfecciona con todas esas actualizaciones. Por lo tanto, podemos decir que la IA puede servir para mejorar o incluso para salvar vidas de las personas, sin exponer su privacidad.

¿Qué cabe esperar en el campo de la ética y la IA? ¿es una cuestión que a día de hoy genere preocupación?

La Inteligencia Artificial tiene un gran potencial para ayudar al ser humano a resolver muchos de los retos a los que nos enfrentamos como sociedad. Para conseguir eso, es necesario que abordemos el desarrollo de la Inteligencia Artificial desde un punto humanista, y no lo dejemos únicamente en mano de tecnólogos. En este sentido, el gran neurobiólogo Rafa Yuste y yo hemos considerado importante desarrollar un código ético, que sitúe a las personas en el centro y garantice que los desarrollos en IA contribuyan a la sociedad. Actualmente estamos trabajando en una propuesta a la que llamamos “juramento tecnocrático”, una especie de código ético que debería ser un requisito para poder dedicarse a este campo, en analogía con el juramento hipocrático de la medicina. Estas reglas deontológicas deberían ser asumidas por todas las compañías desarrolladoras de inteligencia artificial, con el objetivo de garantizar que los avances que se consigan mejorar el bienestar humano y del planeta. 

Normas
Entra en El País para participar