IBM lanza una herramienta para evitar las ‘cajas negras’ de la inteligencia artificial

Su software permite saber cómo los algoritmos toman sus decisiones y recomienda ajustes si detecta sesgos

Accenture, Google y Microsoft también desarrollan soluciones para una IA más justa

Instalaciones del centro para clientes de IBM en Madrid.
Instalaciones del centro para clientes de IBM en Madrid.

La inteligencia artificial, especialmente el machine learning (aprendizaje automático), está cada vez más presente en la vida cotidiana a través de servicios como Netflix, Spotify, Google Photos u otros asociados al crédito empresarial y personal. Las ventajas de su uso son múltiples (personalización, eficiencia, eliminación de riesgos...) pero hay algo que inquieta a consumidores, reguladores y empresas: el llamado riesgo de caja negra. Es decir, desconocer qué criterios siguen los algoritmos para tomar las decisiones, de modo que no haya sesgos y nadie pueda verse desfavorecido.

Como aseguraba recientemente a Cincodias el socio responsable de Tecnología y Outsourcing de Garrigues, José Ramón Morales, los propios sujetos que sufren las consecuencias de la aplicación de los algoritmos tienen derecho a conocer cómo se ha hecho la evaluación.

Para dar respuesta a esta preocupación, IBM ha lanzado una herramienta destinada a detectar el sesgo de la inteligencia artificial. Para ello, analizará cómo y por qué los algoritmos toman decisiones en tiempo real, y recomendará ajustes. “Estamos facilitando a las empresas que utilizan la inteligencia artificial una mayor transparencia y control para afrontar el riesgo potencial de una toma de decisiones errónea”, asegura David Kenny, vicepresidente senior de Soluciones Cognitivas de IBM, que admite una preocupación creciente de que los algoritmos utilizados por las empresas no siempre son justos en su toma de decisiones.

Precisamente, la firma estadounidense aclara que este desarrollo da respuesta a las conclusiones de una reciente encuesta de su Institute for Business Value, que muestra que mientras el 82% de las empresas se plantea utilizar la inteligencia artificial, al 60% le preocupa cuestiones de responsabilidad y el 63% carece de las capacidades y el talento interno para gestionar esta tecnología con confianza.

La nueva herramienta está disponible en la nube y funciona con modelos construidos a partir de diferentes plataformas que permiten a los desarrolladores y científicos de datos crear, entrenar e implementar modelos de aprendizaje automático como Watson (IBM), Tensorflow (Google), AWS SageMarker (de Amazon), AzureML (Microsoft) o SparkML, las soluciones más utilizadas por las empresas.

Kenny precisa que el servicio de software que lanzan captura resultados potencialmente injustos a medida que se producen y recomienda, de forma totalmente automática, datos para añadirlos al modelo y ayudar a reducir cualquier sesgo que se detecte. “Las explicaciones que proporciona son de fácil comprensión [y se ven a través de un panel visual] y muestran qué factores hicieron inclinar la decisión hacia un lado o hacia otro, la confianza en la recomendación y los factores detrás de esa confianza. Además, los registros de la precisión, rendimiento y equidad del modelo pueden rastrearse y monitorizarse fácilmente para cumplir con la normativa, como es el caso del GDPR (el nuevo reglamento de protección de datos europeo), o prestar un mejor servicio al cliente”.

 

Un negocio creciente

Contratar como servicio. IBM no es la única tecnológica que ha lanzado herramientas para ayudar a construir una IA más justa. Accenture lanzó en julio otra, llamada AI Fairness, que también puede contratarse como un servicio, y se puede usar tanto antes de construir el algoritmo, como durante su creación y cuando este está en producción, para evitar que se haga imparcial.

Más opciones. Otras dos empresas que se han apuntado a las herramientas anti sesgo son Google y Microsoft. La primera lanzó hace unos días una solución que ayuda a ver cómo funcionan los modelos de aprendizaje automático pero que no funciona en tiempo real, según informó la BBC. El gigante de las búsquedas sabe de lo necesario de este tipo de soluciones, pues sufrió en sus carnes el problema del sesgo. En 2015 se descubrió que el algoritmo de Google Photos, el programa de la compañía que clasifica las fotos de los usuarios por sí solo usando la inteligencia artificial, etiquetaba a las personas negras como gorilas. Algo que tuvo que corregir. Microsoft, por su parte, desveló en mayo que está trabajando en un kit de herramientas para determinar si un algoritmo es parcial o no.

Normas
Entra en El País para participar