La IA decide por nosotros, pero ¿y si se aleja de la ética?
Es imprescindible formar a programadores y científicos, así como controlar los sesgos con rigor
Los algoritmos de Inteligencia Artificial (IA) toman decisiones a diario que definen quiénes somos o qué queremos: qué grado de idoneidad tenemos para desempeñar un determinado puesto de trabajo, qué crédito bancario se adapta mejor a nosotros o qué ofertas musicales nos pueden interesar, son solo algunos casos que sirven para ilustrar cómo la Inteligencia Artificial está implícita en nuestras vidas. No obstante, ¿qué puede llegar a ocurrir cuándo la Inteligencia Artificial se desarrolla bajo algoritmos sesgados?
La ética es capaz de encuadrar y delimitar el contexto en el que la Inteligencia Artificial toma decisiones. Programar procesos de IA con sesgos y prejuicios humanos de distinto tipo, como racistas, homófobos o machistas, influirá directamente en las decisiones que la máquina o el robot tomarán.
Imaginemos, por ejemplo, un programa que reclute personal para una empresa y que decida según su ‘inteligencia’. La persona encargada de su programación habrá sido la responsable de ‘enseñar’ a dicho programa las cualidades que deben tener las personas que aspiren al puesto, los idiomas que deben hablar, estudios que han de tener… pero, ¿qué pasaría si la máquina debe escoger entre dos personas con la misma cualificación pero de distinto sexo?
Conocer los principios éticos básicos y aplicarlos en el funcionamiento de las máquinas se convierte en una responsabilidad que todas las empresas que trabajan con este tipo de tecnología deben comprometerse a asumir.
El entramado empresarial ha aceptado el desafío y, según un informe realizado por Forbes Insights para SAS, Intel y Accenture, el 70 % de las grandes empresas de ámbito mundial forman en ética a sus especialistas en IA. El informe añade que para el 92 % de las compañías es esencial capacitar a sus programadores en ética, al tiempo que el 63 % de las organizaciones cuentan con comités de ética para revisar el uso de la IA.
En este sentido, la Unión Europea (UE) ha publicado siete principios básicos para el desarrollo ético de la Inteligencia Artificial. Las compañías deben supervisar el desarrollo de los programas que incluyan este tipo de tecnología y han de establecer medidas de contingencia para no disminuir o limitar la autoridad humana. Los sistemas deben ser seguros y resistentes ante eventuales intentos de manipulaciones o de pirateo.
Asimismo, y según las pautas establecidas por la UE, las empresas deben ser capaces de garantizar la privacidad de los datos de los ciudadanos y al mismo tiempo asegurar la transparencia de su uso.
No obstante, la UE ha ido más allá en su afán por regular la aplicación de la IA, determinando que esta tecnología debe incluir la diversidad social como principio básico, para garantizar que los algoritmos en los que se basa su funcionamiento, no tengan sesgos discriminatorios directos o indirectos. Además, el desarrollo tecnológico debe tener también presente el impacto social y medioambiental que la aplicación de IA puede suponer, por lo que es clave trabajar desde principios sostenibles.
Con el fin de garantizar la seguridad y la transparencia y que los resultados se ajusten a los principios éticos establecidos, los desarrollos basados en IA deben someterse a auditorías tanto externas como internas.
Para que la IA se integre de manera ética en los procesos diarios de las empresas, recomendamos adoptar tres pasos clave: en primer lugar, poner un foco especial en los datos que se proporcionan. Si los algoritmos están tomando decisiones no éticas o incorrectas es porque los humanos han proporcionado datos sesgados o poco éticos al sistema, incluso de forma inconsciente. Tenemos que asegurarnos que los datos que proporcionamos son la fuente correcta para el aprendizaje de los algoritmos.
En segundo lugar y con el fin de garantizar la ética, se debe realizar una vigilancia adecuada. Asignar responsabilidades claras a las distintas personas involucradas en los proyectos para identificar los responsables de actuaciones no éticas. Las compañías deben nombrar un Responsable Ético, que supervise las acciones y los resultados de los algoritmos de Inteligencia Artificial que se desarrollen.
Por último, se deben considerar las ramificaciones de las nuevas tecnologías. La organización en general, y los responsables de tecnología en particular, tienen que estar preparados para actuar sobre los algoritmos cuando su actuación esté fuera de lo establecido o cuando estén operando fuera de los límites considerados como éticos. Es importante poner ciertos controles al aprendizaje automático, incluyendo parámetros que incentiven las decisiones éticas y que identifiquen las decisiones no éticas. En la actualidad la mayor parte de las compañías consideran necesario definir un código ético que, entre otros aspectos, profundice en la transparencia de las acciones que toman sus sistemas y aplicaciones de IA y que, además, sirva de guía respecto a los próximos avances y posibles dilemas que puedan surgir en relación al uso y desarrollo de esta tecnología.
En definitiva, aplicar una sólida base ética sobre la que desarrollar procesos de Inteligencia Artificial será determinante para que esta tecnología tome las mejores decisiones. Por ello, la correcta y completa formación en ética de los programadores y científicos, así como un riguroso control de los sesgos, serán clave para una actuación éticamente responsable.
Marcos Carrascosa es Director Customer Advisory SAS Iberia