Transformación digital

Una guía para ayudar a las empresas a hacer un uso ético de la inteligencia artificial

OdiseIA, PwC, Google, Microsoft, IBM y Telefónica publican un documento para conocer las mejores prácticas en la materia 

El trabajo será adaptado a los distintos sectores económicos

Acto de presentación de la Guía para el uso responsable de la inteligencia artificial, ayer en Madrid.
Acto de presentación de la Guía para el uso responsable de la inteligencia artificial, ayer en Madrid.

La inteligencia artificial está ya presente en muchos aspectos de nuestro día a día, algunos de ellos muy relevantes, y si no se utiliza correctamente puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros, la opacidad de algunos de sus algoritmos o la excesiva autonomía dada a estos sistemas. Así lo cree Idoia Salazar, presidenta de OdiseIA, el observatorio del impacto social y ético de la inteligencia artificial, que ayer presentó en Madrid, junto a PwC, Google, Microsoft, IBM y Telefónica, la primera guía de buenas prácticas para el uso de la inteligencia artificial elaborada en España. Se ha hecho con la colaboración de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

Dicha guía, como remarcaron sus autores, es el primer resultado de una iniciativa que tiene como objetivo generar un ecosistema donde cualquier organización puede integrarse para compartir y conocer las mejores prácticas en el uso de la IA atendiendo a principios éticos y preceptos normativos. El documento, de 232 páginas, ha sido elaborado por un equipo multidisciplinar de más de 30 profesionales (integrado por tecnólogos, juristas y expertos en distintos campos de las citadas compañías) y recoge un detallado estudio y un análisis jurídico de los principios éticos que aplican a la inteligencia artificial, realizado a partir del análisis de 27 iniciativas en todo el mundo. Además, aterriza estos conceptos en el día a día de las empresas, incluye las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM, así como la experiencia de Telefónica en este ámbito.

La guía llega en un momento clave, después de que en abril de 2021 la Comisión Europea presentara su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial (AI Act). Un proyecto de ley que pretende establecer una regulación horizontal sobre la IA, y una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años.

También llega después de que la Unesco publicara en noviembre de 2021 un informe sobre la ética de la IA donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto. Y después de que en diciembre de 2020 el ­Gobierno publicara la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una inteligencia artificial ética y normativa.

Según los impulsores de la guía, ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley, y este documento puede ayudar a las empresas a conseguirlo.

“El uso ético y responsable de la inteligencia artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica, no existirá la posibilidad de no prestar atención a este tema. Creemos que la aportación de la guía es fundamental para generar comunidad y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas”, indicó Armando Martínez Polo, socio responsable de tecnología en PwC España.

Como señalaron desde OdiseIA, una organización sin ánimo de lucro, y PwC, la guía será algo dinámico y el próximo paso será aterrizarla a los distintos sectores de la actividad económica. Así, ya ha comenzado esta segunda fase del proyecto para adaptarla a diez sectores empresariales de la mano de más de 50 compañías, empezando por los de seguros, publicidad y salud.

Para Juan Manuel Belloto, director de OdiseIA y responsable de esta iniciativa, las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen responsabilidad de que su IA esté desarrollada bajo principios éticos. “Al igual que en la sociedad, a la ética es necesario acompañarla de legislación, y por primera vez, la legislación no se está dejando esperar, un síntoma de la importancia en la inteligencia artificial”. Otro síntoma de la importancia de este reto, añadió, es ver cómo empresas que compiten en muchos negocios se han unido en este proyecto para abordar este reto de forma conjunta.

Richard Benjamins, cofundador de OdiseIA, señaló que son cuatro los retos principales que afrontan las empresas para implementar una inteligencia artificial ética: “Muchas organizaciones no tienen esta cuestión en mente, porque solo piensan en las oportunidades de negocio que les brinda esta tecnología; es necesario juntar silos dentro de las empresas y trabajar en equipo; es preciso elegir bien qué principios son adecuados aplicar para tu sector, porque no es lo mismo si eres una organización del ámbito sanitario, financiero o industrial, y es complejo aterrizar un uso responsable de la IA. Hay que hacer ­mucha formación y tener herramientas adecuadas”.

La guía aterriza con un enfoque muy práctico los principios éticos aplicables a la IA, según Idoia Salazar. Estos son privacidad, seguridad, transparencia, explicabilidad, responsabilidad, justicia, derechos humanos y sostenibilidad ambiental. Desde PwC destacaron que en relación con la transparencia y la explicabilidad (que es la base de la confianza en la IA) falta normativa. Igualmente, en materia de responsabilidad y rendición de cuentas también hay que avanzar porque la inteligencia artificial está en un momento muy incipiente “y hay que saber quién es responsable en cada una de las acciones: el desarrollador, la persona que ideó la IA y la que la puso en funcionamiento”.

Juan Murillo, director de área de OdiseIA, advirtió, no obstante, que las implicaciones que puede tener el uso de los algoritmos varía según el campo de aplicación. "No es lo mismo utilizar uno de optimización de rutas de reparto o recogida de residuos que hacerlo para la priorización de listas de espera en el ámbito sanitario. En el segundo caso afecta a derechos fundamentales y puede haber fallecidos si una operación se retrasa demasiado. Siempre hay que buscar ese punto de equilibrio entre cuál es el bien que perseguimos y el coste que tiene. Es pura gestión del riesgo", dijo.

Murillo hizo un símil y señaló que fabricar vehículos con airbag es más caro que hacerlo sin ellos, "pero todos agradecemos que nuestros coches lo tengan porque es más seguro". También está demostrado, dijo, que conducir un vehículo con casco aumenta la seguridad, sin embargo, exigir esa medida tendría unos costes sociales porque sería incómodo hacerlo y la gente se revelaría. Por eso, añadió, hay que encontrar el punto de equilibrio entre el aumento de seguridad con nueva regulación y los sobrecostes que esto implica. "Desarrollar algoritmos que estén bien documentados, que no tengan sesgos, que sean explicables, tienen un coste, pues se tardará más en desarrollarlos y ponerlos en producción, por eso exigir eso a todos los algoritmos que se desarrollen sería ineficiente y lastraría la innovación", opinó. 

Patricia Manta, de PwC, defendió, por su parte, que la inteligencia artificial ha hecho que las personas y las empresas ser más conscientes de muchos sesgos que sin su uso no hubiéramos descubiertos. Y puso el ejemplo de las discriminaciones en la concesión de préstamos, descubiertas a partir de evaluar la IA utilizada para ello. "Todos los humanos tenemos sesgos, así que en la medida en que seamos capaces de crear soluciones de inteligencia artificial que se pruebe que son eficientes en ese sentido, lo razonable sería hacer caso a las recomendaciones que nos  hagan esas soluciones y no a los humanos. Bien ideada, diseñada y utilizada, la inteligencia artificial puede ser una herramienta muy buena para aflorar injusticias, riesgos y no repetirlos", subrayó.

Normas
Entra en El País para participar