La singularidad que nos amenaza
Es imprescindible acordar una gobernanza global de la IA que ponga los derechos humanos por delante del beneficio privado o del interés de control gubernamental
De repente, hemos descubierto que la inteligencia artificial, como toda herramienta construida por el ser humano, tiene una cara B capaz de utilizarse para el mal. Según la Unesco, la IA imita funcionalidades de la inteligencia humana como la percepción, el aprendizaje, el razonamiento, la resolución de problemas e, incluso, la producción de trabajos creativos. Desde el despido de la responsable de ética de Google por señalar los peligros de los algoritmos, ...
Regístrate gratis para seguir leyendo en Cinco Días
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
De repente, hemos descubierto que la inteligencia artificial, como toda herramienta construida por el ser humano, tiene una cara B capaz de utilizarse para el mal. Según la Unesco, la IA imita funcionalidades de la inteligencia humana como la percepción, el aprendizaje, el razonamiento, la resolución de problemas e, incluso, la producción de trabajos creativos. Desde el despido de la responsable de ética de Google por señalar los peligros de los algoritmos, hasta el reciente sainete alrededor del CEO de OpenAI, son varias las evidencias del temor que nos ha entrado a que la IA llegue a adquirir, como hemos visto en tantas distopías, autonomía cuando una inteligencia artificial general sea superior a la nuestra y capaz de decidir por sí misma. Para algunos, ese momento, conocido como la singularidad, tiene incluso fecha y muy cercana: 2030.
Más de 1.000 expertos mundiales han firmado un manifiesto solicitando una moratoria en los avances sobre inteligencia artificial porque su “desarrollo descontrolado es un riesgo para la sociedad y la humanidad”. Incluso, el diseñador del ChatGPT ha reconocido “tener un poco de miedo de que su creación se utilice para desinformar a gran escala o para ciberataques”.
A principios de este mes, una Cumbre de 28 países, la UE, China y EEUU entre ellos, elaboró la Declaración de Bletchley, manifestando sus temores ante los riesgos de una tecnología revolucionaria como la IA y se comprometió a acelerar su regulación para garantizar una gestión “segura y responsable” de la misma. Aun reconociendo que entre el 70% y el 80% de sus usos tienen consecuencias muy positivas, el potencial dañino del resto es tan grande que exige ser regulada.
Como señala nuestra experta nacional, Nuria Oliver, en una sociedad donde se regula el tamaño de las jaulas que transportan a los animales vivos, los requisitos exigibles para desempeñar funciones de médico o de abogado, o los ingredientes de los alimentos, ¿Cómo no vamos a regular los usos de la IA? La Secretaria de Estado de Digitalización e IA, Carme Artigas, decía recientemente en una entrevista en El País que “el progreso tecnológico no puede llevarse por delante derechos fundamentales”, y ello solo se puede hacer desarrollando un estándar desde una gobernanza internacional para esa tecnología, siguiendo el impulso del llamado “humanismo digital”.
En los últimos tiempos hemos asistido a situaciones con las plataformas tecnológicas y sus algoritmos, que justifican el temor y la necesidad de control evidenciada. Entre los más llamativos de los recientes, los fiscales generales de 41 Estados y de DC, que forman parte de los EE UU, han presentado una demanda contra Meta, empresa matriz de Facebook, Instagram, WhatsApp o Messenger, por desarrollar productos adictivos, diseñados intencionadamente para que niños y jóvenes se enganchen a ellos, maximizando el tiempo invertido en los mismos, lo que incrementa los ingresos de la empresa, aprovechando la vulnerabilidad psicológica de ese perfil de usuario y sin importarle que ello afecte a la salud mental de los mismos. Además, recolectó información personal de menores de 13 años sin obtener previamente su consentimiento verificable por los padres.
Esta acusación va más allá de las tradicionales hasta la fecha, más centradas en el impacto de las plataformas sobre la privacidad, la discriminación por los sesgos en los algoritmos, la seguridad y la desinformación. Se trata de lo que Zuboff ha llamado “el capitalismo de la vigilancia”. En esa línea, la Comisión Europea acaba de abrir una investigación a X (antes, Twitter) bajo la sospecha fundada de que difunde desinformación y contenidos violentos de manera consciente para concentrar la atención de los usuarios, construyendo relatos alternativos, falsos e interesados, aunque reconoce que Facebook o TikTok también lo hacen.
No hay más razón detrás de estos comportamientos que el hecho de que el modelo de negocio de las empresas tecnológicas se basa en mantener atentos a la pantalla, el mayor tiempo posible, a cuantas más personas mejor. Y, la verdad, la cosa les funciona, porque las cinco grandes empresas occidentales del sector están viendo crecer sus beneficios de manera espectacular (en torno a un 45%), gracias a la publicidad digital, la computación en la nube y, sobre todo, la inteligencia artificial, que conlleva grandes inversiones, pero grandes beneficios por los que no siempre tributan lo que les corresponde (Apple tiene un pleito abierto en la UE por 14.300 millones de impuestos no pagados en Irlanda). Y recordemos que la capitalización de Amazon, por ejemplo, supera en valor al PIB de España.
A pesar de que el mayor temor es que un exceso de regulación acabe bloqueando la innovación, varias de las empresas, como Microsoft y Amazon, se han adelantado creando sus propios códigos de buenas prácticas, buscando que todos los desarrollos de la IA sean responsables por diseño. Pero, el segundo temor es que Occidente siga adelante con sus leyes de servicios digitales, mientras China cabalga suelta, siguiendo solo los intereses de control ciudadano por parte de su Gobierno. De ahí que sea imprescindible acordar una gobernanza global de la IA que incluya la transparencia de los algoritmos y ponga los derechos humanos por delante del beneficio privado o del interés de control gubernamental.
Las alteraciones que está provocando ya la IA, que anticipan lo que vendrá en breve, representa, junto a la crisis ecológica, las dos mayores amenazas a los seres humanos que, en este caso, puede afectar, incluso, al propio concepto de ser humano – el transhumanismo amenaza con crear dos especies humanas diferentes, que recuerda a Un Mundo Feliz de Huxley–. Aprovechando todo lo positivo que ya está aportando la IA, su regulación global parece una exigencia incuestionable, con un elevado nivel de urgencia. Aunque no les oculto que, a veces, veo situaciones como las de Gaza, o enfrentamientos políticos basados solo en odio e insultos, y durante un rato siento una cierta esperanza en que llegue pronto la singularidad. Porque los seres humanos también tenemos una temible cara B.
Jordi Sevilla es economista
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días