La pregunta del millón sobre la inteligencia artificial
El debate sobre si hay que regular la IA sigue abierto. Precedentes tecnológicos de falta de legislación, como las redes sociales, han tenido consecuencias nefastas
“El total desarrollo de la inteligencia artificial podría devenir en el fin de la raza humana”, dijo a BBC el físico Stephen Hawkins el 2 de diciembre de 2014. El 24 de octubre de aquel año, Elon Musk, fundador de Tesla, SpaceX, Neuralink y propietario de X (Twitter), declaraba a The Washington Post: “La inteligencia artificial es, probablemente, nuestra más importante crisis existencial, con la inteligencia artificial estamos llamando al demonio”. Y, el 28 de enero de 2015, en Reddit, Bill Gates, cofundador de Microsoft, comentaba: “En esto, estoy de acuerdo con Elon Musk y no comprend...
Regístrate gratis para seguir leyendo en Cinco Días
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
“El total desarrollo de la inteligencia artificial podría devenir en el fin de la raza humana”, dijo a BBC el físico Stephen Hawkins el 2 de diciembre de 2014. El 24 de octubre de aquel año, Elon Musk, fundador de Tesla, SpaceX, Neuralink y propietario de X (Twitter), declaraba a The Washington Post: “La inteligencia artificial es, probablemente, nuestra más importante crisis existencial, con la inteligencia artificial estamos llamando al demonio”. Y, el 28 de enero de 2015, en Reddit, Bill Gates, cofundador de Microsoft, comentaba: “En esto, estoy de acuerdo con Elon Musk y no comprendo cómo hay personas que no están preocupadas”. En 2014, el filósofo Nick Bostrom publicó su best-seller, Superintelligence, libro que Bill Gates recomendó vehementemente. Superintelligence explica cómo la inteligencia artificial se hace más inteligente que los humanos y cuáles son las consecuencias.
El pasado 14 de septiembre, Elon Musk reiteró la “existencial amenaza para la humanidad que podría suponer la IA”. Eric Smith (exCEO de Google) y Sam Altman (CEO de Open AI) apoyaron a Musk. Aquel día, una veintena de líderes de las BigTech hablaron de IA ante 60 senadores norteamericanos convocados por Chuck Schumer, líder de la mayoría en el Senado. De los empresarios TIC presentes, solo Elon Musk repitió ante los periodistas sus comentarios hechos previamente a puerta cerrada: reiteró la amenaza. De ahí, la necesidad de la regulación de la inteligencia artificial, según Musk y los empresarios presentes, desde Sundar Pichai (Alphabet-Google) a Jensen Huang (Nvidia).
La reflexión sobre una potencial regulación de la IA no es nueva: hay amplia literatura académica, que se remonta a 1950. Solo cuando la IA generativa ha llegado a la población general, en 2023, el poder público en EEUU ha expresado su deseo de regularla. En marzo de este año, la Casa Blanca emitió ocho compromisos voluntarios de seguridad en la IA a los que se han adherido empresas que producen IA generativa: Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI, Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI e Stability AI.
Estas y otras compañías fueron convocadas al AI Insights Forum, así denominado por el senador Chuck Schumer. Su objetivo era que los legisladores americanos aprendiesen sobre inteligencia artificial antes de legislar sobre ella. Porque la Casa Blanca, el Congreso (Senado y Cámara de Representantes) y los líderes de empresas tecnológicas presentes en la reunión manifestaron la necesidad de que se promulgue una regulación-legislación de la IA. El legislador norteamericano ha convocado nueve sesiones similares, en las que los líderes de las BigTech hablan de inteligencia artificial y los legisladores -que, previamente, han hecho preguntas escritas- escuchan y aprenden, antes de plantearse aprobar una legislación en el Congreso, sobre la que, a priori, estarían de acuerdo demócratas y republicanos.
Es inédito que poderes públicos y sector privado tecnológico estén de acuerdo en legislar sobre esta actividad. Remitiéndonos al inicio, existen serias preocupaciones sobre las consecuencias del desarrollo de la IA: desde la desaparición de cientos de millones de empleos (como se dijo en el World Economic Forum) a la, aún peor, “extinción de la humanidad”, como advirtió Sam Altman. Al fin y al cabo, como asevera Satya Nadella, CEO de Microsoft, la inteligencia artificial tiene tanta transcendencia histórica, económica, social y empresarial como la aparición de Internet; aúna ciberseguridad, bigdata, machine learning, cloud y otras tecnologías de la digitalización.
Precedentes tecnológicos que no fueron legislados, como las redes sociales, han tenido consecuencias nefastas. La Casa Blanca recordó el 23 de mayo los efectos negativos de las redes sociales, tras el fiasco de Cambridge Analytica en las elecciones presidenciales americanas de 2016. Facebook, Twitter, Instagram, TikTok, entre otras plataformas, han sido acusadas de “fomentar polarización política, dañar la salud mental de la juventud -ansiedad, depresiones, suicidios- y erosionar la privacidad de datos”. A posteriori, cuando cientos de jóvenes se han suicidado, algunos piensan que, algo de regulación sobre las redes sociales, hubiera sido necesaria. En España, casos recientes de falsas fotografías de menores han causado alarma social.
Las BigTech no están preocupadas porque la regulación pueda ser un palo en las ruedas de la innovación de la IA, ya que está muchísimo más avanzada de lo que pudiere pensarse. Por eso, en las deliberaciones en Washington hubo afirmaciones sobre cuestiones concretas de negocio que van más allá de los compromisos voluntarios de seguridad emitidos por el dúo Biden-Harris, o del marco de las reuniones en el Senado: proteger la propiedad intelectual, la privacidad de los datos, evitar la discriminación racial, los vínculos económicos con China, o el uso para fines militares, entre otros.
El negocio manda. Mark Zuckerberg (Meta) quiere modelos de IA en código abierto; pero Brad Smith, presidente de Microsoft, desea un modelo de licencias, a lo que se opone el CEO de IBM, Arvind Krishna. Estos y otros centenares de ejemplos muestran, que, más allá de “buscar el equilibrio entre proteger a los ciudadanos y aprovechar los beneficios de la IA”, las empresas han avanzado fuertemente en el desarrollo de la inteligencia artificial y su uso comercial. En Washington, en principio, solo debieron de hablar de IA generativa.
Europa tiene un enfoque más amplio y pragmático. Hace años que existe un marco jurídico digital europeo, con Digital Markets Act and Digital Services Act, entre otras leyes. El 14 de junio de 2023, a instancias de la Comisión y el Parlamento europeos, se presentó la AI Act a los Estados miembros para su discusión y eventual conversión en ley, a finales de este año.
Jorge Díaz Cardiel es socio director de Advice Strategic Consultants y autor de ‘El New Deal de Biden’
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días