_
_
_
_
_

EE UU, China y otros 26 países acuerdan cooperar en el desarrollo de una IA “confiable y responsable”

Elon Musk pide crear un “árbitro independiente” que vele por el desarrollo seguro de esta tecnología

Representantes de 28 países participan en la Cumbre de Seguridad de la IA en Bletchley Park, en Reino Unido.
Representantes de 28 países participan en la Cumbre de Seguridad de la IA en Bletchley Park, en Reino Unido.TOLGA AKMEN (EFE)

Un total de 28 países, entre ellos EE UU, China, Reino Unido, y la UE han acordado trabajar juntos para garantizar una inteligencia artificial “centrada en el ser humano, confiable y responsable”. El compromiso se ha sellado hoy en el contexto de la primera cumbre mundial de seguridad de la IA, un evento que durará dos días y que ha sido organizado y convocado por el primer ministro británico Rishi Sunak en Bletchley Part, el icónico centro de descifrado de códigos de la Segunda Guerra Mundial en el norte de Londres. El texto pactado, y ya bautizado como ‘Declaración Bletchley’, concluye que la vía para afrontar lo riesgos asociados a esta nueva tecnología es la “cooperación internacional”.

Representantes de múltiples gobiernos como los de India, Brasil, Japón, Arabia Saudita, Kenia, Nigeria y de países de la UE como Francia, Alemania y España, alertan en esa declaración conjunta sobre los potenciales “daños graves, incluso catastróficos” de la IA. Se trata de la primera declaración mundial sobre la necesidad de regular el desarrollo de la IA, pero en la cumbre se espera que haya desacuerdos sobre hasta dónde deben llegar los controles sobre esta tecnología, informa el FT. La declaración establece una agenda doble centrada en identificar los peligros que presenta la nueva tecnología y desarrollar políticas transversales para mitigarlos, e identificar las oportunidades y colaborar en la investigación científica de la IA.

Los representantes de los países asistentes incluyen Hadassa Getzstain, jefe de personal israelí del Ministerio de Innovación, Ciencia y Tecnología, y Wu Zhaouhui, viceministro chino de Tecnología. Gina Raimondo, secretaria de comercio estadounidense, dio un discurso de apertura en la cumbre y anunció la creación de un instituto de seguridad estadounidense para evaluar los riesgos de la IA. Una medida que viene recogida en la orden ejecutiva aprobada el pasado lunes por el presidente del Gobierno de EE UU, Joe Biden, que busca frenar los riesgos que plantea la IA. Dicho instituto reunirá a expertos para establecer directrices e identificar y mitigar los riesgos de esta tecnología.

En la cumbre también están presentes altos ejecutivos del sector tecnológico como Sam Altman, fundador y CEO de OpenAI, empresa creadora de ChatGTP; Elon Musk, máximo ejecutivo de X y Tesla; Marc Benioff, fundador y CEO de Salesforce; Demis Hassabis, CEO DeepMind (Google), y Rene Haas, CEO de Arm.

Precisamente, Musk pidió crear un “árbitro independiente” que vele por un desarrollo seguro de la inteligencia artificial, que calificó como una de las “principales amenazas para la humanidad”. El magnate estadounidense defendió la necesidad de regular la actividad de las empresas que desarrollan esos sistemas. “Creo que lo que realmente queremos hacer aquí es establecer un marco de trabajo para la vigilancia. Que haya al menos una tercera parte, un árbitro independiente, que pueda observar lo que están haciendo las compañías punteras en IA y dar la voz de alarma si les suscitan preocupaciones”, remarcó.

El dueño de X (antes Twitter) añadió que, por primera vez, “estamos en una situación en la que hay algo que va a ser más listo que el más listo de los humanos”. Musk advirtió que “no está claro si podemos de hecho controlar algo como eso, pero creo que debemos aspirar a guiarlo hacia una dirección que sea beneficiosa para la humanidad”. En su opinión, lo urgente es establecer un marco de trabajo para la vigilancia por parte de “terceras partes neutrales”, y una vez dado ese paso “se propondrán ciertas políticas o ciertas legislaciones, y eso se hará en colaboración con las compañías de IA”, informó Efe.

Antes de participar en la cumbre, la vicepresidenta de EE UU, Kamala Harris, urgió a atajar los riesgos más inmediatos de la IA, que afectan de manera desproporcionada a los más vulnerables de la sociedad. En un discurso en la Embajada estadounidense en Londres, la política llamó a considerar el “espectro completo” de problemas que puede provocar la nueva tecnología, incluyendo los riesgos “existenciales” para la humanidad.

Riesgos existenciales

“Cuando una persona mayor es expulsada de su plan de salud debido a un fallo en un algoritmo de IA, ¿no es eso existencial para él? Cuando una mujer se ve amenazada por una pareja abusiva con fotografías deepfake [creadas por IA] ¿no es eso existencial para ella?”, dijo la vicepresidenta. “Cuando hay gente en todo el mundo que no puede distinguir los hechos de la ficción debido a un alud de mitos impulsados por la IA y la desinformación ¿no es eso existencial para la democracia?”, continuó. Otro riesgo que Harris puso sobre la mesa fueron cómo la IA puede facilitar los ciberataques a una escala “más allá de lo que hemos visto”, ayudar a encontrar fórmulas para fabricar “armas biológicas que podrían poner en peligro las vidas de millones de personas”.

La líder estadounidense recalcó, no obstante, que la inteligencia artificial tiene el potencial de hacer un “profundo bien” a la sociedad, ayudando a crear nuevos medicamentos, “curar enfermedades que han perseguido a la humanidad durante generaciones”, mejorar la producción agrícola y “salvar incontables vidas con la lucha contra la crisis climática”. Según la vicepresidenta de EE UU, “la historia demostrará que este era el momento en el que tuvimos la oportunidad de sentar las bases del futuro de la IA. Y la urgencia del momento debe empujarnos a crear una visión colectiva sobre cómo debe de ser ese futuro, en el que la IA se utiliza para avanzar en los derechos humanos y la dignidad humana”, subrayó.

Por su parte, Wu Zhaouhui, en representación de China, indicó que las tecnologías de IA son “inciertas, inexplicables y carecen de transparencia”, y se mostró dispuesto a aumentar la colaboración en esta materia para ayudar a construir un “marco de gobernanza internacional”. “Los países, independientemente de su tamaño y escala, tienen los mismos derechos para desarrollar y utilizar la IA”, añadió.

Michelle Donelan, secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, aseguró que la cumbre marca un momento histórico no solo para su país sino para el mundo, y subrayó que la presencia de China era muy importante. Según recoge el FT, cuando se le preguntó si el Reino Unido se estaba quedando atrás de EE UU en establecer una regulación para las empresas que desarrollan tecnología avanzada de IA, Donelan aseguró: “No creo que sea útil establecer plazos arbitrarios para la regulación... tiene que haber un enfoque empírico”. La política británica añadió que Reino Unido está haciendo cosas que son más rápidas que la legislación, señalando el trabajo de su gobierno para alentar a las empresas a publicar sus políticas de seguridad de IA.

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, señaló que “este foro tiene lugar en un momento muy oportuno. Ya hay conciencia extendida de que urge regular los riesgos de la IA”. La representante español, que copresidirá el nuevo órgano de la ONU de gobernanza en Inteligencia Artificial, cree que si se espera a regular la IA cuando ya se hayan producido los daños, “no tendremos capacidad para revertirlos”.

En la cumbre también está previsto que participen Dario Amodei, CEO de Anthropic, rival de Open AI, y la presidenta de la Comisión Europea Ursula von der Leyen y el secretario general de la ONU Antonio Guterres.

Desde el lanzamiento de ChatGTP y otras IA generativas, capaces de producir en tiempo real textos, vídeos, sonidos o imágenes a partir de una petición, el temor a los efectos de esta tecnología se ha desatado y se ha desatado una carrera por regularla. El Gobierno británico propone crear un grupo de analistas internacionales, inspirado en el modelo del panel de expertos de la ONU sobre el cambio climático (IPCC).

El principal reto al que se enfrentan es conseguir definir salvaguardias sin poner trabas a la innovación en los laboratorios de IA y los gigantes tecnológicos. La UE espera contar con su propia regulación de la IA para final de este año.

La cumbre no ha estado exenta de críticas. Un centenar de organizaciones, expertos y militantes internacionales se han lamentado en una carta abierta dirigida al primer ministro británico que el evento se celebre “a puerta cerrada”, dominado por los gigantes tecnológicos y con un acceso limitado a la sociedad civil.

Próxima cumbre

El Ministerio de Economía francés anunció este miércoles que Francia acogerá en París la próxima edición de la cumbre sobre la seguridad de la inteligencia artificial dentro de un año. “Francia se sentirá honrada de tomar el relevo británico organizando la próxima cumbre”, declaró el ministro francés de Economía, Bruno Le Maire. “Francia es un líder europeo en el desarrollo de modelos de inteligencia artificial. El gobierno está junto a todos los actores públicos y privados para promover la innovación y regular [la tecnología] en función de los riesgos que plantean estos modelos”, subrayó por su parte Jean-Noël Barrot, ministro de Digitalización francés. También Corea del Sur será el anfitrión de una mini cumbre virtual sobre el tema en los próximos seis meses.

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

_
_