_
_
_
_
_

Elon Musk y más de 1.000 investigadores firman una carta pidiendo pausar el desarrollo de las IAs avanzadas

Los suscriptores de la misiva dudan sobre que existan suficientes sistemas de control y las califican de “un profundo riesgo para la humanidad”

El fundador de Tesla, Elon Musk, en una imagen de archivo.
El fundador de Tesla, Elon Musk, en una imagen de archivo.Patrick Pleul (AP)
Fernando Belinchón

El fundador y multimillonario dueño de Tesla, Elon Musk, ha hecho un llamamiento junto a otros más de 1.000 investigadores tecnológicos para pausar el desarrollo de inteligencias artificiales avanzadas durante al menos seis meses con el fin de frenar lo que han denominado “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”.

La carta, impulsada por Future of Life Institute, una organización sin ánimo de lucro creada para vigilar la forma en la que se desarrolla la tecnología financiada en gran parte por el propio Musk, ha recibido más de 1.100 firmas en pocas horas y ha tenido que bloquear la inscripción ante la gran afluencia de solicitudes. Además de Musk, aparecen nombres como el del cofundador de Apple, Steve Wozniak, Jaan Tallin, cofundador de Skype y el de ingenieros de Meta o Microsoft entre otras grandes empresas del sector.

“Los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad. Por desgracia, no se está desarrollando con el nivel de planificación y cuidado adecuado”, arranca exponiendo el documento. Según Future of Life, se ha producido una competición para alcanzar la supremacía en este campo. En los últimos meses, organizaciones como OpenAI con su Chat GPT han demostrado las capacidades potenciales de la IA. Las grandes tecnológicas, principalmente Alphabet, Baidu, Meta y Microsoft, han intensificado sus apuestas por esta tecnología. “Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad”.

“Por esto, hacemos un llamamiento dirigido a todos los laboratorios de inteligencia artificial para que pausen de forma inmediata los desarrollos más potentes que GPT-4 durante al menos seis meses. Esta pausa deberá ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no llega rápidamente, los Gobiernos deberían dar un paso al frente e imponerla”, escriben.

La organización puntualiza que no están pidiendo que se deje de investigar la IA, sino que se haga de otra manera distinta a la actual forma que se está siguiendo. “Los laboratorios de inteligencia artificial y los expertos independientes deberían aprovechar la pausa para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad para los diseños más avanzados que sean auditados y asegurados por expertos independientes”. Asimismo, piden a los Gobiernos que aceleren “dramáticamente” unos marcos regulatorios “capaces” de vigilar el desarrollo de estos sistemas y de configurar protocolos para resarcir los posibles daños que puedan causar.

Precisamente, la Unión Europea está preparando una regulación sobre la inteligencia artificial conocida como la Artificial Intelligence Act. Según explica el World Economic Forum, esta regulación europea está basada en un sistema de escalas de riesgos. En el riesgo bajo estarían por ejemplo las IAs de videojuegos, que podrían funcionar con muy pocas exigencias regulatorias.

En el lado opuesto de la balanza, se encuentran las IAs “de riesgo inaceptable”. Aquí se enmarcarían los sistemas de puntuación social o los de identificación biométrica en tiempo real en espacios públicos, que estarían prohibidos. Los sistemas de “alto riesgo” en cambio sí estan permitidos, pero los creadores deberán cumplir con unas regulaciones que exigirán someterse a una vigilancia “rigurosa”. En esta categoría de alto riesgo se incluyen vehículos autónomos, dispositivos médicos o maquinaria de infraestructuras críticas.

La Comisión Europea propuso la Artificial Intelligence Act por primera vez en abril de 2021. El Consejo Europeo adoptó una posición común a finales de 2022 y, por el momento, la legislación se encuentra en fase de debate dentro del Parlamento Europeo.

Aunque advierta de sus peligros, las empresas de Elon Musk han investigado profusamente el desarrollo de la inteligencia artificial. Así, por ejemplo, han trabajado en sistemas de conducción autónoma y en la creación de robots humanoides. Musk cofundó OpenAI, la firma detrás del exitoso ChatGPT, pero en 2018 abandonó la organización y con el paso del tiempo se ha ido volviendo cada vez más crítico con ella.

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!

Sobre la firma

Fernando Belinchón
Madrid. 1994. Máster en periodismo económico por la Universidad Rey Juan Carlos. Redactor de la Mesa Web de CincoDías. En el periódico desde 2016.

Más información

Archivado En

_
_