ChatGPT: "Lo siento, Elon. Me temo que no puedo hacer eso"
No es tan sencillo pausar o detener el progreso de la inteligencia artificial ante las primeras señales de alarma
En 1961, los físicos estadounidenses Carol Lockbaum y John L. Kelly Jr. programaron una computadora IBM 7094 para cantar, mediante una voz sintetizada por ordenador y un arreglo musical compuesto por el ingeniero eléctrico Max Mathews, la canción Daisy Bell. La grabación de esta canción infantil se convirtió en el primer registro de una voz generada por ordenador interpretando una obra musical, de la que fue testigo el afamado escritor de ciencia ficción Arthur C. Clarke en su visita al laboratorio en el que se encontraba dicho ordenador.
Este quedó tan impresionado por la experiencia que la referenció en su obra 2001: Odisea en el espacio, siendo Daisy Bell la canción que inquietantemente canturrea la inteligencia artificial HAL 9000 en los instantes previos a ser desactivada por su comportamiento peligroso.
En poco más de sesenta años se ha pasado de proporcionarle un arreglo musical a un ordenador primitivo para que sintetice una única canción en un laboratorio, a darle acceso a prácticamente toda la información disponible en Internet a una inteligencia artificial (IA) con un poder de procesamiento millones de veces superior, y permitiendo que cualquier persona interactúe y chatee con este programa informático.
Nos referimos a la revolución recientemente protagonizada por el fenómeno de chatbots y programas de inteligencia artificial como Dall-e, ChatGPT o Bard. No hace falta ser un maestro de la ciencia ficción para anticipar que el uso y acceso desmedido a programas de inteligencia artificial con estas capacidades no está exento de riesgos, y eso es precisamente sobre lo que han advertido Elon Musk, Steve Wozniak y otros expertos en su carta abierta en la que incitan a detener el desarrollo y experimentos sobre sistemas de IA más poderosos que la actual versión GPT-4 del ChatGPT durante, por lo menos, seis meses.
En dicha carta se señalan, particularmente, los peligros que el uso de inteligencia artificial representa para la proliferación de desinformación y propaganda, el monopolio y la falta de transparencia de sus desarrolladores, y las consecuencias negativas de su uso para la automatización de labores hasta ahora desarrolladas por seres humanos.
Y no les falta razón: en el breve escarceo del público general con la inteligencia artificial ya se han presentado demandas por infracción de derechos de autor en plataformas de generación de imágenes, acusando a los desarrolladores de Stable Diffusion de nutrir su IA mediante bases de datos de millones de imágenes sin la licencia correspondiente; imágenes falsas de una violenta detención del ex-presidente estadounidense Donald Trump sembraron la confusión en redes sociales; y la autoridad italiana de protección de datos ha bloqueado ChatGPT en el país, citando como motivos la falta de información a usuarios y a todos los interesados de quienes se recogen datos personales, la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos, y que las informaciones generadas por ChatGPT no siempre corresponden a la realidad.
Ante estos comienzos, resulta más que razonable la propuesta de pausar el desarrollo de sistemas de inteligencia artificial más potentes, ya que empieza a estar claro que no es seguro que los sistemas de IA actuales sean perfectamente conformes con los derechos de los usuarios, los creadores de contenido y el ordenamiento jurídico digital. De hecho, ni siquiera hay planteamientos legislativos serios que prevean qué hacer en el momento en el que una inteligencia artificial se presente como una personalidad autoconsciente (como un ingeniero de Google afirmó el pasado año que había ocurrido con la inteligencia artificial LaMDA).
Sin embargo, la consciencia social del enorme potencial económico que la inteligencia artificial supone hace que sea realmente complicado que legisladores y desarrolladores atiendan al llamado de la carta abierta y pausen el desarrollo de sistemas de inteligencia artificial. En concreto, las grandes compañías que más han invertido en IA – OpenAI, Google, Microsoft, MidJourney, entre otras – saben que la competencia en estas primeras etapas del desarrollo de sistemas informáticos es crítica, y difícilmente apostarán por someterse voluntariamente a quedarse seis meses atrás de sus competidores. En estas circunstancias, queda en manos de los usuarios y las empresas un uso responsable de estos sistemas, así como una labor de información sobre las limitaciones y consecuencias de su uso.
Aparentemente la implantación de la inteligencia artificial en nuestra sociedad ha llegado a un punto en el que no es tan sencillo pausar o detener su progreso ante las primeras señales de alarma, como si de la IA ficticia HAL 9000 se tratara. Lo cierto es que a lo largo de la historia de la humanidad los adelantos tecnológicos han ido siempre muy por delante de su regulación legislativa, y parece que la inteligencia artificial no será una excepción. Queda por ver si los interrogantes que se nos plantean en esta encrucijada pueden ser resueltos como siempre hemos hecho, o si de verdad nos veremos obligados a pausar su desarrollo para evitar daños mayores.
Jaime Delgado, asociado del departamento de Commercial y Privacy & Data Protection de Bird & Bird.