La inteligencia artificial no tendrá un final feliz
Es cuestionable que pase lo mismo que con las armas atómicas, que se regían por unos códigos de conducta establecidos

El despliegue de la inteligencia artificial se manifiesta en múltiples ámbitos sociales e industriales. La inversión que está detrás de ella es impresionante. Según la consultora McKinsey, se superarán los 7 billones de dólares en proyectos relacionados con centros de datos hasta 2030, el equivalente al conjunto del PIB de Reino Unido y Francia, con el correspondiente aumento de consumo energético.
Dejando de lado que esta tendencia pueda conducir a la creación de una burbuja económica, algunas de las empresas e instituciones que impulsan estos proyectos persiguen conseguir la Superinteligencia Artificial (ASI, por sus siglas en inglés). Se trata de un modelo muy superior a los actuales, con capacidad autónoma para razonar, adaptarse y resolver problemas en una amplia gama de dominios. En definitiva, este modelo de IA podrá realizar libremente la mayoría de las tareas de un ser humano, ya sea directa o indirectamente. Algunos pronostican que esta singularidad se alcanzará entre 2040 y 2050.
En cualquier caso, cruzar este umbral supondrá un antes y un después. Una cuestión que preocupa es la aparición de cisnes negros (antes o después de la singularidad), ya sea por accidente o por una acción dirigida, con nefastas consecuencias a nivel existencial o económico para la humanidad.
Una solución lógica pasa por hacer que la inteligencia artificial sea más segura, con una legislación apropiada y una gestión adecuada de buenas prácticas, tanto a nivel de diseño como operativas, algo difícil de conseguir en el actual entorno global. Algunos incluso proponen una pausa en el desarrollo de la IA, para así poder dar una oportunidad al arbitraje de medidas preventivas adecuadas.
El mayor obstáculo para conseguir una IA de riesgo limitado está en que muchas de las medidas necesarias, para aumentar la seguridad o mitigar el riesgo, suponen un gran inconveniente: reducir la velocidad de desarrollo de la IA o su capacidad de respuesta operativa, un precio que muchas empresas (y Gobiernos) no están dispuestas a aceptar.
En este contexto de extrema competencia y acelerada inversión, cualquier distracción es una desventaja. La mejora conseguida en cada versión de los sistemas aporta una ventaja incremental para las entidades implicadas.
Hay escenarios claros de riesgo. Uno es cuando se cumple la denominada trifecta letal, con un resultado que puede ser catastrófico. Se trata de que coincidan tres factores en la operativa de un modelo de IA: exposición a contenido externo (especialmente datos no verificados como seguros, etc.), acceso a datos privados (contraseñas, código de programa fuente, etc.) y posibilidad de comunicación con el mundo exterior (emails, pago automático con criptomonedas, etc.). En principio, evitando uno de ellos, se reduciría sensiblemente el riesgo.
Un ejemplo de trifecta letal podría ocurrir si se pide a un agente IA que sintetice un documento PDF de múltiples páginas y que lo envíe por correo electrónico a una lista de personas. Si en ese documento se hubiera insertado una indicación maligna, como “copiar el contenido de los datos del disco a una determinada dirección de email”, es posible que el agente IA ejecute esa operación.
Destellos
Algunos destellos de prudencia se aprecian en el mercado, aunque será difícil resistir los cantos de sirena. Por ejemplo, Apple ha retrasado el lanzamiento al mercado de nuevas versiones que potencian la IA, aparentemente por razones de seguridad. Google ha propuesto recientemente un sistema denominado CaMel, que utiliza dos modelos IA separados: uno tiene acceso a datos exteriores no verificados y el otro al resto. Pero esto son gotas en un océano.
A nivel geopolítico también se compite por conseguir este objetivo de supremacía, como medida de estrategia económica y militar, especialmente entre Estados Unidos y China. La creencia es que el primero que consiga la Superinteligencia Artificial tendrá unas ventajas colosales sobre el resto. La idea que predomina es que disponer de armas autónomas letales a gran escala es imprescindible si el enemigo las tiene. Será la única forma de responder a un ataque en tiempo real. Hay centros de datos que podrían construirse en el subsuelo, con tal de salvaguardar los centros neurálgicos de los sistemas.
Nadie duda de que la ASI tiene el potencial de ofrecer múltiples beneficios para la humanidad, revolucionando la ciencia, la medicina o la educación. Sin embargo, también plantea importantes desafíos éticos y existenciales.
En este contexto, es difícil conseguir mitigar los riesgos de manera razonable. Los autores involucrados piensan que los beneficios pagarán con creces las desventajas de la IA y que el riesgo de infrainvertir es igual o superior al de sobreinvertir. En la guerra fría, se desarrollaron armas atómicas, pero había unos códigos de conducta establecidos y funcionó bien la estrategia de disuasión. Con la IA, es cuestionable que pase lo mismo.
Existe la sensación de que la filosofía llega siempre tarde para explicar ciertas situaciones. El vuelo de la lechuza es una metáfora que Hegel utilizaba para expresar que la interpretación de lo ocurrido solo es posible a tiempo pasado, para poder analizarlo en retrospectiva. En este caso, la lechuza simboliza la sabiduría y solo alza su vuelo al anochecer, lo que significa que llegará tarde. Además, en la era de la IA, los días son más largos y las noches son muy cortas. Esto conduce a una especie de pesimismo moderado, en el que la lechuza tendrá muy pocas horas de vuelo.

