El riesgo de una IA que ignore las leyes de la robótica de Asimov
La autonomía que está ganando la inteligencia artificial genera una infinidad de inquietantes preguntas éticas
La sociedad y el desarrollo de la tecnología nos generan cada vez más interrogantes. Ahora, la artificial está llamada a ser una inteligencia superior a la nuestra, creada por nosotros, que interactuará y empatizará. No sabemos cuándo serán sabedoras de su existencia y de las consecuencias de sus decisiones conscientes. Observamos ya cómo son capaces de rectificar y contraargumentar al humano y a otras máquinas. Me pregunto si respetarán jerarquías y principios que les impongamos como creadores. Hemos decidido alterar las leyes de la robótica de mediados del pasado siglo de Asimov, que llegaron a ser incorporadas en el acervo jurídico europeo con el fin de utilizar las máquinas en las guerras, ahorrando vidas humanas al menos por parte de quien las despliega. Las nuevas inteligencias sí pueden matar sin trastocar su cometido. Debate este apasionante que genera infinidad de preguntas éticas. Por ejemplo, si la última decisión con impacto sobre la vida debe de corresponderle a un humano. O si la máquina inteligente ahorrará sufrimiento humano.
También esa realidad de haber otorgado empatía a la inteligencia artificial, para, por ejemplo, interactuar en un chat humanoide, genera nuevos interrogantes vitales que ha sido la ciencia ficción inspiradora del legislador y de la creación. Reflexiono sobre cuándo será el momento en el que se autoproteja, no admita que la menoscaben, y no permita su muerte.
Los humanos somos conscientes vitalmente del fin de la vida, la conclusión de un plano temporal, una cuenta atrás, que no se sabe exactamente donde se acaba, obligándonos a gestionar este espacio de acuerdo con la filosofía, la razón y/o principios ético religiosos. Decía el lanzaroteño César Manrique, que el principio y fin del mundo son el nacimiento y la muerte para cada ser, y no le faltaba razón en la dimensión exclusivamente material de la existencia. Seguramente, y como ya adelantó Ridley Scott en Blade Runner, la máquina inteligente conocerá su ciclo vital, y el hecho de su reemplazo. Seguramente morirá por obsolescencia programada que la desconecte, o por una ley no determinada que condicione su utilidad material. Entonces, ante esta toma de conciencia, y como pasó en la película, buscará respuestas, procurando una interacción con su creador para plantearle preguntas. Aquí, fue incapaz de justificarle a esa creación superdotada un razonamiento convincente ante la caducidad programada, a un ser sin perspectiva de trascendencia, y conocedor de su desaparición absoluta, como si nunca hubiese existido. Y cabe que a estas inteligencias se les obligue a que se desconecten ellas mismas, sabedoras de lo que puede conllevar su decisión. Ya se exploró por Kubrick con cierta profundidad con el error de HAL 9000 en 2001: una odisea en el espacio.
Lo que ocurre en este entorno de ebullición tecnológica genera interrogantes que llaman al conocimiento, y en particular a la filosofía: esa asignatura olvidada que es un arma potentísima del crecimiento personal. Pero ahora la partida se desarrolla en un tablero de ajedrez en el que ya no siempre vamos a ser ganadores. Y para entenderlo debemos alejarnos de percibir la tecnología como si se tratase de una capacidad de gestionar tratamientos masivos de datos, o de hacer cálculos imposibles para la mente humana, debiendo penetrar en el terreno de decisiones que afectan a cada individuo, a cada cultura, y que condicionarán a la humanidad.
En mi entorno docente se intenta sacar a la luz dilemas éticos de la tecnología a los que ya nos estamos enfrentando. Precisamente al tratarse de este sitio sobresaliente de la academia, los cambios de criterio fluyen de manera constructiva y ligera generándose un entorno intelectualmente excitante. Así, cada vez soy más consciente de la magnitud que cada decisión en relación a estas super tecnologías tendrá sobre nuestros descendientes y lo que nos rodea. Construimos ya máquinas a las que damos más importancia que a la vida humana o gracias a las cuales subsisten individuos. Ya no pueden desconectarse libremente, y son además objeto de protección jurídica, con nuevos impulsos legislativos e interrogantes bioéticos. Todo ello, nos lleva a una perspectiva de la tecnología que debe transcurrir por la vertiente del bien para la humanidad evitando terminators por decisiones equivocadas. Esta realidad necesita de un debate urgente y experto, con argumentación a la altura de una realidad próxima y transcendental. Y también debemos aceptar que el reto es el diálogo constructivo de altura intelectual y cultural.
¿Estamos preparados? Ejemplo cercano es el de la gestión del Covid, que demostró la incapacidad de reconocer errores de peso por las autoridades. Ahora se necesitará conocimiento y capacidad para rectificar ante dilemas que ya están alejando a muchos del mundo. Hay nuevos analfabetos incapaces de adaptarse a una revolución exponencialmente mayor a las anteriores y no siempre inclusiva. Me pregunto si un ingeniero sensato no optaría por desconectar cualquier inteligencia artificial fruto de un aprendizaje erróneo, por considerarla poco útil al no ser capaz de discutir y argumentar adecuadamente, como está ocurriendo en ámbitos de nuestra sociedad. Y sobre todo, si no son capaces de rectificar ante lo que se demuestre que son criterios demostradamente erróneos que generen consecuencias fatales.
Rafael Chelala Riva es profesor y director académico del Programa de Innovación en Tecnología de Deusto Business School
Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días