_
_
_
_
_
Entrevista con el autor de 'Sapiens' y 'Homo deus'

Yuval Noah Harari: “Google elegirá a tu pareja; te conocerá mejor que tú”

El historiador israelí dibuja un futuro cercano en el que el' big data' es la religión universal, desafiamos la mortalidad y cedemos nuestra intimidad a las máquinas para que cuiden de nosotros

Yuval Noah Harari, el pasado jueves en Madrid
Yuval Noah Harari, el pasado jueves en MadridPABLO MONGE
Ricardo de Querol

Se agarra a la historia para dibujar el futuro. Parece un optimista convencido: sostiene que la humanidad está en su mejor momento, más cerca que nunca de vencer a la guerra, el hambre y la peste. Así que ahora abordaremos metas más ambiciosas: la inmortalidad, la felicidad, algo parecido a la divinidad. Pero lo que ve venir amarga la sonrisa a cualquiera: las máquinas (los algoritmos, por ser precisos) sustituirán a casi todos los trabajadores, desmontarán la democracia, controlarán nuestras vidas de principio a fin. ¿Para nuestro bien?

El historiador Yuval Noah Harari (Haifa, Israel, 1976), doctor por Oxford y catedrático en la Universidad Hebrea de Jerusalén, escribía sobre la Edad Media hasta que saltó a la fama en 2014 por el ensayo Sapiens. De animales a dioses (Debate), una breve, provocadora y escéptica historia de la humanidad. Su idea central: nuestra especie ha llegado lejos gracias a la capacidad de crear ficciones que resultan útiles. La religión o la nación, como el capitalismo o los derechos humanos, son mitos que solo funcionan porque creemos en ellos. Fue un superventas: un millón de copias.

La continuación llega ahora a las librerías: se llama Homo deus. Breve historia del mañana (también en Debate). En su pronóstico de un futuro muy cercano, Harari augura que la bioingeniería, la nanotecnología y la inteligencia artificial permitirán superar el Homo sapiens. Vendrá algo más poderoso que nos mejorará o nos tirará a la cuneta.

Harari conversa con Cinco Días en Madrid, segunda escala, tras Londres, de su gira para presentar una obra que rompe moldes y abre muchos debates.

PREGUNTA. Su visión del futuro asusta.

RESPUESTA. Tenemos un potencial muy positivo y muy negativo. Trato de ser realista para entender qué está pasando e influir en la dirección que toman las cosas.

P. La inteligencia artificial ¿va a tomar el control de nuestras vidas? ¿Tenemos que renunciar a la intimidad? ¿Elegirá Google a la pareja de nuestros hijos?

R. Bien podría ser así. Google, o alguna compañía de ese estilo, tomará las principales decisiones sobre la salud, sobre los niños o sobre nosotros. No estamos lejos de que un sistema nos monitorice 24 horas al día con sensores biométricos que midan nuestro azúcar, nuestra tensión, que detecten el cáncer desde el principio. La gente dará su intimidad a cambio de tener una mejor salud. Si le das tu intimidad a Google, no tendrás que esperar cinco años a que el doctor te diga que tienes cáncer. La gente va a preferirlo.

Lo mismo puede pasar en otros campos de la vida, incluso la vida romántica. Si un algoritmo te monitoriza todo el tiempo, te conoce mejor que tú. Y puede hacerte recomendaciones sobre con quién tener una cita o casarte. Al final, será una cuestión empírica: si el sistema funciona bien y te hace buenas recomendaciones, lo escucharás cada vez más. Es algo que está empezando a pasar con cosas más simples, como cuando conduces en tu ciudad. Antes te fiabas de tu propia experiencia, conocimiento o instinto, pero ahora, con aplicaciones como Google Maps en nuestros teléfonos, solo escuchas, y si te dice que gires a la izquierda, giras a la izquierda. ¿Por qué? Porque funciona y llegas más rápido a la estación de tren. Esto va a pasar con importantes decisiones, como elegir qué estudiar en la universidad, un trabajo o una pareja.

Un algoritmo será capaz de mejorar tus capacidades y anticiparse a tus deseos. La autoridad será suya

P. Usted contempla que las máquinas se impongan a los humanos, como en 2001: odisea del espacio. Si los hombres han creado esos algoritmos, ¿por qué no van a saber controlarlos?

R. Porque hemos creado máquinas que son capaces de hacer cosas que sus creadores no entienden. Un ejemplo de este año: Alphago es un software que juega al go, una especie de ajedrez chino que se basa más en la intuición que en el cálculo. Este año, Alphago derrotó al campeón haciendo cosas increíbles: utiliza trucos y estrategias que los humanos nunca han usado, movimientos propios de un genio. Ni siquiera la gente que lo diseñó entendía cómo lo hizo. Alphago solo conocía las reglas básicas del juego y aprendió todo lo demás por sí solo. Watson, un médico de inteligencia artificial, puede aprender a diagnosticar tumores de pulmón mejor que los médicos humanos. No es que el ingeniero que lo creó sea un genio de la medicina, quizás no sepa de medicina en absoluto. Es que aprenden de su propia experiencia.

P. Y también aprenderán a manejar, o manipular, a los humanos.

Un ingeniero puede crear un médico de inteligencia artificial sin saber de medicina en absoluto

R. Es fácil entenderlo mediante la medicina. La gente quiere vivir más años con mejor salud. Para conocer qué ocurre en un cuerpo humano hay que recopilar una enorme cantidad de datos que el cerebro humano no podría abarcar. Una vez que un algoritmo conoce tu cuerpo y tu cerebro tan bien, será capaz de mejorarte en muchas capacidades, podrá adelantarse a tus deseos y entender tus sentimientos mejor que tú. Entonces la autoridad se transfiere de ti al algoritmo. Porque podrá tomar mejores decisiones de las que tomas tú. En el campo de la educación, cada alumno tendrá un mentor algorítmico que sigue al niño 24 horas al día y que hace un traje a medida a sus cualidades y capacidades únicas. Una startup israelí llamada Mindojo está haciendo exactamente eso. En 10 o 15 años, esto significará una mejor enseñanza que la de los profesores humanos. O pensemos en el sistema legal: los jueces demasiado a menudo tienen prejuicios inconscientes que hacen que, por ejemplo, impongan penas más duras a delincuentes negros que a los blancos. O que dicten sentencias más severas antes que después de la hora de comer. Un algoritmo evitaría todo prejuicio, salvo que se le programe con el prejuicio.

P. ¿Qué va a cambiar en nuestro sistema económico? Cuando la gente viva 150 años, cuando los robots asuman la mayor parte de los trabajos... Entonces aparecerá una clase social que usted llama de los inútiles.

R. Ese es uno de los grandes riesgos, si no el mayor. Cuando los algoritmos mejoren el rendimiento de los humanos en la mayor parte de los empleos, miles de millones de personas serán expulsadas del mercado laboral y aparecerá una clase social de los que no son útiles. Por supuesto, nacerán nuevos empleos. No necesitaremos conductores de taxi o autobús cuando tengamos la conducción autónoma, no necesitaremos traductores para la mayor parte de las tareas porque Google Translator lo hará mejor. Pero aparecerán nuevos empleos en el diseño, ingenieros de inteligencia artificial o expertos en realidad virtual. ¿Podrán los conductores de taxi reconvertirse en ingenieros?

Tradicionalmente, la vida se dividía en dos periodos; en el primero, la infancia y la juventud, principalmente aprendes, adquieres conocimientos; y en el segundo, la madurez, principalmente trabajas y aplicas esos conocimientos. Eso será irrelevante en el siglo XXI. Lo que hayas aprendido en el colegio no te valdrá de nada. Si tu trabajo desaparece, tus habilidades profesionales en él ya no valdrán nada. Y la vida será más larga, lo que implica un problema. Si vivimos 120 años, y no te jubilas a los 65 años sino a los 95, tendremos que gestionar un proceso más largo de cambio. ¿Seremos capaces de reinventarnos una y otra vez? Hay una dificultad mental. Para una máquina eso nunca será un problema. A los humanos nos es más difícil aprender cosas nuevas según nos hacemos mayores.

P. ¿Es el fin del sistema liberal?

Harari
HarariPABLO MONGE

R. Puede serlo por dos razones. Primero, porque el liberalismo se basa en dar la autoridad al individuo para que tome las decisiones sobre su vida o sobre el Gobierno. Cuando los algoritmos te conozcan mejor que tú mismo, la autoridad se habrá transferido a ellos. La segunda razón es que, cuando los humanos pierdan el valor económico, los Gobiernos tendrán menos motivos para invertir en educación, salud o bienestar para las masas. Los Gobiernos no lo hacen por motivos éticos, sino económicos. El motivo por el que países como Brasil, Turquía o incluso China han liberalizado su sistema económico no es por convencimiento ético, sino porque para tener una economía próspera hay que proteger ciertas libertades individuales. En el siglo XXI, el liberalismo y el capitalismo no tendrán motivos para proteger las libertades y a los individuos, porque no necesitarán a la mayoría de la gente.

Y la intimidad, que era una idea central del liberalismo, se va a convertir en una barrera al desarrollo económico y tecnológico. Por ejemplo, la primera organización que logre crear una base masiva de datos genéticos dominará el mercado. Si una corporación tiene datos genéticos de 10 millones de individuos, dará mejor información que otra que tenga 100.000. El problema para crear esa base de datos genéticos es la privacidad. Si Google quisiera hacerlo, se encontraría con ese problema; para el Gobierno chino sería más fácil obligar a 10 millones de ciudadanos a donar su ADN para crear la mayor base de datos genética del planeta. Todo el mundo tendría que ir a la base de datos genéticos nacional de China porque sería la mejor del mundo.

P. Usted defiende que el capitalismo se impuso al comunismo porque era un sistema más eficiente de gestionar los datos de forma descentralizada. Pero si el capitalismo también va a quedar obsoleto, ¿qué lo sustituirá?

R. En el presente, no existe una alternativa seria al capitalismo. La que había, el comunismo, se derrumbó. Nadie tiene idea de qué podría reemplazarlo. Nadie sabe cómo será el sistema económico mundial en 2050, o de cómo será el mercado laboral. Depende de muchos factores. Un supuesto: si la economía abandona el dólar y el euro por el bitcoin, la moneda electrónica, o algo similar, los Estados dejarán de tener política monetaria. No se podrá controlar artificialmente el valor de una moneda. Algunos creen que eso será bueno porque defienden hasta el extremo el mercado libre. Pero, en la última crisis financiera de 2008, una de las herramientas más importantes de los Estados ha sido la política económica. Los bancos centrales crearon billones de euros, dólares o yenes para prevenir que la crisis se agudizara. Una decisión gubernamental no podrá crear bitcoins.

Miles de millones de personas van a ser expulsadas del mercado laboral y no serán capaces de reinventarse

Otro peligro: si la economía se va al bitcoin, el Gobierno perderá la capacidad de seguir las transacciones financieras y gravar con impuestos los ingresos. Será más difícil que sepan cuánto gano yo o cuánto gana Toyota. Sería la mayor revolución, porque nunca ha habido Estados sin sistemas impositivos. En vez de gravar los ingresos, habrá que gravar otra cosa. La tecnología puede crear tantas revoluciones que no sabemos cómo será la economía en 2050.

P. Los algoritmos ya ejercen cierto papel en los mercados financieros. La semana pasada pudieron tener que ver con el último flash crash, esa caída súbita que afectó a la libra. O sea, las máquinas también se equivocan.

R. Cuando te mueves del control humano al control de los algoritmos no es porque sean perfectos, sino solo porque son mejores. Las crisis financieras han venido de errores humanos. Los algoritmos tendrán un papel cada vez mayor también en la economía.

P. ¿Cómo será la nueva estructura política que reemplazará a la democracia y a las dictaduras?

R. No sabemos cómo será esa forma, pero sí sabemos que las actuales instituciones políticas no están adaptadas a las condiciones del siglo XXI. La cantidad de datos que tienes que recoger y procesar hoy crece a tan enorme velocidad que las instituciones no son lo suficientemente rápidas ni eficientes para mantener el control. No entienden qué está pasando en el mundo. Los votantes en los países democráticos están dándose cuenta de que los Gobiernos pierden el control. Los que votan a candidaturas antisistema, sea Donald Trump, Podemos en España o el Movimiento Cinco Estrellas en Italia, saben que sus Gobiernos se han vuelto irrelevantes. Así que el poder se alejará de las instituciones políticas salvo que creemos nuevas instituciones mejor adaptadas al cambio tecnológico.

P. ¿El big data será la nueva religión, ese dogma que usted llama dataísmo?

El ‘big data’ es la nueva religión. Es la fuente suprema de autoridad

R. Ya está pasando. La religión no trata tanto sobre Dios como sobre la autoridad. Cuando tienes que tomar decisiones en tu vida, ¿hacia dónde te vuelves a buscar la solución? En la Edad Media, la fuente de autoridad suprema era Dios, así que buscaban en la Biblia, en el Papa o en el cura. En el siglo XX, la gente creía que la fuente suprema de autoridad era el propio ser humano. El humanismo dice que, si tienes un problema, tienes que ir a tu libre voluntad, o a las elecciones democráticas. En el siglo XXI, la autoridad son los algoritmos del big data. Cuando te enfrentas a un problema, recurres a Google porque lo sabe todo de ti. Por ejemplo, los humanos están causando el cambio climático, pero solo los algoritmos pueden salvarnos de él. Ya existe una startup que ha diseñado un sistema que controla y gestiona la producción y el consumo eléctrico de forma más eficiente. Podríamos reducir la contaminación y ahorrar millones dejando que un algoritmo, y no un humano, controle eso.

P. Usted defiende que vivimos el mundo más seguro que hemos conocido, a pesar del terrorismo. Y dice que las respuestas al terrorismo suelen ser más peligrosas que el terrorismo en sí.

R. Todavía hay conflictos violentos, pero menos que en cualquier momento de la historia. Un ciudadano europeo tiene más posibilidades de morir por comer demasiado en el McDonald’s que por un atentado de Al Qaeda o el ISIS. Unas 70.000 personas mueren cada año por la violencia terrorista, comparado con tres millones que mueren de obesidad y enfermedades relacionadas. La reacción al terrorismo suele crear más problemas que el terrorismo en sí. En la mayoría de casos, los terroristas no pueden matar a miles de personas –salvo en el 11S–, ni pueden conquistar países enteros. Puedes compararlo con una mosca en una tienda de porcelana a la que persigue un elefante. En un lugar como Irak, Al Qaeda nunca habría logrado derrocar a Sadam Husein. Estados Unidos destruyó el sistema político de Irak, creando el caos en Oriente Medio. Y ahora hay más violencia.

P. ¿Y el terrorismo no podría volverse más temible cuando disponga de armas biológicas o extendiendo el caos mediante la ciberguerra?

R. Eso cambiaría las reglas del juego. Si los terroristas logran armas de destrucción masiva, sería muy diferente, pero por ahora no las han conseguido. En el campo del ciberterrorismo, la mayor amenaza hoy viene de países como Estados Unidos, Rusia, Corea del Norte, Israel o Irán. Hackers norcoreanos podrían estrellar los aviones o apagar las estaciones eléctricas de Estados Unidos. Las pequeñas organizaciones terroristas no tienen hoy esas capacidades, que siguen siendo monopolio de los Estados. No digo que podamos despreciar esa amenaza, la de un ciber11S. Pero debemos evitar la sobrerreacción al terrorismo, que es la que causa más daños.

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!

Sobre la firma

Ricardo de Querol
Es subdirector de EL PAÍS. Ha sido director de 'Cinco Días' y de 'Tribuna de Salamanca'. Licenciado en Ciencias de la Información, ejerce el periodismo desde 1988. Trabajó en 'Ya' y 'Diario 16'. En EL PAÍS ha sido redactor jefe de Sociedad, 'Babelia' y la mesa digital, además de columnista. Autor de ‘La gran fragmentación’ (Arpa).

Más información

Archivado En

_
_