La economía de la IA pone de manifiesto el valor de los buenos datos
Algoritmos como AlphaFold indican que la información de calidad será más valiosa que los chips y el software
Nvidia ronda desde hace meses el papel de empresa más valiosa del mundo, y su valor ha subido casi un 150% desde enero. Pero la revolución de la inteligencia artificial dista mucho de ser una apuesta en una sola dirección: la mayoría de las acciones de una serie de índices y fondos centrados en la IA han bajado este año. Incluso Nvidia ha tenido un recorrido alocado.
Estas épicas oscilaciones reflejan la incertidumbre de los inversores sobre los aspectos económicos de la IA. Los logros y la promesa de los ordenadores autodidactas son evidentes. Lo que no está tan claro es cuánto cuesta la tecnología y quién la pagará. Para los inversores que quieran navegar por este traicionero panorama, es importante empezar por el avance tecnológico del que depende la actual revolución de la IA.
Las asombrosas aplicaciones que han desencadenado su auge parecen muy diferentes a primera vista. En 2016, el programa AlphaGo de Google DeepMind asombró al mundo cuando venció al mejor jugador de go de todos los tiempos, Lee Sedol, en este juego de mesa para dos personas. En 2020, el algoritmo AlphaFold de la compañía descifró uno de los grandes retos de las ciencias de la vida al predecir las estructuras proteicas que formarán nuevas combinaciones de aminoácidos. Dos años después, OpenAI parecía estar haciendo algo completamente distinto cuando lanzó un chatbot de lenguaje natural capaz de improvisar versos de Shakespeare.
Pero todos estos hitos se derivan de la misma innovación: una mejora espectacular en la precisión de los modelos predictivos informatizados, como explicó en 2019 en su blog el pionero de la IA Rich Sutton. Durante décadas, los investigadores entrenaron a los ordenadores para que jugaran y resolvieran problemas codificando conocimientos humanos duramente adquiridos. Intentaron imitar con eficacia nuestra capacidad de razonar. Pero estos intentos fueron finalmente superados por un enfoque mucho menos complicado. Los algoritmos de aprendizaje ingenuo demostraron ser sistemáticamente superiores cuando se les dotó de suficiente potencia de cálculo y se les alimentó con suficientes datos. “Incorporar nuestros descubrimientos”, concluye Sutton, “solo hace más difícil ver cómo se puede llevar a cabo el proceso de descubrimiento”.
Esta lección resulta familiar. En el exitoso libro de 2015 Superpronosticadores. El arte y la ciencia de la predicción, el psicólogo canadiense Philip Tetlock y su coautor Dan Gardner explicaron que el mismo método agnóstico también resulta ganador para los humanos. En los torneos de predicción, los aficionados metódicos y abiertos de mente obtienen sistemáticamente mejores resultados. El sentido común y la voluntad de absorber muchos datos son más eficaces que el conocimiento profundo de un campo y la experiencia de un especialista. Los actuales modelos de IA de vanguardia automatizan en esencia el enfoque de los superpronosticadores.
Esta sencilla receta –algoritmos de aprendizaje más potencia de cálculo más datos–produce resultados predictivos prodigiosos. También proporciona una guía sobre dónde reside el valor a largo plazo de la IA.
Empecemos por los algoritmos. El instituto de investigación sin ánimo de lucro Epoch AI calcula que, entre 2012 y 2023, la potencia de cálculo necesaria para alcanzar un umbral de rendimiento determinado se redujo a la mitad cada ocho meses aproximadamente. Tales son las eficiencias de costes conseguidas por la reciente innovación en redes neuronales.
Pero el valor a largo plazo de estos algoritmos es mucho más difícil de determinar. El código digital es vulnerable a la imitación y el robo. El ritmo de la innovación futura es difícil de predecir. El talento humano que ahora trabaja en los laboratorios de IA de los gigantes tecnológicos puede salir por la puerta fácilmente.
El segundo ingrediente, la potencia bruta de cálculo, es más sencillo de medir. Según Epoch AI, ha generado la mayor parte de las ganancias en el rendimiento de los modelos de IA. Los valores de mercado en alza de los mayores proveedores de computación en la nube –Alphabet, Amazon y Microsoft– sugieren que los mercados han descontado muchas de las ganancias. Pero Leo Aschenbrenner, exempleado de OpenAI, ha publicado un nuevo manifiesto sobre la inversión en IA en el que sostiene que los inversores no deberían desanimarse. Dado que el rendimiento de los modelos está estrechamente vinculado al volumen de chips y electricidad desplegados, insta a los inversores a “confiar en las líneas de tendencia” y “contar los OOM” –una referencia a los órdenes de magnitud en los que se ha acelerado el rendimiento año tras año– para proyectar el gasto de capital.
Al hacerlo, se obtienen unas necesidades tan enormes que hacen sombra incluso a las proyecciones más optimistas de la industria. En diciembre, AMD, rival de Nvidia, pronosticó que el mercado de los chips de IA alcanzaría los 400.000 millones de dólares en 2027. Confiar en las líneas de tendencia implica que la inversión en IA alcanzará los 3 billones justo un año más tarde, mientras que el primer clúster de centro de datos que cueste 1 billón se abrirá dos años después de eso. Si contamos los OOM, parece que el hardware informático, y no el software, se está comiendo el mundo.
Pero este razonamiento tiene un fallo. Los dos primeros ingredientes de la IA –los algoritmos y la informática– no valen nada sin el tercero: los datos. Es más, cuanto mejores sean los datos, menos valiosa será la capacidad de procesamiento.
Este hecho ha sido fácil de pasar por alto. Las aplicaciones de IA más destacadas son los chatbots de uso general que se han entrenado con grandes cantidades de texto no verificado recogido de la web. Han preferido la cantidad a la calidad, y la potencia informática les ha sobrado para compensar. Morgan Stanley calcula que para entrenar a ChatGPT 4, de OpenAI, se necesitaron al menos 10.000 chips gráficos que procesaron más de 9,5 petabytes de texto. Ese equilibrio determinó el resultado: interlocutores extraordinariamente realistas, propensos a incorregibles alucinaciones y cada vez más expuestos a caros litigios por infracción de derechos de autor.
Las aplicaciones especiales de la IA tienen un perfil más bajo, pero demuestran dónde es más probable que se encuentre el futuro. El científico Venki Ramakrishnan, galardonado con el Premio Nobel, dijo que AlphaFold resolvió “un gran reto de 50 años de la biología”. Igual de notable es el hecho de que necesitara el equivalente a menos de 200 chips gráficos. Ello fue posible porque se entrenó con una base de datos minuciosamente seleccionada de 170.000 muestras de proteínas. Por tanto, los datos de alta calidad no solo mejoran radicalmente la eficacia de los modelos de IA, sino también la rentabilidad de la tecnología.
Las empresas que posean datos útiles y especializados serán las grandes beneficiadas de la IA. Es cierto que gigantes de gran valor, como Alphabet y Amazon, también dominan parte de ese espacio. Pero bancos, empresas de servicios públicos, proveedores de atención sanitaria y minoristas mucho menos glamurosos –y con precios más razonables– también están sentados sobre minas de oro de IA.
El valor real de la revolución de la IA reside en los conjuntos de datos, no en los centros de ídem.
Los autores son columnistas de Reuters Breakingviews. Las opiniones son suyas. La traducción, de Carlos Gómez Abajo, es responsabilidad de CincoDías