Ir al contenido
_
_
_
_
Breakingviews
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

La demanda de energía de la IA está generando alucinaciones

Tanto las grandes tecnológicas como las ‘utilities’ tienen incentivos para sobreestimar las previsiones de consumo

ChatGPT

Ha surgido una extensa red mundial de silicio para alimentar la inteligencia artificial. Ubicados en centros de datos, estos chips requieren enormes cantidades de electricidad para procesar los datos que hay detrás de aplicaciones como ChatGPT. Sin embargo, tanto los gigantes tecnológicos como las utilities o empresas de servicios públicos tienen incentivos para inflar las previsiones sobre cuántas instalaciones de este tipo será necesario construir y cuántos electrones consumirán en última instancia. A la hora de conciliar los planes cancelados del gigante de la nube Microsoft con, por ejemplo, los pedidos pendientes de varios años del fabricante de turbinas de gas GE Vernova, conviene tener en cuenta estas distorsiones.

Tras dos décadas de estancamiento, la Administración de Información Energética de Estados Unidos prevé ahora que la demanda de energía del país crezca un 2% anual. Esto se debe, sobre todo, a la ola de centros de datos que se están creando, ya que Alphabet, Amazon, Meta y Microsoft pretenden gastar más de 300.000 millones de dólares en gastos de capital combinados este año. Se espera que estas granjas de servidores tripliquen su cuota en el uso total de la red, hasta alcanzar el 12% en 2030, calcula McKinsey.

Este auge que está transformando la economía ha disparado las acciones relacionadas con la IA, pero ha dejado a los inversores en vilo ante cualquier indicio de desaceleración. El éxito de DeepSeek, por ejemplo, ha planteado dudas sobre si los chatbots realmente necesitan el enorme suministro de chips que está produciendo Nvidia, lo que le ha restado 600.000 millones en Bolsa.

Quizás el indicador más importante sea la empresa dirigida por Satya Nadella. Microsoft marcó el inicio de la era de la IA al asociarse con OpenAI, desarrollador de ChatGPT, en 2016, y su división en la nube Azure proporciona potencia informática a una gran cantidad de desarrolladores y usuarios de chatbots. Cuando un ejecutivo dijo en abril que la empresa había ralentizado o pausado parte de la construcción de sus centros de datos, pareció una señal ominosa. Sin embargo, unas semanas más tarde, Azure informó de una aceleración del crecimiento y se reafirmó un objetivo de gasto en infraestructura de aproximadamente 80.000 millones de dólares.

Esta dinámica debería de resultar familiar a los observadores del sector tecnológico. La industria de los semiconductores se ve muy afectada por los pedidos dobles, es decir, el fenómeno por el cual los clientes piden más chips de los que necesitan, basándose en la teoría de que es mejor cancelar algunos envíos que quedarse sin una pieza fundamental para su actividad.

Quedarse atrás

Independientemente de si Microsoft y Google están haciendo lo mismo de forma consciente o no, lo peor que puede pasar en la vertiginosa carrera por la IA es quedarse atrás. Hay muchos obstáculos, como los chips esenciales de Nvidia –constantemente escasos–, que escapan a su control. Pero es bastante sencillo reservar terrenos y solicitar conexiones eléctricas para poner en marcha nuevos proyectos de centros de datos. Es mucho menos perjudicial cancelar cualquier desarrollo excedente, especialmente los proyectos en fase inicial en los que se ha invertido un capital mínimo, que quedarse sin capacidad para atender a los clientes.

Esto repercute en las utilities y operadores de redes como Ercot, PJM Interconnection y MISO, que en conjunto supervisan más de dos docenas de estados que representan aproximadamente la mitad de la población de EE UU, incluidos los centros de datos de Virginia del Norte y Texas. La “gran demanda de carga”, esencialmente proyectos de servidores, alcanzará los 140 gigavatios en 2030, según el operador de reactores nucleares Constellation Energy. Pero esa cifra duplica el consumo estimado de los centros de datos de todo el país, según S&P Global y McKinsey.

Por supuesto, firmas como OpenAI están planificando centros de datos de hasta 5 gigavatios, lo que equivale aproximadamente al consumo eléctrico de cuatro millones de hogares, según el consumo medio anual de estos. Por tanto, bastan muy pocos proyectos para alterar sustancialmente las previsiones de las utilities. Sin embargo, estas también tienen incentivos para sobreestimar.

Estos pueden ser tan benignos como querer planificar un mayor margen de generación de energía potencial disponible, en vez de quedarse cortos, para evitar apagones. Por otro lado, al tratarse de empresas estrictamente reguladas, sufragar el coste de las mejoras de capital es uno de los pocos medios que tienen para obtener permiso para subir los precios y aumentar sus beneficios.

Sea cual sea la causa, las bolas de cristal de la industria energética suelen arrojar cifras exageradas. PJM, que gestiona la red eléctrica en 13 estados, sobreestimó la demanda máxima en verano durante 17 años consecutivos hasta 2024, según Wilson Energy Economics. El Rocky Mountain Institute calcula que las utilities y los operadores de redes eléctricas pronosticaron un crecimiento similar, 12 puntos porcentuales por encima de la realidad, entre 2005 y 2015.

Por supuesto, una vez que los proyectos se ponen en marcha, se ramifican a lo largo de la cadena de suministro. GE Vernova estima que sus turbinas de gas se agotarán en la práctica hasta 2028 este verano. Del mismo modo, Hitachi Energy ha declarado hace poco que el tiempo de espera para los nuevos transformadores de energía ha alcanzado los cuatro años. Esta avalancha de nuevos pedidos está agotando la capacidad y aumentando los precios. NextEra Energy calcula que el coste de construir nuevas centrales de gas se ha triplicado desde 2022. Abundan las quejas sobre la escasez de trabajadores cualificados.

Si alguna de las demandas que impulsan esta situación resulta ilusoria, también podría exagerar la necesidad aparente de fuentes de energía alternativas. El jefe de OpenAI, Sam Altman, se ha sumado a la carrera por explorar centrales nucleares reducidas. Google ha anunciado que invertirá capital en Elementl Power para impulsar tres proyectos nucleares, aunque aún no se ha determinado su ubicación ni la tecnología básica que se utilizará. Las perspectivas de estos proyectos son, en el mejor de los casos, inciertas.

Hay formas menos descabelladas o disruptivas de gestionar cualquier afluencia que se produzca realmente. La red energética actual de Estados Unidos podría absorber 76 gigavatios de nueva carga, alrededor del 10% de la demanda máxima agregada, siempre que los nuevos usuarios acepten apagar sus instalaciones solo el 0,25% del tiempo, o menos de un día al año de media, según investigadores de la Universidad Duke. Para cualquier nueva generación que se construya, las utilities y los reguladores podrían intentar garantizar que los grandes clientes tecnológicos comprendan que tendrán que asumir al menos parte de los pagos.

Pero, por ahora, todo esto solo hace que sea más difícil leer las hojas de té de la IA. Microsoft podría dar marcha atrás en sus acuerdos, el crecimiento de la carga de las utilities podría ser decepcionante y Azure y sus rivales podrían seguir creciendo a un ritmo rápido de todos modos. Al igual que un chatbot defectuoso que sugiere combinar pegamento y pizza, tropezar con conexiones aparentes entre datos no relacionados es un riesgo para la inversión.

Los autores son columnistas de Reuters Breakingviews. Las opiniones son suyas. La traducción, de Carlos Gómez Abajo, es responsabilidad de CincoDías

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_