La IA añade lógica a la reinvención de la rueda de silicio
La apuesta de las grandes tecnológicas por hacer sus propios chips puede funcionar con la escala suficiente

Una de las mayores sorpresas del auge de la inteligencia artificial es que todo el mundo quiere fabricar chips. Durante décadas, las tecnológicas subcontrataron el desarrollo de semiconductores a especialistas como Nvidia, porque era más barato y eficiente. El auge de la IA ha cambiado ese cálculo: gigantes como Alphabet, Amazon, Microsoft y Meta están intensificando sus esfuerzos internos en materia de silicio. Hay cierta lógica en reinventar la rueda.
Apple fue pionera en 2010 cuando lanzó el iPhone 4 con su propio silicio. En aquel momento, el fabricante de teléfonos móviles era una excepción. Pero el dominio de Nvidia en el desarrollo de unidades de procesamiento gráfico (GPU) de última generación, fundamentales para el entrenamiento de modelos de IA, ha obligado a replantearse el sector en su conjunto.
Los magnates tecnológicos se muestran nerviosos ante la idea de depender de un único proveedor para un componente tan crítico. El cuasimonopolio de Nvidia le confiere también un enorme poder de fijación de precios. Según Visible Alpha, se prevé que su división de centros de datos obtenga un margen bruto del 74% sobre unas ventas de 187.000 millones de dólares en el año que finaliza en enero próximo.
La carrera armamentística de la IA también requiere cantidades cada vez mayores de potencia de cálculo. Pese a los rápidos avances de Nvidia, el coste de entrenar modelos de IA de vanguardia se ha multiplicado por 2,4 cada año desde 2016, según un estudio publicado el año pasado. Si ese crecimiento continúa, entrenar los modelos más grandes podría costar más de 1.000 millones en 2027, lo que supondría un impulso adicional para que las empresas busquen hardware más barato.
Por eso, los mayores proveedores de computación en la nube del mundo –Alphabet, Amazon y Microsoft–, así como Meta están desarrollando sus propios procesadores personalizados, conocidos como circuitos integrados de aplicación específica (ASIC). Estos semiconductores están diseñados para un único propósito, lo que los diferencia de las ofertas comerciales de Nvidia o Advanced Micro Devices.
Google –propiedad de Alphabet–, por ejemplo, desarrolló sus unidades de procesamiento tensorial (TPU) hace más de una década para una función de conversión de voz a texto. Hoy en día, Google utiliza las TPU para entrenar modelos de IA y responder a las consultas de los usuarios, un proceso conocido como inferencia. Microsoft, Amazon y Meta han seguido su ejemplo. El mes pasado, un ejecutivo de Meta confirmó los planes de comprar la start-up de chips Rivos para reforzar las capacidades internas del grupo.
Una de las ventajas de este impulso hágalo usted mismo es que ofrece a las empresas un mayor control sobre el hardware, que luego puede optimizarse y adaptarse a sus plataformas de computación en la nube y algoritmos de IA particulares. Microsoft sostiene que su estrategia silicon to service (del silicio al servicio) de personalizar un centro de datos de arriba abajo, incluyendo el software, los servidores, los racks (estructuras metálicas) y los sistemas de refrigeración, puede ayudar a mejorar el rendimiento y la eficiencia de los usuarios de su servicio en la nube Azure.
Otra ventaja es que es relativamente fácil “fabricar” un chip personalizado. Esto se debe a que las empresas dejan el reto de imprimir los semiconductores en obleas de silicio a proveedores como Broadcom, y otras empresas más pequeñas como Marvell y MediaTek. Estas compañías ayudan a diseñar y fabricar los procesadores, colaboran con fabricantes de chips por contrato como TSMC, y adquieren componentes de memoria, entre otras cosas. El mercado de los ASIC de IA crecerá hasta un 55% anual hasta alcanzar los 60.000 millones en 2028, según las previsiones de los analistas de Bernstein a principios de año, aunque esa cifra sigue siendo insignificante en comparación con los 375.000 millones en ventas que se espera que genere Nvidia en un periodo similar, según las estimaciones de Visible Alpha.
También en China
No solo las tecnológicas estadounidenses están adoptando el hágalo usted mismo. Gigantes chinos como Alibaba y Baidu están desarrollando sus propios semiconductores como parte del impulso del país para depender menos de la tecnología de EE UU. Los fabricantes de automóviles están considerando el uso de silicio personalizado en iniciativas de conducción autónoma. El auge ha llevado a la japonesa SoftBank, dueña de la firma de diseño de chips Arm, a explorar la adquisición de Marvell, valorada en 75.000 millones de dólares, informa Bloomberg.
En octubre, OpenAI, el desarrollador de ChatGPT, anunció que desarrollará conjuntamente con Broadcom 10 gigavatios de aceleradores de IA personalizados. Aunque las dos empresas no revelaron los términos financieros, el CEO de Nvidia, Jensen Huang, declaró hace poco que un gigavatio de capacidad de centro de datos se traduce en 35.000 millones de ingresos para su empresa. Eso implica que la asociación de OpenAI representa 350.000 millones de ventas perdidas para Nvidia.
Pero desviar las ventas de Nvidia no significa necesariamente que los compradores salgan ganando. Es probable que una parte considerable de los posibles ahorros de OpenAI vaya a parar a Broadcom, que, según el analista de Bernstein Mark Li, obtiene un margen bruto de hasta el 60% en su negocio de ASIC. Con el tiempo, las empresas pueden adquirir los conocimientos suficientes sobre la fabricación de chips para trabajar directamente con fabricantes como TSMC, como ya hace Apple. Google parece ser la que más lejos ha llegado: Li, de Bernstein, cree que la empresa puede encargarse internamente de los diseños de chips front-end y que pronto subcontratará los diseños back-end y los componentes periféricos a la taiwanesa MediaTek, que cobra menos que Broadcom, lo que supondrá un ahorro anual de 5.000 millones.
El margen bruto del 40% de Apple para los iPhone sugiere que su integración vertical ha dado sus frutos. Pero, el caso de los gigantes de la computación en la nube que hacen lo mismo parece menos claro. El uso de chips personalizados que son más baratos pero menos potentes podría acabar costando más si se tienen en cuenta los gastos de terreno, electricidad y otras infraestructuras.
La clave de ese argumento es la ventaja tecnológica de Nvidia. Un análisis hecho en diciembre por Morgan Stanley reveló que las últimas GPU Blackwell pueden presumir de un retorno 1,9 veces superior por vatio al de los chips Trainium 2 de Amazon cuando se entrenan modelos de IA, basándose en ciertas hipótesis. En otras palabras, Amazon necesitará casi el doble de electricidad para alcanzar el mismo nivel de potencia de cálculo. Esto explica por qué las mayores tecnológicas seguirán siendo los principales clientes de Nvidia en un futuro previsible.
Aun así, la economía de los ASIC puede funcionar siempre que se alcance una escala suficiente. Veáse la inferencia de IA, que no requiere tanta potencia de cálculo. Morgan Stanley estimó que la instalación de un clúster de 24.000 procesadores Blackwell supone un coste inicial de hardware de 852 millones, lo que se traduce en unos gastos de amortización anuales de 213 millones durante cuatro años. Un clúster del mismo tamaño de TPU de Google costará 99 millones en hardware y 25 millones en amortización anual. El desarrollo de capacidades de fabricación de chips también permitirá a las empresas negociar con más fuerza con Nvidia.
En última instancia, los inversores prestarán atención al rendimiento que las tecnológicas pueden obtener de sus inversiones. La reducción de los costes iniciales y operativos puede ayudar, pero los ASIC siguen teniendo que ser competitivos en cuanto a rendimiento y generar ingresos. Eso determinará si ha valido la pena reinventar la rueda de silicio.
Los autores son columnistas de Reuters Breakingviews. Las opiniones son suyas. La traducción, de Carlos Gómez Abajo, es responsabilidad de CincoDías

