Ir al contenido
_
_
_
_
Análisis
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

La lucha por la autonomía estratégica corporativa en la infraestructura IA

Las grandes tecnológicas buscan su autonomía de Nvidia con chips personalizados con socios como Broadcom

El mercado de los chips de inteligencia artificial (IA) se articula en torno a una compleja y tensa relación de interdependencia entre Nvidia –el proveedor dominante del hardware– y el selecto grupo de grandes tecnológicas de EE UU. La cuenta de resultados de Nvidia depende de los aceleradores IA que sea capaz de suministrar a los centros de datos de las compañías que lideran los servicios digitales. Al mismo tiempo, el futuro del negocio de las segundas depende de desplegar infraestructuras de IA de alto rendimiento que –hoy por hoy– solo es capaz de suministrar Nvidia. Entre ambas partes existe una lucha por la autonomía estratégica corporativa, no menos feroz que la de carácter geopolítico entre EE UU y China.

Las grandes tecnológicas están abriendo sus propias líneas de producción de aceleradores de IA, ajustados a sus necesidades específicas y con el beneficio adicional de reducción de costes y diversificación de su cadena de suministros. El conocimiento en diseño de chips, núcleos de propiedad intelectual y ensamblado de componentes lo obtienen de empresas del segmento fabless, con Broadcom como principal socio de referencia. La compañía de San José, escisión de Hewlett-Packard, cuenta ya con siete clientes relevantes para los que desarrolla chips IA personalizados. El último en incorporarse ha sido OpenAI, que iniciará la producción masiva en 2026, invirtiendo hasta 10.000 millones de dólares. Con apenas productos propios, Broadcom se está convirtiendo en una suerte de TSMC de los chips IA.

Las compañías de internet están desplegando todo su poder financiero en la batalla por limitar su dependencia de Nvidia. Aunque existe una carencia de información por parte de todas las empresas involucradas, analistas de referencia como los servicios de estudio de la Unión Bancaria Suiza (UBS) calculan que Google y Amazon produjeron ya en 2024 el 30% de los aceleradores IA del mercado global y casi diez veces más que AMD. Esta cuota de producción la mantendrán en 2026, mientras que Nvidia reducirá su peso en las unidades comercializadas en el mercado. También la diferencia de potencia de computación entre sus productos de vanguardia disminuirá.

En definitiva, el gran competidor futuro de Nvidia puede no ser AMD, sino Google. De hecho, ya está alcanzando acuerdos con otras empresas en la nube para que desarrollen infraestructuras IA basadas en sus chips. El foso aún por cruzar para convertir está rivalidad en competencia efectiva está en la dependencia de las aplicaciones IA respecto a la plataforma CUDA. Nvidia haría mal en sobrevalorar la ventaja frente a compañías que han demostrado su excelencia en los desarrollos de software.

Nvidia también ha despertado a la necesidad de asegurar su autonomía estratégica respecto a tan selecto grupo de clientes. El rendimiento de cuentas trimestral de agosto de 2025 revela las dimensiones cuantitativas de su dependencia de los gigantes tecnológicos. La compañía reportó ingresos totales en el trimestre de 46.700 millones de dólares, un aumento del 56% interanual. El motor de este crecimiento fue casi en su totalidad el segmento de centros de datos, cuyos ingresos se dispararon a 41.100 millones. Este pilar central de sus ingresos tiene una alta concentración en sus clientes. Casi el 53% de las ventas se realizan a tres clientes –no revelados– que totalizan alrededor de 21.900 millones.

Si las empresas de servicios de internet han lanzado una ofensiva de silicio, Nvidia busca desesperadamente una diversificación de los ingresos de su división de centros de datos. La insistencia en mantener la comercialización de sus productos en China cobra un nuevo significado a la luz de su creciente dependencia de los grandes hiperescalares estadounidenses. De acuerdo con los cálculos de la compañía de chips, en el último trimestre hubiera recaudado hasta 8.000 millones de dólares más por ventas del acelerador H20 de no haberse prohibido en China. Su vuelta al mercado chino con la unidad B30A –si finalmente es autorizada por el Gobierno de EE UU– supondría una reducción radical de su dependencia de las grandes empresas de Internet de Silicon Valley.

Otra acción clave en la diversificación son las inversiones en proveedores alternativos de servicios de nube, primero con CoreWeave y ahora con Lambda, con los que se ha comprometido a consumir cerca de 1.500 millones de dólares en servicios junto al suministro de sus chips. La visibilidad que Nvidia da a estos acuerdos no es casual. Por un lado, genera una base de clientes alternativos que reduce su dependencia de los hiperescalares. Por otra parte, da difusión a los servicios de una competencia incómoda a sus mayores clientes. En definitiva, abre una competencia indirecta con estos últimos del mismo modo que ellos tratan de competir con Nvidia.

El futuro del mercado de las infraestructuras IA no es una guerra de suma cero, sino un delicado equilibrio. Las grandes tecnológicas buscan su autonomía de Nvidia con chips personalizados con socios como Broadcom. Amenazan incluso con competir con ella en su propio terreno, aunque ven limitadas en sus posibilidades por la dependencia de los ecosistemas software IA de CUDA. Mientras los gigantes de Internet optimizan sus operaciones internas, Nvidia diversifica en otros mercados y fomenta la competencia en la nube. Esta coexistencia competitiva es la nueva realidad, donde la batalla por la IA se libra tanto en el hardware como en el software.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_