_
_
_
_
_

Microsoft lanza sus primeros chips de inteligencia artificial, un golpe a Nvidia

Maia y Cobalt comenzarán a implantarse a principios de 2024 en los centros de datos de la compañía

Marimar Jiménez
Maia, el nuevo chip de inteligencia artificial de Microsoft.
Maia, el nuevo chip de inteligencia artificial de Microsoft.

Microsoft ha presentado hoy sus primeros chips personalizados para inteligencia artificial en la nube. El creador de Windows se suma así a otros gigantes tecnológicos que, ante el alto coste de la prestación de servicios de inteligencia artificial, están incorporando tecnologías clave internamente. No quiere seguir dependiendo de terceros para poner a punto sus centros de datos e impulsar sus servicios de software y servicios.

El movimiento llega mientras los desarrolladores piden proveedores alternativos a Nvidia, que domina el mercado de procesadores de IA. Microsoft aclaró que no planea vender los chips, sino que los utilizará para impulsar sus propias ofertas de software de suscripción y como parte de su servicio de computación en la nube Azure.

La entrada de Microsoft al mercado de procesadores de IA sigue a los renovados esfuerzos de Intel y AMC para competir con Nvidia, que tiene el monopolio sobre los procesadores gráficos o GPU necesarias para entrenar grandes modelos de IA. Como recuerda el FT, la demanda de los chips A100 y H100 de Nvidia ha superado con creces la oferta durante el año pasado, e incluso Microsoft recurrió a proveedores de nube rivales como Oracle para obtener capacidad adicional de GPU para respaldar sus propios servicios de IA.

El anuncio se produjo en su conferencia de desarrolladores Ignite, celebrada este miércoles en Seattle. Microsoft presentó dos chips, un acelerador llamado Azure Maia, diseñado para el entrenamiento y la inferencia de modelos de lenguaje de gran tamaño sobre los que se sustenta la IA generativa. El otro, llamado Azure Cobalt, es una CPU de propósito general con arquitectura Arm desarrollado para Microsoft Cloud y está diseñado para ahorrar costes internos y ser una respuesta al principal rival de Microsoft en la nube, Amazon Web Services.

Los chips comenzarán a implementarse a principios del próximo año en los centros de datos de Microsoft, impulsando inicialmente los servicios de la compañía, como Microsoft Copilot y Azure OpenAI, un producto surgido de la colaboración de Microsoft con el creador de ChatGPT, OpenAI. El chip Maia optimiza el uso de GPT, el modelo de lenguaje natural de esta startup en la que Microsoft invirtió 10.000 millones de dólares en enero de año. Hasta ahora, OpenAI ha utilizado la tecnología de Nvidia en la nube Azure para entrenar sus modelos de lenguaje natural.

Microsoft, que avanzó que ya está trabajando en una segunda generación de los chips, reveló que ha estado probando Cobalt para impulsar Teams, su herramienta de mensajería empresarial. Pero quiere vender acceso directo a Cobalt para competir con la serie “Graviton” de chips internos que ofrece Amazon. “Estamos diseñando nuestra solución Cobalt para garantizar que seamos muy competitivos tanto en términos de rendimiento como de relación precio-rendimiento (en comparación con los chips de Amazon)”, aseguró Scott Guthrie, vicepresidente ejecutivo del grupo Cloud +AI de Microsoft.

“Los chips representan la última pieza del rompecabezas para que Microsoft entregue sistemas de infraestructura, que incluyen todo, desde opciones de silicio, software y servicios hasta racks y sistemas de refrigeración, que han sido diseñados de arriba a abajo y pueden optimizarse teniendo en cuenta las cargas de trabajo internas y de los clientes”, explicó el directivo.

Desde Microsoft insistieron en que están construyendo la infraestructura para respaldar la innovación en IA. “Estamos reinventando todos los aspectos de nuestros centros de datos para satisfacer las necesidades de nuestros clientes”, añadió Guthrie.

El directivo defendió que, a la escala que opera la compañía, es importante para ellos optimizar e integrar cada capa de la infraestructura para maximizar el rendimiento, diversificar su cadena de suministro y ofrecer a sus clientes opciones de infraestructura. “Creemos que esto nos ofrece una manera de brindar mejores soluciones a nuestros clientes, que son más rápidas, de menor costo y de mayor calidad”, continuó Guthrie.

La multinacional estadounidense reconoció que los chips son los caballos de batalla de la nube, por la enorme cantidad de información que se maneja con la IA, una tecnología que promete revolucionar todas las industrias. Muestra de ello es que Google, Amazon, sus principales rivales en la nube, y Meta también lanzaron hace tiempo sus propios chips de IA. Ninguna quiere perder la carrera de la inteligencia artificial.

Rani Borkar, vicepresidenta de Azure Hardware Systems and Infraestructure de Microsoft, reconoció que el software es la principal fortaleza de su compañía, pero añadió: “Francamente, somos una empresa de sistemas. Y estamos co-diseñando y optimizando hardware y software juntos para que uno más uno sea mayor que dos”. La directiva defendió que, al añadir, sus propios chips, Microsoft podrá “ofrecer más opciones de precio y rendimiento” a sus clientes.

La tecnológica también dijo que el próximo año ofrecerá a sus clientes de Azure servicios en la nube que se ejecutan en los chips insignia más nuevos de Nvidia y AMD. “Esto no es algo que esté desplazando a Nvidia”, dijo Ben Bajarin, director ejecutivo de la firma de analistas Creative Strategies. En su opinión, y según recoge Reuters, el chip Maia permitirá a Microsoft vender servicios de inteligencia artificial en la nube hasta que las computadoras personales y los teléfonos sean lo suficientemente potentes para manejarlos. “Microsoft tiene aquí un tipo de oportunidad central muy diferente porque está ganando mucho dinero por usuario por los servicios”, dijo Bajarin.

Microsoft dio pocos detalles técnicos para poder evaluar la competitividad de sus chips frente a los de los fabricantes de chips tradicionales. Borkar dijo que ambos están producidos con tecnología de fabricación de 5 nanómetros de TSMC.

La tecnológica estadounidense también ha anunciado hoy una herramienta low-code, llamada Microsoft Copilot Studio, para que las empresas personalicen Copilot para Microsoft 365 en función de sus propios escenarios empresariales, y para crear copilotos independientes y GPT personalizados. “Estos copilotos pueden ser específicos de roles y funciones, como un copiloto de soporte de TI o un copiloto para ayudar a sus equipos de ventas a completar las solicitudes de propuestas”, dijo Microsoft.


Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!

Sobre la firma

Marimar Jiménez
Redactora senior en la sección de Empresas de CINCODIAS. Sigue la actualidad del sector de tecnologías de la información y del ecosistema emprendedor español. Antes de incorporse al diario en 2000 trabajó en Actualidad Económica y los suplementos Futuro y Negocio en EL PAIS. Es licenciada en Periodismo por la Universidad Complutense de Madrid.
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

_
_