_
_
_
_
_

Nvidia presenta un nuevo chip de potencia única destinado a la inteligencia artificial

El nombre del nuevo hardware es HGX H200

Nvidia HGX H200
Nvidia
Iván Martín Barbero

Nvidia acaba de anunciar un nuevo y potentísimo chip, el HGX H200. Este es una unidad de procesamiento gráfico diseñada para el entrenamiento y despliegue de modelos de inteligencia artificial que impulsan el auge de la IA generativa (y, en este caso, especialmente a todo lo que tiene que ver con el entorno científico).

Esta nueva GPU representa una mejora con respecto a la H100, el chip utilizado por OpenAI para entrenar su modelo de lenguaje avanzado más importante: GPT-4. Grandes empresas, startups y agencias gubernamentales compiten desde este mismo momento por un suministro de estos chips -que será bastante limitado-.

Según una estimación de Raymond James, los chips H100 tienen un costo que oscila entre 25.000 y 40.000 dólares, y se requieren miles de ellos trabajando en conjunto para crear los modelos más grandes en un proceso llamado "entrenamiento". Por lo tanto, hablamos de una inversión muy importante que será interesante conocer qué compañías son capaces de asumirla.

Los avances de este nuevo chip

La mejora clave de la H200 radica en que incluye 141 GB de memoria de nueva generación "HBM3", que ayuda al chip a realizar "inferencia" (es decir, gestión de un modelo grande después de haber sido entrenado para generar texto, imágenes o predicciones). Además, la compañía afirmó que esta GPU generará resultados casi el doble de rápido que su predecesor, basándose en una prueba utilizando el Llama 2 LLM de Meta.

Datos HGX H200
Nvidia

Nvidia también ha asegurado que la H200 será compatible con la H100, lo que significa que las empresas de IA que ya están entrenando con el modelo anterior no necesitarán cambiar sus sistemas de servidor o software para utilizar la nueva versión. La firma ha indicado que su nuevo producto estará disponible en configuraciones de servidor de cuatro ocho GPU en los sistemas HGX completos de la compañía, así como en un chip llamado GH200, que combina la GPU H200 con un procesador basado en ARM.

Se espera que la H200, que se lanzará en el segundo trimestre de 2024, compita con la GPU MI300X de AMD. Esta última cuenta con memoria adicional en comparación con sus predecesoras, lo que facilita la ejecución de inferencias en modelos grandes. Por este motivo, el nuevo podría no mantener el título que ha logrado de ser la GPU de IA más rápida de Nvidia durante mucho tiempo.

Una buena noticia para Nvidia

El lanzamiento de esta nueva GPU destinada a la gestión y desarrollo de IA ha impulsado considerablemente el precio de las acciones de la compañía, que han aumentado más del 230% en lo que va del 2023. Nvidia espera alcanzar alrededor de 16 mil millones de dólares en ingresos para su tercer trimestre fiscal, lo que representa un aumento del 170% con respecto al año anterior.

Logo Nvidia
Unsplash

Hay que recordar que, en octubre, Nvidia informó a los inversores que cambiaría de un ciclo de arquitectura de dos años a un patrón de lanzamiento anual debido a la alta demanda de sus GPU. La compañía mostró una diapositiva sugiriendo que anunciará y lanzará su chip B100, basado en la próxima arquitectura Blackwell, en 2024.

Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

_
_