NVIDIA B100 Blackwell – Se filtran especificaciones: 192 GB de HBM3E
NVIDIA, empresa líder en el mercado de GPUs para juegos y desarrollo de inteligencia artificial, se encuentra en los preparativos de una gran innovación. La compañía se prepara para presentar, en la próxima edición de GTC 2024, su nueva generación de GPU para IA denominada RTX 50 «Blackwell». Las diapositivas y especificaciones técnicas de esta nueva tarjeta gráfica ya se han filtrado un día antes de su presentación oficial, generando gran expectación en el sector.
El camino hacia la GPU RTX 50 «Blackwell»
Desde el lanzamiento de la RTX 4090 en octubre de 2022, NVIDIA ha ido consolidándose en el mercado de las GPUs para juegos y otras aplicaciones. Particularmente, la inteligencia artificial ha sido uno de los segmentos de mercado más rentables para la marca. Con una demanda creciente de sus GPUs profesionales, NVIDIA lanzó en marzo de 2023 su GPU NVIDIA H100, un modelo centrado en la IA que se ha convertido en uno de los más vendidos. Aproximadamente un año después, la compañía se enfoca en el desarrollo de la próxima generación brindando prioridad a las GPUs dedicadas a la inteligencia artificial.
Arquitectura y características técnicas de la NVIDIA B100
Se ha producido una filtración sobre la nueva GPU NVIDIA B100 para IA, la cual incorpora la arquitectura Blackwell y cuenta con características técnicas que demuestran el potencial de la misma. La GPU tendrá dos chips CoWoS-L (Chip on Wafer on Substrate) proporcionando una gran densidad y alto rendimiento. Además, hará uso de un nodo de la empresa TSMC, reafirmando la confianza en el socio taiwanés.
Modelo | Memoria | Capas de Memoria HBM |
---|---|---|
NVIDIA B100 | 192 GB HBM3E | 8×8-Hi HBME3 |
NVIDIA B200 | 288 GB HBM3E | 12 capas HBME3 |
Con la incorporación de 192 GB de memoria HBM3E de última generación en la NVIDIA B100, utilizando una configuración 8×8-Hi HBME3, la diapositiva filtrada muestra un salto cualitativo en cuanto a rendimiento. Comparando con la GPU A100 lanzada en 2021, la H100 es 11 veces más rápida en inferencia GPT-3, mientras que la H200 es 18 veces más rápida. Así, se estima que la B100 será al menos 40 veces más rápida que una A100 y más de dos veces más rápida que la H200, aunque las cifras concretas aún no se han revelado.
El consumo energético también podría alcanzar altos niveles, ya que se especula que la B100 podría llegar a gastar hasta 1.000W.
Precio y competidores
Se espera que la NVIDIA B100 tenga un precio de alrededor de 20.000 dólares, debido a la falta de rivales directos en el mercado como la MI300X de AMD. La presentación oficial de la GPU tendrá lugar durante la GTC 2024, del 18 al 21 de marzo, y se espera que en el futuro NVIDIA presente una GPU B200 con 12 capas de memoria HBME3 y una capacidad de memoria de hasta 288 GB.