En NVIDIA ofrecieron ayer un evento cargado de novedades. Las noticias se centraron en el ámbito de los centros de datos, pero es que como ya sucedió hace dos años con Ampere, lo presentado hace unas horas nos sirve para comprender lo que llegará a futuras GPUs para usuarios finales.
Entre las novedades destacaron la nueva arquitectura NVIDIA Hopper, sucesora de Ampere ?presente en las RTX 3000?, y también su primera implementación práctica, la GPU NVIDIA H100 que va aún más allá de lo que fue su antecesora, la A100, y plantea una potencia sin precedentes gracias a sus 80.000 millones de transistores.
La nueva GPU es un nuevo prodigio tecnológico. La fotolitografía de 4 nm de TSMC es una de las claves de un chip que cuenta un número de transistores absurdo: 80.000 millones. Es difícil de entender la magnitud de la cifra, pero sirve como referencia que su antecesora, la A100, contaba con 54.200 millones.Todo en
Prácticamente todo en la NVIDIA H100 mejora respecto a su predecesora. Los números son prometedores en todos los ámbitos, pero también es cierto que el TDP casi se dobla y pasa a ser de 700 W frente a los 400 W: con la factura de la luz en máximos históricos, usar estos chips no les va a salir barato a las empresas.
Y es que la H100 es una GPU destinada totalmente a centros de datos. La apuesta por ámbitos relacionados con la inteligencia artificial es enorme, y de hecho la empresa hacía especial hincapié en su Transformer Engine, "diseñado para acelerar el entrenamiento de modelos de inteligencia artificial". Este tipo de tecnología está detrás de sistemas como GPT-3, y hará que entrenar esas funciones sea mucho más rápido.
A esa GPu también le beneficia la presencia de la tecnología NVLink de cuarta generación que permite escalar la interconexión de todos sus nodos. Ofrece hasta 900 GB/s de transferencias bidireccionales por GPU, o lo que es lo mismo, siete veces el ancho de banda del estándar PCIe 5 que ni siquiera ha llegado de forma práctica al mercado.
La arquitectura Hopper es también parte fundamental de estos avances. En NVIDIA destacaban la capacidad de esta nueva arquitectura para acelerar la llamada programación dinámica, "una técnica de resolución de problemas usada en algoritmos para genómica, computación cuántica, optimización de rutas y más".
Según el fabricante, todas esas operaciones se harán ahora 40 veces más rápido gracias al uso de las nuevas instrucciones DXP , un nuevo conjunto de instrucciones que pueden ser aplicadas en estos ámbitos.
Otro de los anuncios más llamativos fue el de su Grace CPU Superchip, que está formado por dos procesadores conectados a través de un enlace NVLink-C2C de baja latencia. La idea es orientar este chip para que "sirva a centros HPC de gran escala y aplicaciones de inteligencia artificial" junto a las GPUs con arquitectura Hopper.
Este "chip doble" es la evolución del Grace Hopper Superchip anunciado el año pasado. En esta iteración se incluyen 144 núcleos ARMv9 que logran un rendimiento 1,5 veces superior al de la CPU dual de los sistemas DGX A100 que NVIDIA ofrece desde hace tiempo.
En NVIDIA indicaron además que están creando una nueva supercomputadora llamada Eos destinada a tareas de inteligencia artificial. Según el fabricante, será la más potente del mundo cuando esté implantada. Este proyecto constará de 4.600 GPUs H100 que permitirán ofrecer 18,4 exaflops de rendimiento en operaciones de IA, y se espera que esté lista en unos meses, aunque solo se utilizará para investigación interna en NVIDIA.
Se espera que las Grace CPU Superchip estén disponibles en la primera mitad de 2023, de modo que tendremos que ser pacientes. Las NVIDIA H100 estarán disponibles antes, en el tercer trimestre de 2022.
Más información | NVIDIA
.