Cómo está el patio de las tarjetas gráficas, oiga. Nvidia acaba de lanzar su familia RTX 3000 con arquitectura Ampere, AMD hará estos días lo propio con sus Radeon RX 6000 con arquitectura RDNA2 e Intel apunta maneras ?al menos en portátiles? con Intel Xe.
Todas ellas han avanzado en terrenos como el gaming y el deep learning, y para hablar de todo ello hemos vuelto a acudir a Manuel Ujaldón, instructor de Nvidia y que en el pasado nos ha ayudado a comprender los movimientos en este segmento de la industria tecnológica.
Para quienes no hayan leído las anteriores entrevistas que realizamos en 2012, 2016, 2018 y principios de 2020, Manuel Ujaldón es profesor de la Universidad de Málaga pero es ya un instructor de larga trayectoria ya en Nvidia, donde se ha especializado en el ámbito del aprendizaje profundo y CUDA.
Desde que hablamos con él hace unos meses ha habido movimientos importantes en la industria: Nvidia compró ARM por 40.000 millones de dólares en septiembre, y hace tan solo unos días nos enterábamos de las intenciones de AMD a la hora de comprar Xilink por 30.000 millones de dólares. Mucho dinero moviéndose y dos empresas que antes apostaban solo por gráficos y ahora parecen tener ambiciones mucho más diferentes. ¿Qué ha pasado?
Lo primero que nos explica Ujaldón es que en realidad la subida en bolsa de Nvidia ha hecho que esa cantidad que ha pagado por ARM no sea tan grande como parece porque "buena parte se ha pagado con acciones de Nvidia, que comenzaron el año a 230 dólares y hoy cotizan a 560. Usando esa "moneda", si ARM valía en enero esos 40.000 millones de dólares, a Nvidia le cuesta ahora apenas 17.000 millones de dólares".
Ha ocurrido algo parecido con AMD ?cuyas acciones han subido de 50 a 80 dólares en ese mismo periodo? mientras que como nos recuerda nuestro protagonista, Intel ha bajado de 60 a 48 dólares y lo que ha hecho no ha sido comprar, "sino vender sus factorías de chips de memoria a Hynix". Para Ujaldón la conclusión es clara: "puedes imaginar cuál de las tres está creciendo más".
De hecho según él "el NASDAQ no es un medio de comunicación, sino la democracia de millones de votos que confían sus ahorros o sus planes de pensiones a la Nvidia del futuro. Difícilmente encontrarás otro oráculo de mayor consenso a escala mundial".
Manuel Ujaldón precisamente trata de aportar esa parte como instructor del DLI (Deep Learning Institute) de Nvidia. Los alumnos de sus workshops han obtenido ya más de 500 certificaciones oficiales de Deep Learning y CUDA, "que son las dos joyas de la corona del DLI", y el próximo mes de noviembre celebrará una nueva edición online de este taller ?toda la información, aquí? al que cualquier interesado puede apuntarse.
El plazo de matrícula se cierra en menos de una semana, y con este workshop de 25 horas de clase Ujaldón trata "de capacitar al alumno para obtener las mejores certificaciones de Nvidia. Mi mayor satisfacción es haber tenido pupilos que en ese mes de trabajo sacaron hasta 7 certificaciones del DLI. Las empresas de Silicon Valley empiezan a valorar esas aptitudes más que un grado universitario. Siempre fueron transgresoras en las fórmulas para el desarrollo profesional, y conviene tenerlas como referencia".
Es evidente que Nvidia ha planteado una apuesta realmente notable con sus RTX 3000, pero cuidado porque el anuncio de AMD y los datos que se han filtrado de las RX 6000 plantean un escenario inaudito: si se cumplen las expectativas, AMD plantaría por fin cara a lo mejor de Nvidia en el terreno de las gráficas dedicadas.
Para Manuel Ujaldón eso es algo que tenía que pasar tarde o temprano. De hecho destaca cómo al menos en el apartado de la interfaz de memoria "AMD merecería llevar ahí más delantera. Muchos olvidan que cuando salió la memoria HBM construida en 3D con 4 capas apiladas de celdas, fue la primera en subirse al consorcio ganador".
El problema, explica, "es que luego la saga GDDRx ha impuesto la ley del precio apadrinada por la JEDEC, y no ha podido disfrutar de esa ventaja. Ahora que las fuerzas se han igualado ahí, volverá a ser el procesador el que marque las diferencias, pero tampoco veo ahí grandes diferencias".
"Al final es como si me das a elegir entre un Mercedes o un BMW: aunque yo conduzca mi Mercedes, también me gusta el BMW de mi vecino, te lo aseguro".
Las ya conocidas analogías de Ujaldón ayudan a comprenderlo todo mejor: los benchmarks preliminares plantean una batalla muy igualada, pero como dice él, "al final es como si me das a elegir entre un Mercedes o un BMW: los dos son coches alemanes, excelentes, cuestan una pasta, y arrastran su legión de seguidores. Aunque yo conduzca mi Mercedes, también me gusta el BMW de mi vecino, te lo aseguro".
Intel, mientras tanto, acecha con la arquitectura Intel Xe. ¿Significa eso que tenemos un tercer contendiente a la vista en el segmento de las gráficas dedicadas? Para nuestro experto lo tenemos, "porque Intel ha anunciado que este año sacará su primera gráfica dedicada en 20 años".
Aún así Ujaldón nos recuerda que "este largo camino ha estado plagado de sonados fracasos como Larrabee y la saga Knights, que indican lo difícil que resulta entrar sin inercia". En Intel se han reforzado de forma ambiciosa con el fichaje de Raja Koduri, que fue responsable de la saga Radeon en AMD.
Sin embargo, destaca, "las cartas son mejores en Nvidia para jugar en CPUs tras la compra de ARM que las de Intel para jugar en GPUs con el fichaje de Koduri. A partir de aquí, disfrutemos la partida. El marcador oficial ya sabes dónde está: colgado del NASDAQ".
Las mejoras en el ámbito del aprendizaje profundo son para Manuel Ujaldón destacables en la nueva arquitectura Ampere. Los números de las Ampere A100 no mienten y con 400 W de consumo energético y 54.200 millones de transistores estamos ante un chip que teóricamente ofrece el triple de rendimiento respecto a la Volta V100 de 300 W y 21.100 millones de transistores. La sorpresa es que ese rendimiento es mucho mayor, y según Ujaldón "ha sorprendido con un rendimiento pico 20 veces superior a la V100, que además logra sostener desde los operadores enteros de 8 bits hasta los de punto flotante de 32 bits", algo muy importante en cálculos de este tipo.
Ese espectacular crecimiento en potencia de cálculo deep learning se ve acompañado por otra promesa: la de poder jugar en resolución 4K a 60 FPS de forma sostenida. Le preguntábamos a nuestro entrevistado si eso era tan importante o si esa opción era algo subjetiva y nos respondía que "en temas de visualización la percepción resulta muy subjetiva. Podría ocurrir como ya pasó antes con el sonido: el CD mejoró mucho al disco de vinilo. Todo lo que ha llegado después han sido saltos menores, para terminar acostumbrándonos a los formatos comprimidos en los que se demuestra que una mayoría aprecia más el precio que la calidad".
Para lograr esos avances en el ámbito del deep learning o en el gaming, el mundo de las GPUs ha hecho algo "impensable" según Ujaldón: "han aumentado el área de integración del chip. Todo comenzó hace un par de años cuando vimos aparecer la Volta de más de 800 mm2 (las CPUs siempre han estado en torno a 200 mm2). Turing y Ampere han seguido esa misma ruta, y ahora se ha sumado AMD con su nueva serie RX 6000".
La litografía ha tenido un impacto crucial en este sentido: los procesadores van por detrás de las GPUs a la hora de ir arañando nanómetros, y eso ha hecho que esos chips gráficos puedan ahora incrementar el número de transistores y hacerlo además aprovechando mayor espacio para ese área de integración.
"Para un arquitecto de computadores como yo", explicaba de nuevo con una analogía, "esto es como si a un decorador le encargas una casa más grande: tiene mucho más espacio para lucirse. El problema es el coste, pero en Nvidia han hecho como en Apple: fidelizar al cliente acostumbrándolo a pagar 1000 euros por un móvil".
Para este experto hay dos áreas en las que Nvidia está avanzando más y mejor que sus rivales: "la eficiencia energética y la polivalencia del chip". En el primer terreno, explica, "el consumo se optimiza por la división del die en multiprocesadores, y éstos a su vez en hemisferios, y más recientemente, en cuadrantes. La arquitectura pionera fue Maxwell 6 años atrás, la cuarta generación CUDA".
"Así llegamos a Ampere", continúa, "donde el chip GA100 dispone de 8192 cores, pero organizados en 128 multiprocesadores de cuatro cuadrantes de 16 cores cada uno. Si consigues que la mayor parte de las comunicaciones sean internas a cada cuadrante, el consumo es mínimo, porque el transporte de datos es lo que más energía gasta. Es como diseñar una ciudad para que sus habitantes sean casi autosuficientes dentro de su bloque de vecinos, minimizando así el uso del coche".
"Para un arquitecto de computadores como yo, hacer crecer el chip es como si a un decorador le encargas una casa más grande: tiene mucho más espacio para lucirse".
El otro gran avance, la versatilidad, llegó en la sexta generación con Volta. Con ese crecimiento del chip por encima de los 800 mm2 pudieron integrarse tres chips en uno, con espacios dedicados a los gamers, otros a la aceleración CUDA y otros a la inteligencia artificial".
Aquí Nvidia hizo un chip para tener contentos a todo tipo de usuarios "apagando las unidades funcionales que no entraban en juego en cada caso. Por ejemplo, si compras una GeForce para jugar, los cores de doble precisión están de adorno (son patrimonio del programador CUDA), y los Tensor cores casi también (son un cañón para el Deep Learning, sólo el Ray Tracing aprovecha algo). Te han vendido un chip con mucha arena inerte para tí, que es precisamente la que más me interesa a mí".
.