La carrera por colocar en el mercado los mejores microprocesadores no ha sido siempre como lo es ahora. Intel, AMD, y también las marcas que en algún momento han tenido importancia en este mercado, como IBM o Motorola, entre otras, han dedicado sus recursos al refinamiento progresivo de la microarquitectura de sus chips.
Sin embargo, el papel protagonista en la búsqueda del máximo rendimiento posible lo ha acaparado durante décadas el incremento de la frecuencia de reloj, que es uno de los parámetros que condicionan directamente la productividad de un procesador.
En apenas cincuenta años, los que han transcurrido desde que en 1971 Intel lanzó el primer procesador comercial, el 4004, que tenía tan solo 4 bits y trabajaba a una frecuencia de reloj de 740 kHz, los microprocesadores se han desarrollado hasta ser capaces de operar a una frecuencia de reloj claramente superior a los 5 GHz.
De hecho, recurriendo a la refrigeración criogénica con nitrógeno líquido esta cifra puede incrementarse mucho más, aunque es una práctica que aún no podemos considerar popular, y con la que coquetean sobre todo los entusiastas del overclocking.
Desde principios de los 70 la mejora de la arquitectura, el aumento de la frecuencia de reloj y el refinamiento de la fotolitografía han ido de la mano con el propósito de incrementar las capacidades y el rendimiento de los procesadores, pero llegó un momento en el que la tecnología del silicio evidenció síntomas de fatiga. No podría ir mucho más allá.
Trabajar a frecuencias de reloj aún más altas podía desencadenar la degradación física del propio procesador debido a la electromigración, entre otros fenómenos limitantes, pero hace poco más de una década y media a los fabricantes se les ocurrió una solución: integrarían múltiples núcleos en el encapsulado de la CPU.
No todas las aplicaciones podrían sacar partido a varios núcleos simultáneamente, pero aquellas que sí pudiesen aprovecharlos podrían escalar su rendimiento sin necesidad de incrementar la frecuencia de reloj del procesador.
Además, cuando llegaron los primeros chips multinúcleo la tecnología multithreading ya estaba lista, por lo que las posibilidades del procesamiento multihilo eran muy prometedoras. Esta innovación permite que cada núcleo físico implemente dos núcleos lógicos, de manera que cada uno de ellos es capaz de procesar simultáneamente dos hilos de ejecución (threads).
Intel tiene la tecnología Hyper-Threading, que es su implementación de esta innovación. Y AMD tiene SMT (Simultaneous Multi-Threading), que es la suya. En cualquier caso, en esencia ambas técnicas de procesamiento de dos hilos de ejecución en un único núcleo físico trabajan de una forma muy similar.
Durante la última década los sistemas operativos, las aplicaciones, y, por supuesto, los procesadores, han desarrollado mucho sus capacidades de procesamiento multihilo, de manera que actualmente esta estrategia tiene un impacto fundamental en las prestaciones que nos proponen nuestros ordenadores. Y también en nuestra experiencia como usuarios.
No obstante, los procesadores no son el único componente de nuestros ordenadores que se ha desarrollado mucho durante las últimas décadas. La memoria principal, las soluciones de almacenamiento secundario y los procesadores gráficos también han evolucionado a un ritmo vertiginoso.
Y, mientras tanto, los dispositivos móviles se han abierto paso en nuestro día a día y han provocado que los usuarios valoremos mucho no solo el rendimiento global de nuestros ordenadores, sino también la forma en que administran la energía. Nos importa la velocidad, pero también la autonomía, lo que nos ha colocado en el momento en el que estamos ahora: en la guerra de las marcas por ofrecernos el mejor rendimiento por vatio.
El camino que nos ha traído hasta aquí ha sido largo. Incluso tedioso en algunos momentos. Pero, sobre todo, ha estado repleto de desafíos. Los fabricantes de microprocesadores han ido solventando numerosos retos para evitar que las soluciones que nos proponen se estanquen.
Debían poner en nuestras manos un rendimiento cada vez mayor a toda costa, y la mejora de la tecnología de integración y el refinamiento de la microarquitectura han sido dos pilares fundamentales en este recorrido. Y van a seguir siéndolo debido a que son los dos ingredientes indispensables en la búsqueda del rendimiento por vatio más alto.
Sin embargo, durante los últimos años hemos comprobado que no lo tienen nada fácil. Desarrollar las técnicas fotolitográficas que permiten a los fabricantes de semiconductores introducir cada vez más transistores en el mismo espacio requiere poner a punto soluciones tecnológicas extraordinariamente avanzadas. Y no es fácil dar con ellas.
De hecho, los usuarios estamos siendo testigos de lo mucho que está costando a una empresa con los ingentes recursos que tiene Intel mantenerse a la vanguardia en este ámbito para proteger su competitividad.
IBM y TSMC ya están trabajando de forma experimental en los primeros chips de 2 nm (o 20 ángstroms)
En lo que se refiere al desarrollo de la tecnología fotolitográfica el futuro es esperanzador. La hoja de ruta de TSMC, Intel, Samsung, y también la de otros fabricantes de semiconductores, nos coloca en los albores de la era de los ángstroms. IBM y TSMC ya están trabajando de forma experimental en los primeros chips de 2 nm (o 20 ángstroms), e Intel asegura que en 2025 tendrá listo su nodo de 18 ángstroms (que equivalen a 1,8 nanómetros).
No cabe duda de que los próximos años van a ser muy emocionantes, aunque cabe la posibilidad de que los fabricantes de chips no consigan cumplir a pies juntillas todas las promesas que nos están haciendo ahora.
Además, el desarrollo de la fotolitografía es solo uno de los requisitos que es necesario acometer para poner en manos de los usuarios chips con un mayor rendimiento por vatio. También es imprescindible refinar la microarquitectura con el propósito de que sea capaz de llevar a cabo más trabajo en cada ciclo de la señal de reloj, y, al mismo tiempo, consumir menos energía.
Mejorar la litografía ayuda en este camino, de eso no cabe duda, pero también es indispensable idear nuevos enfoques que hagan posible la implementación de microarquitecturas más eficientes. Y no es nada fácil. Los fabricantes de microprocesadores lo tienen más difícil que nunca, pero este es uno de esos caminos que, sin duda, merece la pena recorrer.
.