Póngame una de chips (parte I: la opulencia)

Director Científico del CiTIUS-Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela —
13 de julio de 2024 22:08 h

0

Hablamos mucho de chips últimamente. Sobre todo de su escasez, lo que está causando muchos problemas a ciertos sectores productivos. Pero de eso irá la segunda parte de este artículo. Ahora quiero hablarles de cómo ha ido evolucionando a lo largo del tiempo este mercado.

Desde los años 60 los circuitos integrados han ido duplicando su capacidad cada año o dos, al compás de la conocida como ley de Moore, que no es realmente una ley, sino una conjetura que de momento se ha mantenido por la evolución de las tecnologías de fabricación de chips. Gordon Moore, uno de los fundadores de Intel, hizo esta especulación en 1965, y acertó de pleno.

Se han cumplido 40 años del primer ordenador personal de IBM, que dio nombre al PC, siglas de “Personal Computer”, y que pavimentó el camino de la universalización de la computación. IBM se convirtió en sinónimo de computación personal, y la empresa Intel, que fabricaba el “cerebro” de la máquina, en el líder mundial de fabricación de chips para los PC. Sus microprocesadores son cada vez más potentes, pero también más grandes, más caros y con mayor consumo. 

En los noventa fueron ganando protagonismo las denominadas GPU, siglas de “Graphic Processing Unit”, unos chips orientados específicamente al procesamiento de gráficos, que tienen unos requisitos de memoria y cálculo muy concretos. Por tanto, tener chips diseñados específicamente para ellos aporta mejoras evidentes. Los apasionados por los juegos de ordenador saben de qué hablo. En este mercado altamente rentable, creció como la espuma la empresa estadounidense Nvidia.

Metidos ya en el milenio en el que andamos, son los móviles los que han impuesto sus necesidades al diseño de chips, sobre todo en lo relativo a la eficiencia energética. Hay mucho cálculo que hacer para lidiar con el sinfín de aplicaciones que cargamos en nuestros móviles. De hecho, su potencia de cálculo es millones de veces la del ordenador de a bordo del Apollo 11. Además, la batería ha de durar lo suficiente como para no vivir pegados a un enchufe. Aquí son Qualcomm y ARM las compañías que se están llevando el gato al agua.

 Ahora comienza a hablarse de una nueva generación de chips, los específicamente diseñados para aplicaciones de Inteligencia Artificial. En concreto, para las aplicaciones de aprendizaje automático, que pueden manejar cantidades masivas de datos. Los algoritmos que se utilizan en este tipo de aplicaciones realizan de forma intensiva ciertas operaciones que se repiten una y otra vez, por lo que tiene un gran interés el diseño de chips que sean especialmente eficientes en su cálculo. Las GPU de las que antes hablamos son muy útiles en este cometido, y esto le viene de perlas a empresas como la mencionada Nvidia. Pero el mercado es tan grande y está creciendo de un modo tan acelerado (se estima que llegará a los cien mil millones de dólares en 2025), que el diseño de chips de propósito específico para el aprendizaje automático basado en redes neuronales artificiales está ya a la orden del día. A esta nueva oportunidad no solo acuden empresas ya asentadas, sino también otras de nueva creación. Este es el caso de Cerebras, que a día de hoy fabrica el chip más grande y potente del mercado. Se trata del WSE-2, que tiene la superficie equivalente a un plato. En concreto, ocupa toda la oblea que se usa normalmente para hacer docenas o centenares de chips. El principal problema es que cualquier error en el proceso de fabricación da al traste con la oblea entera, mientras que si esta se usa para fabricar muchos chips iguales, tras la fabricación han de descartarse solo aquellos que en su caso presenten algún defecto, algo nada infrecuente, dada la extraordinaria sofisticación del proceso de fabricación.

Para que nos demos una idea del tamaño de este chip, pensemos que el primer microprocesador de la historia, fabricado por Intel en 1971 y denominado 4004, tenía 2.300 transistores. El transistor es el componente básico de los chips y para entender su función puede servirnos pensar en él como un diminuto interruptor que deja o no pasar la corriente a su través, en función de que se le aplique a su vez una corriente de control. Pues bien, el WSE-2 tiene 2,6 billones de transistores, más de mil millones de veces el número del 4004. Si tenemos en cuenta que la relación de tamaño entre aquel y este es de menos de 500 veces, eso quiere decir que se ha aumentado la densidad de transistores por unidad de área en un par de millones de veces. De no haber sido así, el tamaño del WSE-2 sería el equivalente a veinte campos de fútbol.

En principio, cuantos más transistores se integren en un chip más cálculos puede hacer simultáneamente, así que una buena parte de la carrera en el diseño de estos circuitos integrados se ha orientado a lograr embutir más y más transistores por unidad de área y por chip. También es muy importante cómo se conecten entre sí, dando lugar a diseños que resulten más eficientes, al menos para cierto tipo de usos, como ocurre con los chips orientados al aprendizaje automático. 

El futuro ya se está diseñando: nuevos materiales, chips en tres dimensiones, cuánticos, biocompatibles… Crecen las inversiones porque también lo hacen los beneficios. En parte porque queremos que nuestros móviles y ordenadores personales sean cada vez más y más potentes para ejecutar un software a menudo sobredimensionado para justificar a su vez chips más potentes, que permiten ejecutar programas aún más complejos. Y así va girando una rueda, tan innecesaria a veces como rentable para algunos.