Desde que Nvidia se erigió en caudillo de la inteligencia artificial, buena parte de la industria ha expresado el deseo de que surgiera un competidor de su talla. AMD parecía e aspirar al papel, pero sus fuerzas son limitadas, por lo que se ha resignado a un puesto secundario bastante cómodo. Hasta que, de improviso, dos movimientos consecutivos de Google han eclipsado el negocio complementario de Nvidia y Open AI en el desarrollo de la IA. Primero fue la presentación de un rompedor modelo de Google, Gemini 3 y le siguieron unos chips TPU que cuestan una fracción de los de Nvidia. A finales de octubre, Anthropic causó estupor al anunciar que compraría a Google una gran cantidad de TPU.

Tras estas noticias, la puntilla: una versión fehaciente según la cual Meta hará lo mismo el año que viene, lo que ha disparado el valor de Google y las posibilidades de Gemini 3, mientras Nvidia trataba de disipar inquietudes y Microsoft de minimizar sus ataduras a OpenAI. Esta vez se trata de una conmoción de mayor calado que la provocada a principios de año con el anuncio de la china DeepSeek.
La capacidad de sorprender que tiene el negocio de la inteligencia artificial no conoce límites. Mientras hace pocas semanas, el foco estaba puesto en la aprensión ante una probable burbuja bursátil creada por las billonarias inversiones en IA en la próxima década y por el alza inusitada de las acciones de las empresas, en los últimos días ha sido Google la que ha dejado boquiabiertos a analistas financieros y agoreros de la IA. Incluso Nvidia, que parecía imbatible, ha salido al paso de situación creada por Google: su patrón, Jensen Huang, ha calificado la novedad como “un caso muy especial”, dando a entender que no afectará la solidez de su negocio basado en unos chips gráficos (GPU) fabricados por TSMC y en el ecosistema creado para su plataforma CUDA.
El origen de todo está en las TPU (Tensor-Processing Unit) desarrolladoa internamente por Google desde hace diez años para las necesidades específicas en motores de búsqueda y análisis de la información. Sus TPU van por la séptima versión (apodadas Ironwood), que es mucho más cara que la anterior pero así y todo un servidor típico IA en rack con TPU cuesta entre la mitad y una décima parte de uno con chips de NVidia, según los analistas del bróker Bernstein. Está previsto que la próxima versión, octava de la serie, cueste la mitad que la séptima, mientras se estima que el chip R200 de Nvidia duplique el precio del B300, según la misma fuente.
Otras grandes tecnológicas estadounidenses, como Microsoft, Amazon y Meta, hace años que diseñan sus propios chips para IA, pero no han llegado al grado de desarrollo de Google, lo que se debería a que esta se ha centrado siempre en que sus chips resuelvan necesidades específicas mientras que los demás buscaban soluciones más generales. En todo caso, no estaba claro que las TPU sirvieran para necesidades genéricas y otros modelos de IA fuera de Google pero el anuncio de compra de varios millones de unidades por Anthropic y la operación con Meta, han convencido de lo contrario.
Los chips TPU de Google son distintos de las GPU (Graphic Processing Unit) de Nvidia. Ambos están preparados para manejar un gran número de los cómputos requeridos en los modelos de aprendizaje IA, pero por vías distintas. Los GPU de NVidia fueron desarrollados inicialmente para procesar imágenes de videojuegos a velocidad vertiginosa y con múltiples núcleos de procesador en paralelo, que después se han optimizado para los modelos de IA. La arquitectura CUDA exclusiva de NVidia, con su inmensa biblioteca de programas a los que se han familiarizado miles de desarrolladores, también han contribuido al clamoroso éxito de Nvidia en IA.
Las TPU de Google funcionan mediante una tarea conocida como multiplicación matricial, capaz de hacer miles de millones de operaciones por segundo de forma secuencial, como una clásica CPU, pero con mucha más eficiencia. Las GPU de Nvidia – la H100 o la más reciente B200 – también son muy rápidas con los gráficos gracias a que trabajan muchas en paralelo, pero con un consumo de energía mucho mayor que las TPU.
Así, se calcula que una CPU para servidores de alto nivel, como la Xeon 6P de Intel, es capaz de ejecutar aproximadamente un billón de operaciones de coma flotante por segundo por cada vatio y por cada chip (1 Tflop/W/chip) mientras que la GPU H100 de Nvidia alcanza 2,9 Tflop/W/chip y la TPU Trillium de Google 4,3 Tflop/W/chip. La GPU B200 de Nvidia logra un poco más, 4,5 Tflop/W/chip, pero es que la Ironwood de Google casi la duplica, con 8,6 Tflop/W/chip, según los cálculos de Bloomberg Intelligence. Este consumo tan bajo de energía sumado a una capacidad de cálculo tan elevada es lo que hace las TPU de Google tan potentes.
Las TPU de Google, como cualquier ASIC (circuito integrado hecho a medida para aplicaciones específicas) son consideradas menos adaptables y menos flexibles que las GPU de Nvidia. Estas son más versátiles y más sencillas de programar que las TPU, pero estos atributos hacen que consuman más recursos, en especial energía eléctrica, una de las grandes preocupaciones del sector.
En cualquier caso, tanto las GPU como las TPU tienen sus ventajas y sus inconvenientes, sin que pueda decirse que una sea mejor que la otra; depende de para qué se usen. Para las necesidades específicas de Google de búsqueda de información y aprendizaje, las TPU son idóneas; por eso la compañía se puso hace diez años a desarrollarlas, porque veía que con una CPU de propósito general necesitaría cada año el doble de infraestructura y en poco tiempo se colapsaría.
En cambio, para aplicaciones genéricas como la inteligencia artificial generativa, las GPU de Nvidia son mejores o, por lo menos, lo eran hasta ahora. Las TPU resuelven, en palabras de Huang, “casos particulares” propios de Google, aunque ahora parece que también servirán para Anthropic y Meta; como mínimo, en algunos casos, porque ambas – también Google, dicho sea de paso – seguirán siendo clientes de Nvidia.
De ahí que Huang se muestre tranquilo ante la competencia. A pesar de que ha bastado un rumor – confirmado implícitamente – para que Nvidia perdiera 100.000 millones de capitalización bursátil, que sin embargo es apenas el 3% del valor de sus acciones.
De cualquier manera, ha quedado claro que Nvidia ya no es intocable; los chips IA de AMD y Huawei apenas la habían inmutado. Google, por su lado, ha puesto de manifiesto su disposición a vender sus chips a competidores directos.
Para Microsoft, sin embargo, y para su asociada OpenAI, las TPU pueden ser también interesantes: basta pensar en los robots conversacionales de ChapGPT de OpenAI y en los Claude de Anthropic que utilizan, en según qué casos, sistemas de multiplicación matricial como las TPU.
Hasta ahora, la gran mayoría de ls TPU de Google, tanto Trillium (TPUv6) como Ironwood (TPUv7) están fabricados por la taiwanesa TSMC. Para abastecer a Anthropic, y sobre todo para Meta si finalmente se produce el contrato de suministro, va a necesitar nuevas capacidades de producción. Todo indica que TSMC está al límite de la suya y todo indica TSMC esta al límite la suya. ytan
Aparte, tanto las GPU de Nvidia como las TPU de Google requieren memorias muy rápidas como las HBM, por ahora suministradas por la coreana SK Hynix. El alto volumen de producción que se avecina, Podría abrir la puerta a suministradores distintos.
Sin embargo, la alta sofisticación de las TPU y de las GPU, así como sus memorias hace que sólo Samsung y eventualmente Intel (si encuentra la solución a sus problemas de producción y resuelve finalmente sus problemas de producción y logra hacer chips para terceros sin defectos con su tecnología 18A) pueden ser candidatos a unirse a TSMC.
El dinamismo de la inteligencia artificial es impresionante. Hace ahora justo tres años que OpenAI presentaba su ChatGPT y ponía en marcha una verdadera revolución. Y hace menos de un año que DeepSeek, anunció su modelo abierto, desencadenando una nueva oleada de descargas y de uso de la IA en todo el mundo. Ahora, con las TPU de Google aptas para múltiples modelos de inteligencia artificial, aparte de Gemini 3, se anuncia múltiples nuevas posibilidades, está por ver en qué quedan las alternativas.
[informe de Lluís Alonso]
