28/03/2025

¡Oh! Nvidia niega que la IA pueda ser barata

Buena parte de la audiencia probablemente no esperaba la proclama de Jensen Huang, cofundador y CEO de Nvidia. Este se dijo convencido de que los sistemas de inteligencia artificial con capacidad de “razonamiento” – como el modelo R1 de DeepSeek del que tanto se ha hablado últimamente – van a exigir muchos más recursos informáticos de lo que se predica. “El mundo entero se equivoca”, desafió Huang en la conferencia de desarrolladores de Nvidia, GTC25, contradiciendo a quienes postulan que el futuro de la IA pasa por usar menos recursos, siguiendo la estela de una ignota startup china cuyo oblicuo propósito sería demostrar que Huang está despilfarrando el dinero de accionistas y clientes.

Jensen Huang

En opinión de Huang, es justo lo contrario y precisamente por esto en la GTC2025 anunció que, sucesivamente, piensa introducir sistemas de chips más potentes: primero el Blackwell Ultra hacia finales del segundo trimestre, seguido de Rubin un año después y de Rubin Ultra a continuación, para llegar en 2028 con otro llamado Feynman, un homenaje al talentoso físico que se atrevió a predecir la computación cuántica. Esta hoja de ruta implica que el Blackwell Ultra desplazará al Blackwell actual, que fuera anunciado en la conferencia el año pasado pero tardó meses en entregarse en cantidades sustanciales debido al arrastre de problemas de diseño y producción.

No está claro que los 25.000 asistentes que colmaban un pabellón de San José (California) salieran convencidos de lo que había dicho Huang en su conferencia inaugural de dos horas y media. Algunos inversores siguen con inquietud el desenfreno inversor del empresario del momento. Otros se cuestionan – como acaba de advertir un informe con la autoridad de McKinsey – si el  ritmo de adopción por las empresas de soluciones que incorporan IA es suficiente para justificar el frenesí. Por su lado, Huang hace lo que cualquier otro empresario haría en su lugar: vende lo que ha desarrollado y no cabe esperar que sea él quien eche el freno.

Pero es un hecho que la acción de la compañía bajó más del 3% tras las palabras de Huang y – antes del crash del miércoles – acumulaba un 12,6% negativo desde la primera sesión del año. Pero también es un hecho que Nvidia es la segunda empresa más valiosa de la bolsa, sólo precedida por Apple y en virtual empate con Microsoft en torno s los 2,9 billones de dólares.

En parte, esta situación ha sido provocada por un desliz verbal de Huang cuando en una mesa redonda afirmó que la computación cuántica no se generalizará hasta dentro de diez años (luego se corrigió, pero ya no pudo evitar que cayeran todas las acciones relacionadas con la llamada quantum economics, que se financian gracias a las  expectativas creadas en el mercado de capitales). A su escala, Nvidia ha tenido que compartir el patinazo.

Al margen de esta anécdota, que no deja de tener relevancia, en los días de la conferencia ha quedado de manifiesto que Nvidia es imbatible en los modelos de aprendizaje de la IA generativa: sus chips tienen prácticamente el monopolio de la categoría. La compañía está preparada para dominar la fase emergente de modelos de razonamiento, con múltiples plataformas para distintos casos de uso y perfiles de usuario, muchas de ellas mostradas en la conferencia.

Por otra parte, Nvidia tiene una gran ventaja derivada de sus inmensos recursos. Se calcula que su flujo de caja es de 60.000 millones de dólares, mientras el de su competidor AMD es de 2.400 millones y el de Intel es negativo en 15.700 millones. Esto permite a Huang el lujo de invertir en las startups que aparecen con intención de desarrollar la nueva IA, con una generosa participación que los convierte en clientes cautivos de Nvidia. Además de sus chips le compran su arquitectura de diseño CUDA: es natural que a cualquier startup le interese esta relación dual, porque le facilita la tarea de desarrollar modelos propios.

Hasta el pasado junio, las acciones de Nvidia habían subido como la espuma, hasta llegar a ser el fabricante de semiconductores más valioso, por delante de TSMC, treinta veces más valiosa que Intel y situarse en la línea de los 3 billones de dólares de capitalización. Pero los inversores empezaron a temer que Huang – y sus clientes – se estuvieran pasando de la raya. No veían claro – y hay quienes siguen sin verlo – que esas inversiones tengan un retorno apreciable en plazos sensatos. Se hablaba de gastos monumentales que, para colmo, dispararían el consumo de electricidad. Así fue como el mercado bursátil vivió los altibajos de Nvdia, pero el saldo final ha sido ascendente.

El drama salí0 a la luz en enero, cuando la compañía china DeepSeek – en extraña coincidencia con la investidura de Donald Trump – contraprogramó a Nvidia al anunciar su modelo R1 escrito en código abierto. Se recordará que en un día la cotización de Nvidia se desplomó, dejando por el camino 600.000 millones de dólares, que no son pocas plumas. Desde entonces se han mantenido, más o menos, en ese escalón. Por consiguiente, Huang tenía un objetivo para la conferencia de San José: que Nvidia saliera reconocida como la compañía de hardware (y de software, que a veces se olvida) mejor preparada y con ambición y recursos de sobra para liderar el desfile triunfal de la IA, ahora con capacidad añadida de razonamiento.

¿Y si Huang tuviera razón? El modelo de DeepSeek y sus alternativas requeriría muchos más recursos (y más dinero) de lo confesado por sus proponentes. Hasta cien veces más, sugirió el CEO de Nvidia. Pues, entonces, el problema sería que las inversiones no serían fáciles de rentabilizar, porque pocos creen que la demanda sea suficiente para soportar esas cuantías y amortizarlas.

Lo cierto es que Huang no desmintió a los inversores dubitativos. Lo que sí les aseguró de manera vehemente es que el progreso de la IA que razona (con los llamados agentes de IA, que automatizarán muchas tareas de los usuarios) no será barato: exigirá cuantiosos recursos en forma de chips muy avanzados dotados de memoria ultrarrápida (de Nvidia, sí, ya que nada deja suponer que vayan a aparecer alternativas asequibles a la vez que efectivas),

Jensen Huang argumentó que los modelos de aprendizaje – hoy muy centrados en el lenguaje – deberán incrementar su capacidad de razonar (los llamó reasonic models y así quedó bautizada la categoría), que exigirán manejar mucha más información y, en consecuencia, requerirán procesadores gráficos más potentes y dotados de más memoria y más rápida. Porque el tratamiento de la mayor cantidad de información deberá hacerse – dijo – de la forma más acelerada posible.

Según un informe de Bloomberg Intelligence, publicado un día antes de la apertura de la GTC25, la inversión anual combinada en IA a principios de la próxima década será de más de medio billón de dólares, en parte por la irrupción de DeepSeek (y otras chinas que cabe esperar) y en parte por el crecimiento de la estadounidense OpenAI. Calcula el informe que la inversión en centros de datos y  programación de las grandes tecnológicas de Estados Unidos [quedan excluídas las previsiones chinas, que se desconocen, pero serán altas] de este año será de 371.000 millones de dólares, un 44% más que en 2024. En 2032, será de 525.000 millones de dólares. De momento, Jensen pudo confirmar que en el trimestre en curso, sus clientes le han comprado más chips de los más caros (es decir, Blackwell) a pesar de DeepSeek y de los nubarrones que planean sobre la economía estadounidense. Por lo que parece, el negocio de Nvidia va viento en popa, aun cuando en el horizonte han de aparecer competidores que deberán consolidarse como alternativas reales.

En entrevistas posteriores, una de ellas con el Financial Times, Jensen aseguró que su compañía desembolsará medio billón de dólares en la adquisición de chips y componentes electrónicos fabricados en Estados Unidos durante los próximos cuatro años. Esta parece ser una promesa que hizo a Donald Trump en una visita a Mar-a-Lago, a cambio de tolerancia (relativa) a sus relaciones con China. Añadió en la entrevista su convicción de que encontrará contratistas de servicios de fabricación por un millar de millones.

Con más precisión, aseguró que los nuevos Blackwell serán fabricados por TSMC en su factoría inacabada en Arizona. Sin embargo, dejó en el aire aclarar si se refería a las obleas o también se harán en Estados Unidos los procesos posteriores de corte, verificación y encapsulado, que son la parte más compleja de la producción de semiconductores, que ahora mismo contrata en Taiwán y China continental.

De todo lo hablado en cinco días de conferencia, lo que ha quedado en primer plano son las declaraciones de Huang. Se pueden interpretar en el sentido de que su compañía seguirá facturando en los próximos años con unos beneficios que ya son descomunales [72.880 millones sobre 130.497 millones de ingresos]. Los crecimientos no serán los de antaño, pero previsiblemente serán de un dígito alto, suficiente para conservar el estatus bursátil alcanzado. Más difícil es prever la papeleta de los fabricantes que quieren una porción del pastel que ahora se come Nvidia. Aunque algo podrá influir el mercado de inferencia, que debería crecer mucho más que el de entrenamiento que ha sostenido hasta ahora el negocio.

Unas estimaciones de Barclays Research apuntan que el gasto total en inferencia de IA será de 125.000 millones de dólares este año, frente a los 90.000 millones en entrenamiento. Para 2026, según Barclays, el entrenamiento debería subir hasta 115.000 millones mientras el de inferencia treparía hasta 205.000 millones; al año siguiente cambiarían las tornas y el  gasto en entrenamiento se instalaría en 300.000 millones de dólares. Aunque crezca a su lado la competencia, es evidente que tiene un bocado enorme que llevarse a la boca. A menos, claro está, que a los inversores se les haya subido el miedo a la cabeza.

[informe de Lluís Alonso]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2025 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons