publicidad
  18/01/2024

Nvidia acelera, pero arriesga el mercado chino

Nvidia ha vivido en 2023 su momento más dulce, aprovechando el tirón de la Inteligencia Artificial. Pese a disfrutar de unos resultados trimestrales que triplican los de cualquier año fiscal precedente, la compañía que lidera Jensen Huang no puede dormirse en los laureles. Las férreas restricciones que perturban su negocio con China, impuestas desde la Casa Blanca, podrían aguar la fiesta de una empresa que, en su impresionante escalada, ha superado el billón de dólares de capitalización bursátil. Un estatus del que muy pocas pueden presumir. Que se lo digan a Intel y AMD, que se han quedado sorprendidas por la pujanza de la nueva estrella de la industria de semiconductores.

El infatigable Huang ha sido recibido como un héroe nacional en Taiwán, su país natal y al cabo del año ha compartido escenario en las  conferencias  de los gigantes AWS, Microsoft y Google Cloud y ha sido la estrella invitada de las conferencias de Dell, Lenovo y VMware. No así en la de HPE en Las Vegas pero en HPE Discover de Barcelona, se anunció una expansión del acuerdo que desde hace tiempo une a las dos compañías.

Aunque la imagen pública de Nvidia ha estado durante décadas muy asociada a sus tarjetas gráficas – lo que le ha valido explotar los filones de los videojuegos y las criptomonedas –  la computación acelerada ha ocupado los desvelos de su fundador, inmigrante que, según sus palabras, empezó “lavando  platos mejor que nadie”

Los primeros en darse cuenta del potencial de los  desarrollos de Nvidia fueron los investigadores en IA que trabajaban en redes neuronales: en 2012, la ascendente compañía de Santa Clara empezó a desarrollar el sistema que habría de convertirse en su primer superordenador especializado en IA. Tiempo después, serviría al joven equipo de OpenAI para entrenar ChatGPT. Resultado: ahora Nvidia se encuentra en una posición privilegiada, en un mercado de la IA generativa al que unas 40.000 empresas se han asomado como usuarias a título de prueba, lo que ha atraído a cuatro millones de desarrolladores.

Estos factores se reflejan en los resultados de la compañía, que ha cerrado el tercer trimestre de su año fiscal con una facturación de 18.120 millones de dólares, un 34% más que en el trimestre anterior y el inusual 206% más que un año atrás. Las previsiones de los analistas de Wall Street se han quedado cortas en 2.000 millones de dólares, pero ya adelantan que el cuarto trimestre cerrará a fin de enero con algo más de 20.000 millones de ingresos.

Como en trimestres anteriores, el impulsor del crecimiento es la demanda de chips de IA para los centros de datos, destinados al entrenamiento e inferencia de los LLM (Large Language Models) de la IA generativa. Para Nvidia, su división de Datacenter confirma y desborda las expectativas de Huang: su división de datacenter ha facturado 14.500 millones – el 80% de las ventas totales – con los que a punto ha estado de cuadruplicar el mismo período del año fiscal 2022, más del 80% de las ventas totales, con un peso muy significativo de los provedores cloud.

En concreto, las ventas de chips y sistemas de IA dentro de ese segmento han sido las de mayor crecimiento (324%) gracias a los sistemas HGX con sus GPU basadas en Hopper, como la H100. A ello se suman los ingresos por redes de centros de datos creciendo a un ritmo del 155%.

Aunque el sorpasso entre dos divisiones se remonta al primer trimestre de 2023, el área de Gaming sigue facturando 2.856 millones de dólares, un 15% del total. En los demás segmentos, la línea ligada a la automoción está por explotar: de momento, ingresa 261 millones y crece un modesto 4%, pero tendrá mucho que decir en los tiempos venideros. En el gráfico, la barra llega a 18.120 millones hasta el tercer trimestre, lo que garantiza que el año fiscal será récord absoluto para Nvidia.

Durante la conferencia con analistas, Huang profundizó en algunas de las causas que, a su juicio, explican el éxito de la compañía que fundó en 1993. Destacó, entre otras, el cuidado de la base instalada como uno de los motivos por los que su motor de inferencia TensorRT-LLM resulta tan atractivo: “ya no se trata de que sea utilizado en las principales nubes, sino que ha sido escogido como estándar de facto”, apuntó.

El chip  de bandera de Nvidia ha sido esencial para promover el bum de la IA. Con 80.000 millones de transistores, el H100 se ocupa de entrenar los LLM [Large Language Model] que subyacen en los desarrollos de Open AI y en ellos se cimenta la hegemonía de Nvidia en la IA. Un H100 se ofrece en los mercados online a 57.000 dólares y es normal que un centro de datos muy potente tenga miles de ellos en sus sistemas.

Para llegar a este punto – dijo – ha sido esencial mantener una disciplina en relación con la compatibilidad, de modo que cada nueva GPU es compatible arquitectónicamente con toda la pila de software de Nvidia, lo que otorga estabilidad a toda la plataforma. Además, ha acelerado los tiempos de ejecución, pasando de lanzar productos cada dos años a hacerlo cada año, redundando en una reducción de costes. Según Huang, la combinación de TensorRT-LLM con H200 reduce a los clientes el coste de una inferencia en un factor 4. Con esta aceleración se amplía el alcance de la IA generativa y el número de configuraciones posibles en los datacenter. No en vano Nvidia trabaja con todos los hyperscalers, si bien con cada uno cambia el modelo de relación.

Para soportar su acuerdo con OpenAI, Microsoft ha tenido que construir un superordenador con 20.000 procesadores gráficos (GPU) A100, previos a la aparición del H100. Por su parte, Amazon, Google, Oracle y Meta han encargado grandes cantidades de H100 para sus infraestructuras cloud actuales y futuras.

El cofundador e inamovible CEO de Nvidia está convencido de que la mayor parte de las empresas de software, que en la práctica ya son “plataformas de herramientas” (Adobe, SAP, ServiceNow, Dropbox, etc) no se permitirán el lujo de externalizar su IA y querrán tener una propia patentada. También ahí entrará en juego Nvidia, que a estos efectos haría el papel – es una aproximación forzada –de TSMC en la fabricación de chips generalistas. Para ello, cuenta con DGX Cloud, donde dispone de una cantidad de sandboxes para ayudar a esas compañías a desarrollar su IA personalizada con sus propios datos, acelerando así el tiempo de su puesta en producción. Esta oferta, bautizada como Nvidia AI Enterprise, permite optar por licencias bajo suscripción, por instancia o por uso, en todos los casos.

El objetivo de 20.000 millones de dólares en el cuarto trimestre supondría un crecimiento del 10,4% con respecto al período anterior y, aunque sería muy positivo. Delata una cierta ralentización comparando con los previos, más altos (34% y 88%). Con todo, significaría crecer casi un 230% sobre el cuarto trimestre anterior.

Las previsiones se antojan optimistas si se tiene en consideración el varapalo que para Nvidia podrían suponer las restricciones comerciales que ha decidido la administración Biden a la venta de chips a China. Según la CFO de Nvidia, Colette Kress, los ingresos trimestrales originados en el gigante asiático oscilan entre el 20% y el 25% de la facturación ligada a los centros de datos, lo que dista de ser una buena noticia en los tiempos que corren: la suma representa aproximadamente 3.600 millones de dólares.

Nvidia trata de sortear estas restricciones con nuevos diseños de sus chips, pero la secretaria de Comercio de Estados Unidos, Gina Raimondo, se ha mostrado implacable al asegurar que a cada innovación que intente eludir las reglas, se le aplicará una nueva restricción. En una primera confrontación, la administración Biden consiguió parar las entregas de chips A100 y H100 a China, pero en octubre una nueva ronda de restricciones ha bloqueado las ventas de los A800 y H800 que Nvidia había desarrollado como alternativa.

Las nuevas restricciones a las GPU son aún más duras y podrían asestar un golpe financiero a Nvidia. Las políticas aplicadas celosamente por Raimondo ya están impactando en la estrategia de la compañía, que ha tenido que retrasar la entrega de órdenes de pedido chinas. Es el caso del HGX H20, el más potente de los tres que pensaba vender a tan importante cliente, junto a otros que estaban anunciados para el primer trimestre de 2024.

En este juego del gato y el ratón – entre una empresa estadounidense y el gobierno de su país – la industria ha descubierto que depender de una sola fuente de suministro de un componente de vida o muerte es una ruleta rusa. Una razón más que suficiente para que Google se lanzara a construir sus propios chips TP, mientras que Microsoft y Amazon han admitido estar trabajando en sus propios chips aceleradores. Mientras tanto, los escocidos Intel y AMD han reaccionado anunciando Gaudi 2 y MI300 como opciones de recambio. Nvidia no tendrá disponible el H200 hasta mediados de año.

Surge aquí la pregunta de si realmente es posible desarrollar un chip para IA (o casi cualquier chip) cuyas prestaciones sean capaces de sortear el filtro de Raimondo y, al mismo tiempo, sea lo bastante potente y atractivo para la ambición china. Todo indica que no, aunque Huang ha querido quitar hierro al asunto hablando de la vasta cadena de suministro de Nvidia.

Ante la posibilidad de un corte del suministro de chips de Nvidia, el gobierno chino está potenciando a Huawei como “su” alternativa. No da la impresión de serlo, de momento, porque su escalabilidad y calidad no parecen dignos de un rival para Nvidia, pero también es cierto que los chinos están por debajo de los estadounidenses, por lo que podría ser suficiente para progresar. Según las últimas informaciones,  cerca de medio centenar de empresas chinas estarían colaborando en la tecnología que se pretende compita con la de Nvidia. No es una buena noticia para esta, que hace poco presumía de controlar el 90% del mercado chino de chips para IA, valorado en 7.000 millones de dólares.

Además de las restricciones y de los rivales emergentes, Nvidia no puede perder de vista a Intel y AMD, decididos a reclamar su tajada del pastel. Las ventas de AMD han facilitado un crecimiento del 64% que evidencia una mayor fortaleza que Intel, cuyas ventas en el mismo segmento han caído un 15%, gracias a sus lazos de cooperación con TSMC, le han propiciado.

Son muchos los frentes abiertos para en nuevo miembro del club del billón de dólares, pero algunos son claramente amenazas. El tiempo dirá si el talentoso Huang es buen timonel en tiempos tormentosos.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons