5/06/2023

Nvidia ve más allá del billón de dólares

Como una estrella de rock ha sido recibido Jensen Huang en Taiwán, su país natal, donde acudió a la inauguración de la feria Computex 2023. La verdad es que, sin su presencia, la edición de este año habría sido un muermo con escasas novedades y un ambiente cargado por el conflicto con Pekín. Pero el fundador de Nvidia tuvo la habilidad de presentar una batería de nuevos productos y anunciar acuerdos de colaboración con empresas locales, al día siguiente de convertirse en la compañía de semiconductores más valiosa del mundo. Una recompensa merecida tras la hazaña de cerrar el primer trimestre de su año fiscal con un 19% más de ingresos y anticipar otro 35% de aumento en el segundo.

Jensen Huan

El precedente es sobradamente conocido por haber saltado a los titulares: en una sola jornada, el 24 de mayo, la acción de Nvidia ganó un 24% y desde ese día la compañía se quedó al borde del billón de dólares de capitalización, aunque por alguna extraña razón la escalada se ha detenido ahí. De paso, ayudó a mejorar la cotización de otras en su sector: AMD (+87%), ASML (+33%) y TSMC (+25%). Incluso Intel (+8%), que ha perdido el favor de los inversores, se ha quedado a un pelo de su mayor cotización del año.

A título de comparación: sumando la capitalización bursátil de AMD, Intel y Qualcomm el viernes pasado, no se llega a la de Nvidia en la misma sesión. Y fuera de los semiconductores, sólo cinco cotizadas superan la barrera del billón: Apple, Microsoft, Alphabet, Amazon y Saudi Aramco (cuatro de ellas a la vez tecnológicas y norteamericanas)

La hazaña bursátil de Nvidia no es un pelotazo: se mantendrá y hasta puede subir si, como dicen sus previsiones, en el segundo trimestre pasara de 7.192 millones a 11.000 millones de dólares de facturación. Esta compañía, con sede en Santa Clara (California) se ha revelado como una pieza clave de la revolución que ha traído consigo la inteligencia artificial generativa, en su expresión popularizada en los últimos meses, Chat GPT de la joven empresa OpenAI.

Colete Kress, CFO de la compañía, dejó clara la tendencia a la que se apunta Nvidia: “la Ia generativa está provocando un crecimiento exponencial de los requerimientos de computación y una rápida transición en beneficio de la tecnología de aceleración de Nvidia, el enfoque más versátil y eficiente de desplegar proyectos de inteligencia artificial”.

Fue en agosto del año pasado cuando Nvidia, hasta entonces conocida sobre todo por sus tarjetas gráficas utilizadas en videojuegos y en servidores de muy alto rendimiento, dio el paso de presentar su potente microprocesador H100, con su software asociado – a recordar este detalle – que, juntos, hacen que sean realidad los sistemas de inteligencia artificial más avanzados y, para muchos, semilleros del apocalipsis tecnológico.

De momento, la puja por incorporar un H100 a sus plataformas alienta a los gigantes hiperescalares con los grandes centros de datos en sectores verticales como la automoción, los servicios financieros, la sanidad y las telecomunicaciones, en los que disponer de un chip acelerador parece otorgar una credencial de innovación.

Y eso que el H100 no es precisamente barato: puede costar 40.000 dólares por unidad y es muy difícil de conseguir, porque TSMC, la compañía que lo fabrica por contrato con Nvidia, tiene problemas para suministrarlo en el plazo prometido. Se trata, obvio es decirlo, de un procesador extremadamente complejo, con más de 80.000 millones de transistores y miles de conexiones externas a distintos niveles. El coste de montar un servidor de IA generativa con H100 puede ascender, como mínimo, a 250 millones de dólares.

Los gigantes tecnológicos Microsoft y Amazon se codean en la lista de espera por comprar un H100 y  están dispuestos a pagar el precio que sea, lo que ha hecho que la facturación de Nvidia se disparase y, de rebote, su cotización. Tambien Google se ha apuntado, pese a que sería menos dependiente gracias a que cuenta con sus propios chips de IA, Graviton. Otro factor que contribuye a la súbita popularidad de Nvidia es que la administración Biden ha prohibido expresamente que el H100 se venda a cualquier compañía china.

En su presentación en Computex, el fundador y CEO de Nvidia estuvo pletórico. Ni se molestó en mencionar las tarjetas gráficas que la compañía presentará este año, dedicando su intervención a ensalzar un nuevo “superchip” [esta vez, la hipérbole parece justificada] para tareas de IA, llamado GH200.

Al alimón con su colega de MediaTek, Huang anuncio que esta empresa taiwanesa comercializará los procesadores gráficos y el software de Nvidia para su integración en la industria de automoción. Se trata de una firma conocida por sus procesadores para smartphones y cuyo en el mercado parecía condenado a estar en segundo plano de su rival Qualcomm, pero que en las actuales circunstancias del mercado adquiere un perfil más ambicioso.

Según su actual CEO, Rick Tsai, las soluciones de IA integradas de MediaTek y Nvidia estarán disponibles “a finales de 2025”. Al igual que su némesis, MediaTek aprecia un futuro prometedor en la industria de automoción para escapar a su hasta exclusiva dedicación a los smartphones. Al parecer, fue Huang quien convenció a Tsai para llegar a un acuerdo, sobre la premisa de que a ambas compañías les conviene una diversificación.

El GH200 anunciado en Computex homenajea con sus iniciales a Grace Hopper, científica y militar estadounidense recordada como pionera de la computación. Estará disponible a finales de este año y sus primeros usuarios serán Google Cloud, Meta y Microsoft, según adelantó Jensen. Como guiño patriótico, añadió que los chips producidos por TSMC serán encapsulados por empresa taiwanesas entre las que mencionó a Pegatron, Foxconn, Wistron y Quanta.

El CEO de Nvidia (60) nació en Taiwan y emigró con sus padres a Estados Unidos a los ocho años. En frecuentes declaraciones públicas, Huang se ha mostrado crítico con la decisión de la administración Biden de prohibir la venta a China de chips de muy alto rendimiento, decisión que supondria a Nvidia una merma de ventas calculada en 300 millones de dólares cada trimestre. Nvidia ha adaptado el diseño del H100 en un intento de obtener una excepción, pero la elevada demanda ha hecho que no hubiera ocasión de probar esa posibilidad.

En un encuentro con periodistas de su confianza, Huang señaló que la corriente actual favorece a Nvidia porque las compañías están tratando de alcanzar una escala que sólo con el stack de la compañía es posible lograr. “No estamos solos, como alguna gente cree. Tenemos competición desde todas las direcciones. Algunas son startups innovadoras y bien financiadas que están aflorando en distintos países. Por supuesto, también compiten los fabricantes tradicionales de semiconductores e incluso nuestros clientes que tienen capacidad de desarrollar proyectos internos. Aun así, en estos momentos, somos la solución con mas bajo coste total de propiedad (TCO).

Una característica del boom actual de la IA – explicó – consiste en que la aceleración es, en primer lugar, un problema que no se resuelve sólo con el hardware por excelente que sea: requiere que encaje la ingeniería del software con todos los algoritmos e integrar el conjunto para optimizarlo en función de la arquitectura previamente definida. No se trata de un chip sino de toda la arquitectura del centro de datos; la ciencia de la computación ha encontrado en IA un desafío mayúsculo. En segundo lugar – dijo – con la IA generativa se plantea un problema de escala como nunca antes de había presentado, por la necesidad de alimentar al monstruo con cantidades ingentes de datos.

La visita de Huang a Taipei fue también la ocasión de anunciar que Google Cloud, Meta y Microsoft están entre los primeros clientes del superordenador DGX, cuya alma serán los chips GH200, con el que los tres se proponen explorar sus capacidades de procesar cargas de IA generativa.

Además de estos anuncios, Huang se pronunció sobre un asunto especialmente sensible en Taiwán, qué actitud tomar ante la confrontación entre China y Estados Unidos. Para él, la prohibición de exportar sus chips H100 y A100 a China es un error por una razón inmediata: si Estados Unidos se cierra la puerta de una cuarta parte del mercado mundial, no sólo se privará de un capítulo de exportación – y como bien sabe Nvidia – estos chips dejan altísimos márgenes de beneficio, sino que se acaba alentando que el país sancionado, en este caso China – multiplique los esfuerzos por tener capacidad propia de responder a ese reto tecnológico. No cree Huang que China tarde mucho en encontrar la forma de competir con los productos proscritos.

El momento dulce de que goza Nvidia no lo ha logrado de la noche a la mañana. Le ha pasado un poco lo mismo que a TSMC, que se pasó década predicando en el desierto y buscando clientes para sus planes de fabricación de chips por encargo. Es ahora cuando, desde hace unos diez años, recoge los frutos: prácticamente todas las compañías peregrinan a Taipei para que TSMC les fabrique los chips que imperiosamente necesitan. Apple es un caso emblemático, pero también AMD, Qualcomm, Broadcom y Nvidia recurren al fabricante taiwanés. Incluso Intel – el mayor fabricante integrado – se tragó el año pasado su orgullo y optó por externalizar en favor de TSMC la producción de ciertos procesadores.

De no ser por TSMC, los diseños occidentales de chips no serían viables, ya que – aparte de Samsung – es el único fabricante de chips sofisticados por encargo. El enredo es mayúsculo porque TSMC, en un gesto patriótico, se ha sumado de buena gana a las sanciones contra China y en cambio está construyendo una fábrica gigantesca en Arizona, además de negociar un posible proyecto en Alemania. Por la cuenta que le tiene, Nvidia emite frecuentes críticas a la política estadounidense de sanciones contra China.

Hace casi dos décadas desde que Nvidia tomó la decisión de innovar más en el software que hace más eficientes y productivos los procesadores gráficos (GPU) que son su razón de ser original. El software Cuda, creado en 2006, permite que sus tarjetas gráficas aceleren las cargas de trabajo durante el proceso de las imágenes, pero fue en 2012 “cuando la IA nos encontró por el camino”, según ha dicho Ian Buck, responsable del negocio hiperescalar y de HPC en Nvidia, en un encuentro paralelo a Computex.

Las tarjetas gráficas, recordó Buck a los periodistas presentes, resultaron ser ideales para crear redes neuronales, una forma de inteligencia artificial inspirada en la interacción de la neuronas en el cerebro humano, que fue el concepto dominante en IA hasta que GPT le ha arrebatado el palmarés de la moda. “Nos ha llevado veinte años llegar a donde ahora estamos ahora”, presumió Buck. Precisó que Nvidia tiene en nomina más ingenieros dedicados al software que al diseño de sus chips.

El trabajo codo con codo de Nvidia con los investigadores de IA desde 2017 ha permitido optimizar una arquitectura y programar el software para facilitar el aprendizaje de los sistemas de IA generativa desarrollados por la hoy célebre OpenAI. Con los años, Nvidia se ha dedicado al desarrollo de software por diferentes vías, buscando que los modelos estadísticos y de aprendizaje sean mucho más rápidos y eficientes.

Gracias a ello, la compañía fundada por Huang en 1993 ha logrado situarse algunos pasos por delante en los sistemas de aprendizaje de IA, lo que en parte explica por qué no da con la tecla para entregar a tiempo sus chips H100 y el software asociado (tan importante es uno como el otro). Así ha conseguido crecer hasta facturar más que ninguno de sus competidores.

Huang es consciente, sin embargo, de que su ventaja puede durar poco y de que sus competidores le darán alcance, ya que hay una auténtica carrera de inversiones para situarse en el negocio de la IA. Entretanto, las acciones de Nvidia han multiplicado su valor, que es de lo que escriben los medios estos días, sobre todo aquellos que hace un mes no sabían de su existencia.

[informe de Lluis Alonso]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons