Nvidia ha encontrado en los procesadores gráficos su particular mina de oro. La cotización de la compañía se ha más que duplicado en los últimos doce meses y las expectativas son aún mejores para este año. Hasta hace poco, el principal motivo de euforia bursátil era su dominio de las tarjetas gráficas para juegos, pero luego se ha visto que la tecnología de análisis de imágenes también es idónea para procesos de inteligencia artificial en los centros de datos y la visualización del entorno en vehículos autónomos. Lo que ha alumbrado dos mercados potencialmente generosos. No obstante, NVidia sabe que en esta carrera le persiguen dos rivales, Intel y AMD, sobrados de recursos y tecnología.
Las acciones de Nvidia subieron un 81% en 2017 y han escalado otro 26% en treinta días de enero, rozando los 250 dólares cuando hace un año cotizaban a 100 dólares y hace dos a 30 dólares. Dos días antes de la apertura oficial de la feria CES de Las Vegas, el confundador y CEO de la compañía, Jen-Hsun Huang (simplificando, Jensen), protagonizó una performance singular, ocupando a solas el escenario durante una hora y sin apenas otro recurso que su palabra.
De los cerca de 7.000 millones de dólares que Nvidia calcula que habrá facturado en 2017, 4.060 millones provienen de las tarjetas gráficas, otros 835 millones de sistemas de visualización profesional, una cantidad similar de centros de datos y algo menos, 698 millones, de royalties generados por su tecnología; el resto, 487 millones, corresponde a la industria de automoción. Por lo tanto, la división gaming representa casi el 60% de los ingresos: es la auténtica vaca lechera que permite incubar otras áreas de negocio.
Según Huang [o sea, Jensen] unos 200 millones de gamers utilizan sus tarjetas GeForce, introducidas al comienzo del verano de 2016 con la tecnología Pascal. Los modelos más vendidos – GTC 1070 y 1080 – se acoplan a las placas base de portátiles y desktop, aunque recientemente Nvidia ha presentado las más potentes 1080Ti, Titan X y Titan XP. Hasta mediados de 2017, cuando AMD presentó su nueva generación de tarjetas externas RX Vega para equipos de sobremesa con arquitectura renovada, NVidia prácticamente no tenía competidor en las tarjetas gráficas de gama alta, que son las que generan mejores márgenes.
Desde entonces, AMD ha ampliado su gama en pocas semanas habrá en el mercado procesadores Ryzen para equipos de sobremesa y portátiles con gráficos incluidos, por lo que se espera que el mercado sea mucho más competitivo. Además, AMD ha anunciado en el CES que a mediados de año tendrá listo un refresco de su tecnología gráfica Vega y en 2019 una nueva generación. Ha de añadirse que Intel prevé lanzar en breve una familia de procesadores muy potentes, con gráfica integrada gracias a un heterodoxo acuerdo con su rival AMD. Queda por ver qué puede dar de sí el fichaje de Raka Koduri, antes responsable del grupo de soluciones gráficas de AMD y, desde noviembre, en plantilla de Intel.
Claro está que Nvidia no se deja sorprender. Ya tiene a punto la respuesta al desafío real de AMD y al potencial de Intel: su nueva arquitectura de tarjetas gráficas Volta supone, conforme a lo anunciado, un gran salto cualitativo con respecto a Pascal, que ha cumplido dos años. La compañía ha empezado a enviar muestras a los fabricantes de ordenadores, lo que significa que podrían estar en el mercado a mediados de año. Las fechas de disponibilidad son relativas, porque Jensen ya anunció la arquitectura Volta en el CES de 2017, por lo que habrá transcurrido un año y medio entre las palabras y los hechos.
En el frente de las tarjetas gráficas, Nvdia tiene poco que temer aunque aumente la competencia. Además, aparte de las nuevas tarjetas internas y externas, ha prometido la próxima disponibilidad del servicio en línea G-Sync, que proporcionará imágenes de gran calidad para pantallas y monitores muy grandes. Y el Max-Q Design, un diseño que permitirá hacer portátiles muy finos y ligeros con capacidad gráfica similar a una tarjeta externa de alto nivel. Algunas muestras de estos portátiles se pudieron ver en el CES en los stands de HP y Acer.
Aunque Jensen presuma de que “todos seremos gamers” y de que ahora mismo «somos 1.000 millones», la realidad es que el mercado poco puede crecer en facturación. No muchos aficionados pueden o quieren gastarse cada año de 300 a 500 euros en tarjetas de gama alta para sus equipos de sobremesa o portátiles de 1.200 euros como mínimo. Ciertamente, es un mercado importante y lucrativo: Nvidia y sus competidores van a seguir ganando dinero, pero el crecimiento de la facturación depende de que la tecnología gráfica conquiste otros mercados.
Esto es precisamente lo que ha venido haciendo Nvidia en los cinco años pasados: aparte de mejorar continuamente sus tarjetas para gamers, ha encontrado en el reconocimiento instantáneo de miles de millones de imágenes la posibilidad de que los ordenadores “aprendan” a distinguir una cosa de otra e infieran información que después se revelará muy útil. Es decir, Nvidia ha atacado el incipiente mercado de los chips para inteligencia artificial (IA) con técnicas de aprendizaje profundo o deep learning.
Para ello ha creado una plataforma de IA que consta del procesador Volta, capaz de desarrollar 125 teraflops con su núcleo Tensor Core, más la capacidad de inferencia aceleradora TensorRT y la tarjeta Titan V, un “superordenador para desarrolladores”. La plataforma está planteada como una multitud de tarjetas gráficas en la nube para cada tarea y una nube para cada fabricante de ordenadores. Por si fuera poco, a base de unir doce procesadores Volta, se consigue montar un superordenador DGX-1 y una estación de trabajo DGX capaz de alcanzar un petaflop, es decir, 1.000 teraflops o un trillón (castellano) de operaciones de coma flotante por segundo.
Según la compañía, a base de unir 160 procesadores Volta, se configura un centro de datos capaz de procesar 45.000 imágenes por segundo, con un coste de propiedad diez veces inferior a los tradicionales. Por otra parte, el consumo de energía sería de kilovatios. El extravertido CEO proclamó que con estas máquinas «se puede solucionar lo irresoluble” (sic).
El despliegue escénico dio aún para más. Anunció la disponibilidad de muestras de Drive Xavier para este primer trimestre. Se trata, según él, del primer procesador para vehículos autónomos y también el primer chip integrado o SOC (Silicon-on-Chip) jamás construido, con un área de 350 milímetros cuadrados y 9.000 millones de transistores.
Drive Xavier es el epítome de la apuesta de Nvidia por los vehículos autónomos. Representa, siempre según el hombre de la chupa de cuero, unos 8.000 años de trabajo de ingeniería. Nadie le pedirá cuentas sobre esa afirmación, pero de momento ha conseguido que 320 socios desarrollen las diversas partes de vehículos autónomos, entre ellos Volkswagen como partner principal.
Pasará algún tiempo antes de que los anuncios sean una realidad plena y probablemente habrá contratiempos: muchas voces alertan del peligro que representan los coches autónomos, y algunas incidencias de circulación han obligado a revisar los programas de desarrollo. Drive Xavier, por ejemplo, tenía que estar disponible hace doce meses. Aunque hubiera más retrasos, es incuestionable que NVidia dispone de una cartera de proyectos de muy largo alcance, que justifica el ostensible entusiasmo de los inversores.
[Informe de Lluís Alonso]