17/05/2016

Hay en juego mucho más que videojuegos

Mucho se ha escrito en este blog sobre microprocesadores, poco sobre memorias, y nada sobre tarjetas gráficas. Un trío de componentes del que depende en gran parte lo que la industria llama «experiencia de usuario». Pues bien, la nueva generación de tarjetas gráficas que NVidia y AMD van a poner a la venta promete aumentar las prestaciones sumándose a la ola muy actual de la realidad virtual y aumentada. De entrada, van destinadas a que los videojuegos sean más realistas y hagan que el jugador se sienta protagonista, pero las próximas versiones introducirán aplicaciones de la inteligencia artificial y lo que se conoce como deep learning, junto a las nuevas arquitecturas a punto de arribar.

Jen-Hsum Huang

Jen-Hsum Huang

Los vídeojuegos han sido, y siguen siendo, la fuerza motriz de los ingresos de los fabricantes de GPU (Graphic Processor Unit), un mercado que se va extendiendo hacia la realidad virtual. La lucha por el liderazgo de este mercado sigue una regla peculiar: cada nuevo producto tiene que ser mucho más rápido y más barato para batir a su adversario: una progresión del 20%, que hubiera sido decente años atrás, sería risible hoy en día.

Será la última semana de mayo cuando NVidia introduzca, tras dar mucho que hablar en la prensa especializada, su tarjeta GeForce GTX 1080, la primera destinada al mercado de vídeojuegos para PC de alto rendimiento que utiliza la arquitectura Pascal y se caracteriza por duplicar [sí, duplicar] las prestaciones de la GTX Titan X, la más potente hasta ahora de la compañía, pero tendrá un precio muy inferior. Habrá incluso una versión reducida y más económica. Hace un mes, la empresa ya presentó Tesla P100, también con Pascal, para aplicaciones profesionales de inteligencia artificial, una señal de por dónde van los tiros.

Por su lado, AMD, rival de NVidia, se propone lanzar semanas más tarde varias tarjetas gráficas con otra arquitectura nueva, las Polaris 10 y Polaris 11: aunque muy potentes, se da a entender que apuntan al mercado de vídeojuegos para máquinas de gama media, más amplio y con precios de entre 200 y 300 euros, en contraste con las nuevas GTX de su competidor, que costarán 449 y 699 dólares en Estados Unidos. Ya a finales de abril, AMD puso a la venta su Radeon Pro Duo, desarrollada para realidad virtual y que ofrece hasta 16 teraflops, una vez y media la potencia de su entonces máximo rival, de NVidia.

Corresponde explicar por qué la carrera es tan desenfrenada cuando el mercado daría para que dos compañías vivieran compitiendo sin perder los nervios. NVidia y AMD no han dejado de introducir nuevas tarjetas gráficas año tras año, pero esta vez los avances que prometen no tienen parangón con los anteriores. Uno de los motivos es que ambas compañías utilizan transistores FinFET fabricados con diseños de 14 y 16 nanómetros, frente a los 28 nanómetros con que se han producido sus parientes de los últimos cuatro años.

Para subrayar más la agitación, tanto AMD como NVidia estrenan sendas arquitecturas completamente nuevas: LiquidVR y Pascal, respectivamente. La mayor integración y el cambio de arquitectura son los primeros factores del salto espectacular en prestaciones, que se estima en hasta dos veces y media por vatio consumido.

¿A qué viene tanto movimiento? El salto cualitativo implica más rapidez a la hora de mostrar complejas gráficas con una eficiencia superior; hará que los ordenadores que aparezcan en el mercado el próximo otoño – en especial los de sobremesa para ´jugones`, un mercado nada despreciable – impulsen decididamente las aplicaciones de realidad virtual y de la inteligencia artificial. No sólo en sus usos lúdicos, que también, sino en los profesionales.

Hay que tomarse muy en serio la realidad virtual. No será, valga la redundancia, una realidad este año. El lector asiduo de este blog ya sabe que la industria ha lanzado gafas o cascos para este fin – la conjunción de Samsung y Facebook en el último Mobile World Congress ha tenido una enorme repercusión – aunque nada se ha informado acerca de los resultados comerciales. Lo único publicado es que Samsung habría despachado más de un millón de cascos Oculus, en gran parte como promoción gratuita de lanzamiento de su Galaxy S7.

Habría un serio riesgo de frustración si no aparecieran pronto aplicaciones que no sean sólo para esa primera ola de entusiastas que acompaña todo lanzamiento de un gadget y luego se aburre. Este es el reto de los próximos meses: aprovechar las nuevas arquitecturas para procesar imágenes y gráficos de gran realismo y tridimensionales.

Un concepto adyacente, la inteligencia artificial, ha entrado en esta ecuación. Se basa en que las máquinas aprendan a través del análisis de imágenes reales y de la explotación de bases de datos. Este aprendizaje profundo o deep learning debería desencadenar la aparición en el mercado de ordenadores mucho más potentes que los actuales, a precios ajustados. tras unos años de ostracismo, es previsible que el PC resurja, impulsado por las amplias posibilidades que ofrece el tratamiento exhaustivo de la información y el manejo de la realidad virtual en múltiples campos.

En una conferencia para desarrolladores, celebrada en San José (California) a principios de abril, el CEO de NVidia, Jen-Hsun Huang, anunció el superordenador DGX-1, que utiliza ocho tarjetas Tesla P100 y ofrece una potencia pico de 170 teraflops, equivalente a 250 servidores basados en la estructura clásica de CPU. Este superordenador, con un precio de 129.000 dólares, es realmente económico y será el primero, dijo Huan, que se podrá dedicar a misiones de deep learning.

Hay que recordar que NVidia nació hace quince años como fabricante de tarjetas gráficas, pero con el tiempo ha ampliado su campo de actuación, de modo que actualmente se le considera un fabricante global de chips; con el núcleo central en los gráficos pero expandiéndose en todas las direcciones. Esta es la estrategia que Jen-Hsun Huang ha impreso a la compañía que fundó y dirige. Deep learning, ha declarado en múltiples entrevistas, afectará a todas las industrias y aplicaciones: los algoritmos basados en redes neuronales aportarán un «nuevo modelo informático». Para el CEO de NVidia, este es uno de los acontecimientos de mayor relieve que está viviendo la industria, y la base para un mercado que se va a desarrollar en los próximos años.

Que ese impactante desarrollo se manifieste primero en los vídeojuegos, no debería tomarse a la ligera. La serie 1000 de tarjetas GeForce GTX integran 7.200 millones de transistores y son capaces de procesar hasta 8 teraflops consumiendo tres veces menos de energía que la arquitectura anterior de NVidia, conocida como Maxwell.

No ha pasado desapercibido el acuerdo entre NVidia y Amazon Web Services relacionado con AWS EC2, el servicio de hosting en la nube más popular entre los desarrolladores. Con la proliferación de aplicaciones de lenguaje natural y reconocimiento de imágenes, las GPU ha pasado a ser indispensables para un creciente número de usos.

NVidia es una empresa en ascenso, mientras AMD está en un pozo desde hace años. Tras sucesivos cambios en la cúpula directiva, su actual CEO, Lisa Su, sostiene que la compañía tiene un gran futuro en el mercado de las tarjetas gráficas: hace diez años, AMD adquirió ATI y gracias a esa compra retiene una buena cartera de licencias. Durante décadas, su negocio más importante fue la fabricación de procesadores x86 en competencia con Intel, pero las pérdidas y la deuda la han hecho claudicar de hecho en los mercados de PC y servidores. Ahora es cuando tiene la oportunidad de ser competitiva contra Intel con su próxima arquitectura Zen de procesadores x86 parezca paradójico, puede que Intel alivie la deuda de AMD.

¿Cómo es eso? En 2011, Intel – que tenía necesidad de responder a la compra de ATI por AMD – firmó un acuerdo para pagar 1.500 millones de dólares a NVidia en concepto de licencias sobre tarjetas gráficas durante los siguientes cinco años, para cerrar un litigio en el que había sido acusada de apropiación indebida de propiedad intelectual. Hasta ahora, Intel no ha usado las patentes de NVidia en las gráficas que integra en sus procesadores, porque ha preferido unas propias más económicas y más sencillas. Pero la importancia que están adquiriendo los gráficos de alto rendimiento en los ordenadores – que siguen siendo la fuente principal de sus ingresos – parece que está provocando un viraje de Intel, dispuesta a introducir más potencia gráfica en sus procesadores.

Como el acuerdo con NVidia llegará a su fin en marzo de 2017, aquí es donde entra AMD como alternativa para Intel. No consta, pero se rumorea que las dos empresas han empezado a negociar una patente para el próximo lustro a cambio de un dinero que a AMD le vendría muy bien. Aunque, todo es posible, también se dice que es un globo sonda para negociar con NVidia unos términos de renovación más favorables.

La situación es compleja. No hay que descartar que NVidia encuentre en su catálogo de patentes alguna que le permita sabotear un eventual pacto AMD-Intel. Económicamente, AM saldría beneficiada de un trato con Intel, pero le restaría posibilidades de competir con esta con procesadores basados en Zen y gráficos integrados muy potentes. Los próximos doce meses serán interesantes en esta realidad, demasiado conflictiva para llamarla ´virtual`.

[informe Lluís Alonso]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons