3/04/2024

Nuevos chips para bajar la IA hasta los PC

La fulgurante aparición de la inteligencia artificial generativa (GenAI en adelante, para abreviar) con ChatGPT como exponente de primera fila, ha disparado la demanda de chips destinados a equipar centros de datos, especialmente – pero no exclusivamente – en los hyperscalers donde se entrenan e infieren los modelos grandes de lenguaje (LLM). La industria aspiraba a trasladar el mismo fenómeno a los PC, dando lugar a lo que ha dado en llamarse AI PC. Por lo que los fabricantes de chips se han puesto manos a la obra con sus equipos de desarrollo. La carrera ha empezado e inicialmente la protagonizan portátiles ultradelgados encargados de tareas de alta computación. Ya bajarán de  rango.

Ejecutar aplicaciones de IA en un PC requiere inevitablemente mayor capacidad de computación que en uno convencional. Aparecen en este punto conceptos como unidades de procesamiento neuronal (NPU, Neural Processing Unit), unidades de procesamiento acelerado (APU, Accelerated Processing)  o unidades de procesamiento sensorial (TPU, tensor processing unit), tres diseños que buscan optimizar y acelerar las tareas de IA en el dispositivo.

El objetivo no es otro que disfrutar en la IA de rendimiento y eficiencia mejorados en el manejo de cargas de trabajo de IA y GenAI sin depender de servidores  externos ni de servicios basados en la nube. Fabricantes como Intel, AMD y Qualcomm han ido lanzando sus NPU avanzadas, que sumadas a la potencia de sus GPU y CPU, mejoran notablemente los AI PC, asentando ese horizonte que la consultoría IDC avizora para 2027: la mayor parte de los PC que se vendan estarán habilitados para IA. Y no será el final del camino.

Nvidia, sin tradición en el mundo de los PC, se desmarca de esa visión, al asegurar que con sus GPU es posible, ahora mismo, que funcionen más de 100 millones de PC dotados de IA. En todo caso, tanto el CEO de Intel, Pat Gelsinger, como la de AMD, Lisa Su, así como directivos de Qualcomm coinciden en calificar al AI PC como un factor rompedor (o disruptivo, para quien guste lucirse) en este segmento del mercado.

TrendForce, empresa especializada en rastreo de mercados, anticipa que el estándar para el AI PC que indicará Microsoft se situará en 16 GB de RAM y un rendimiento de inferencia de NPU de 40 TOPS [billones de operaciones por segundo]. Hasta la fecha, el rango de las NPU de Intel y AMD está en la horquilla de 16 a 18 TOPS, por lo que queda margen para evolucionar.

Las compañías de semiconductores están reforzando su artillería para lo que está por llegar. Aunque el pasado diciembre Intel hizo ruido con el lanzamiento de sus procesadores Core Ultra, lo cierto es que durante 2023 AMD ha estado impulsando más de 50 diseños de ordenadores portátiles habilitados para IA equipados con sus chips Ryzen 7040. AMD ya sirve procesadores a Lenovo, HP, Asus y Acer [cuatro de las cinco marcas principales; la quinta es Apple, que va  a su aire] dirigidos al segmento empresarial y a los videojuegos y/o creadores de contenido digital. Por su parte, Qualcomm acaba de hacer público su nuevo Snapdragon X Elite, con arquitectura Arm, que estará disponible a mediados de año en portátiles de HP y Lenoovo.

El factor diferencial de estas novedades es la incorporación de la NPU a las existentes CPUy GPU. Mientras éstas se ocupan de ejecutar cierto tipo de aplicaciones de IA, la NPU está diseñada para descargar cargas de trabajo sostenidas de las CPU y GPU utilizando para ello menos energía, lo que a la postre alarga la autonomía y la vida útil de la batería.

Tareas asociadas al aprendizaje automático, como la detección facial y de objetos en fotografías, el reconocimiento óptico de caracteres o la selección de sujetos, pueden ejecutarse en la NPU sin tener que sobrecargar a la CPU ni a la GPU, consumiendo menos batería. Para los modelos de IA más grandes, como Llama 2 y Stable Diffusion, es de presumir que el sistema siga tirando de la CPU, el elemento que más carga soportará.

Por eso no sorprende que AMD, además de sus APU de escritorio con NPU, también presentara recientemente su nueva GPU con 16 GB de memoria GDDR6, la RX 7600 XT. Este modelo mejora a su predecesora en memoria y velocidades de reloj para admitir modelos de IA más grandes sin recurrir a la cuantificación, es decir, sin tener que reducir la precisión de los valores numéricos en la red neuronal (de números de coma flotante de 16 bits a enteros de 8 bits) para rebajar los requisitos de memoria.

Al mismo tiempo, AMD también ha lanzado el paquete de software de IA Ryzen para ayudar a los desarrolladores a crear aplicaciones de machine learning que saquen el máximo partido a sus CPU, NPU y GPU.

Por su parte, en la última edición de CES,  Nvidia también presentó la RTX 4070 TI Super con 16 GB de vRAM, frente a los 12 GB de la variante anterior. Esta nueva GPU, además, cuenta con un bus de memoria de 256 bits con la finalidad de acelerar los tiempos de respuesta de la IA.

Intel, que apunta alto, asegura que para 2025 podrá estar en las entrañas de más de 100 millones de AI PC; también lanzó a finales del año pasado su primera generación de chips Core Ultra Meteor Lake, con la que espera llegar a más de 230 diseños de ordenadores portátiles ultradelgados de Dell, HP, Lenovo y una treintena más de OEM cuyas marcas son menos notorias.

El buque insignia de la serie Core Ultra es el Core Ultra7 165H de 16 núcleos, calificado por el fabricante como “el procesador x86 más eficiente”, que funciona con 28 vatios y un 25% menos de energía para la reproducción de vídeo que su antecesor, el Core i7-1370P. Paradójicamente, Intel afirma que el Core Ultra 7 165H es un 12% más rápido que el Ryzen 77840U de AMD, pero del Core i7-1370P ya afirmaba que era un 21% más rápido que el chip de AMD. ¿Ha lanzado un procesador más lento que la generación anterior? Una explicación sería bienvenida.

Sea como fuere, la principal novedad de Core Ultra es la incorporación de una NPU, a la que etiqueta como Intel AI Boost, dentro de un chip de PC, siguiendo así los pasos de Qualcomm, Apple y AMD y coincidiendo con ésta última a la hora de ver la complementariedad de la CPU, la GPU y la NPU como aceleradores para cargas de trabajo de IA con diferentes requisitos. A grandes rasgos, la CPU se destinaría a cargas de trabajo de IA de baja latencia que requieren una respuesta rápida, la GPU a aplicaciones de creación de contenido aceleradas por IA que precisan de un procesamiento de alto rendimiento y, finalmente, la NPU, como acelerador de bajo consumo, a descargas de trabajo de IA sostenidas. Así, la NPU del Core Ultra 7 165H permite que éste utilice un 38% menos de energía en las videollamadas de Zoom en comparación con el Core i7-1370P.

Intel ha sido el último de los grandes fabricantes en incorporar la NPU al chip y, sin embargo, sus directivos afirman que la inversión en aplicaciones de IA comerciales y de consumo es inigualable: a lo largo de este trimestre espera lanzar un chip Core Ultra 9 con el que afirma que aumentará la frecuencia turbo máxima a 5,1 GHz y el requisito de potencia base a 45 W. La serie U, por su parte, consta de chips Core Ultra 7 y 5 que llegan hasta los 12 núcleos y una frecuencia de 4,9 GHz, con gráficos integrados con la marca genérica ‘Intel Graphics’ y un rango de potencia de 15W a 57W, aunque planea lanzar versiones de 9W a 30W en los próximos meses.

El éxito de estos procesadores dependerá de su compatibilidad con los diferentes modelos de IA y, en este sentido, Intel afirma que sus chips Core Ultra lo son con versiones de más de 80 modelos de IA, incluidos BERT, Stable Diffusion, Llama y Dolly. Gracias a su kit de herramientas OpenVINO facilita la compatibilidad con aplicaciones IA, mejorando el rendimiento de la IA al enrutar las cargas de trabajo al motor de cómputo correcto con cambios mínimos en el código.

Esto lleva directamente a la clave para que los AI PC triunfen: las aplicaciones. Los fabricantes de chips han corrido tanto, que el hardware ha adelantado de largo al software, de manera que hoy por hoy apenas existen aplicaciones que aprovechen el potencial de estos procesadores.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons