9/04/2026

La IA agéntica de Nvidia deberá ser creíble

Estas conferencias – en principio para desarrolladores – que las compañías tecnológicas convocan en Estados Unidos con regularidad, suelen congregar decenas de miles de asistentes que pagan bonitas sumas de dinero, pese a que normalmente las keynotes se pueden seguir cómodamente   por streaming y gratuitamente. Ninguna otra tiene un atractivo comparable a la GTC de Nvidia, que ha echado raíces en San José (California), una buena opción frente a los agobiantes hoteles de Las Vegas. Este año en marzo, ha roto sus registros de asistencia, audiencia online y número de anuncios.  Mucho tiene que ver en ello el magnetismo de Jensen Huang, fundador de la compañía hoy más valorada del mundo  .

Jensen Huang

Ante un público entregado, este pronosticó que Nvidia duplicará su cifra de negocios hasta el billón de dólares en 2027. Una cifra dudosa hasta para el inversor más temerario, dado que un crecimiento tan rápido [partiendo de 215.000 millones el pasado año fiscal se  multiplicaría por cuatro y algo más] ha de llevar aparejada una rentabilidad insólita en muy poco tiempo y – no es un detallito – tendría que ser a la vez creíble y sostenible a medio y a largo plazo.

Dicho esto, el principal reto que se presenta hoy ante Nvidia es que su visión de la inteligencia artificial agéntica genere dinero no sólo para la compañía sino para el resto de la industria que se ha apegado a la estrategia de Huang. Al mismo tiempo, debería ofrecer retornos a loscompradores de sus chips y los usuarios de su software y servicios afines. Dicho de otro modo, Nvidia – sin casi competidores – se ha erigido como vector ineludible de un ecosistema identificado con el devenir de la inteligencia artificial. No es exagerado, pues, decir que su influencia se extiende por la economía mundial.

Como reacción inmediata, la cotización de la compañía se mantuvo plana en los días siguientes, para después gozar de una ligera subida y volver a caer la última semana de marzo, afectada por la incertidumbre en el golfo Pérsico con sus consecuencias. En la GTC [GPU Technology Conference)  Huang confirmó que el chip Rubin, continuación y mejora del actual Blackwell https://norbertogallego.com/nvidia-quiere-tocar-el-cielo-con-blackwell/2024/04/12/  , estará disponible el próximo otoño, como había anticipado. E incluso nombró al sucesor para 2028, significativamente llamado Feyman, fruto de un rediseño.

Nvidia ha dado pruebas sobradas de su gran capacidad tecnológica. Sin embargo, para que todo el entramado que propone se consolide y fructifique, deberá consolidar una nueva realidad económica en torno a la IA, una realidad contante y sonante en la que todos ganen. Por ahora, la economía de la IA está basada en la producción, consumo y monetización de tokens, una métrica en la que grosso modo, 1.300 tokens equivalen a un texto de 1.000 palabras.

La teoría de Jensen es que Nvidia crea la tecnología (chips y software) sobre la que funcionan los modelos de lenguaje (ajenos) para generar a su vez más tokens a más bajo coste, lo que provoca más demanda que reclama el suministro de tokens. Un círculo virtuoso primitivo y  un tanto simplón, pero que tiene muchos adeptos en la industria.

Como han destacado algunos especialistas – es decir, gente que no vive de este negocio – no es evidente que la mayor producción de tokens equivalga a crear más valor para los clientes ni tampoco está claro que bajar su coste los haga más valiosos o dispare más facturación en la industria. Por otro lado, los nuevos modelos de lenguaje IA consumen más tokens; es decir que necesitan trabajar más y con hardware más sofisticado y caro (fabricar y hacer funcionar) para conseguir resultados. Al gestionar más información, su tiempo de respuesta o el uso de recursos aumentan sin que el resultado sea necesariamente mejor, porque la “calidad” de la información no ha aumentado proporcionalmente; sólo la cantidad ha dado un salto.

En definitiva, el coste de producción de los tokens continúa siendo alto, mientras su precio baja. Como ha destacado recientemente Richard Waters en el Financial Times, el GPT-4 de OpenAI de 2024 se quedaba con 33 dólares por cada millón de tokens mientras que ahora, con el modelo más económico de la familia, cobra un céntimo por cada millón de tokens. Si a esto se añade que la inversión en infraestructura para IA es cada vez más alta y el hardware puede alcanzar la obsolescencia en cinco años o aún menos, se comprende que haya inversores recelosos: al fin y al cabo, son ellos los que pagan la fiesta. Relativizando: mientras la capitalización bursátil de las grandes tecnológicas siga aumentando, no habrá problemas de liquidez, pero con que alguna de ellas tropiece y tenga que frenar, la euforia – a veces llamada burbuja – podría acabarse de golpe.

Mientras subyace esta realidad económica convencional, el ecosistema IA no para de reinventarse y realimentarse con nuevas e ingeniosas propuestas, la más reciente de las cuales es OpenClaw, que está causando furor en China  y que Jensen Huang ha abrazado con entusiasmo: “OpenClaw es el próximo ChatGPT”, sentenció.

Ciertamente, la novedad supone un punto y aparte como plataforma de código abierto para tareas autónomas. Mientras que los modelos de lenguaje generan respuesta de texto, OpenClaw también ejecuta tareas.

El modelo de IA agéntica que está surgiendo transformará la IA de tener asistentes reactivos a operadores proactivos no necesariamente (o una minoría) humanos, si el mundo IA evoluciona a corto plazo como se prevé (a medio plazo es imposible de saber). OpenClaw, aseguran sus promotores y entusiastas, gestionará flujos de trabajo, operará solo con herramientas de software e interactuará autónomamente con las apps. Todo ello, claro está, si la economía mundial y el mercado de capitales tradicional (sic) sigan soportando la espiral inversora de la inteligencia artificial. Entiéndase así: los usuarios empresariales y particulares pueden estar dispuestos a sufragar parte de la inversión con un aumento relativamente modesto de las cuotas a pagar por el uso, pero  sólo hasta cierto punto y siempre que vean un claro beneficio.

De una conferencia como esta se recuerdan ante todo las novedades.  Ciertamente hubo muchas y sería imposible reseñarlas aquí, pero Nvidia ya se ha ocupado de escribirlo y publicarlo https://www.nvidia.com/gtc/ . Uno de los anuncios, al que Huang dedicó menos de cinco minutos de una charla de más de dos horas, fue una herramienta de software abierto y gratuito que puede redefinir completamente la era agéntica actual y posicionar a NVidia por encima de toda la infraestructura IA, independientemente del modelo o plataforma que se vaya a utilizar. Se llama Agent Toolkit y tiene como ambición ser la capa de software inicial para la era agéntica, sobre la cual se edifique todo el hardware, la infraestructura, así como el software y las aplicaciones que corran por encima.

De momento, la herramienta está en fase de desarrollo; si todo sale como Huang tiene planeado (sus credenciales indican que cumple) NVidia podría ampliar su negocio básico como diseñador y vendedor de chips y del software CUDA, aparte de ser un pródigo inversor en empresas de IA que pasan a ser sus clientes. La Agent Toolkit de Nvidia  podría ser para la capa inicial donde los agentes IA son desplegados, gobernados y conectados a los datos como hacen con sus chips para la computación IA. La compañía se convertiría en un competidor directo para Anthropic y OpenAI, las dos compañías en mejor posición para tratar de dominar la era agéntica.

De pasada, Huang mencionó que este software destinado a la construcción de agentes IA ha sido muy bien acogido por las compañías de software empresarial y citó de carrerilla a Salesforce, Adobe, SAP, ServiceNow, Atlassian, Siemens, CrowdStrike y Palantir. Dice Nvidia que no pretende ganar dinero con este software libre y gratuito, pero sí que aspira a la condición de proveedor de toda la infraestructura sobre la que funcionarán los agentes IA. Independientemente del modelo utilizado y de la plataforma sobre la que se desplieguen, le daría una ventaja de partida en la comunidad IA, desde luego más grande que la que ya tiene ahora.

Al principio de su intervención, Huang recordó que CUDA, la arquitectura que permite a los desarrolladores escribir software para aplicaciones y agentes IA, cumple veinte años y que empleó diez antes de ser un éxito. Vista la rapidez con la que se desarrolla y extiende la IA, es previsible que el Agent Toolkit de Nvidia tarde mucho menos tiempo que CUDA en consolidarse (se habla de cinco años o incluso de menos) En cualquier caso, es notorio que Nvidia – por tanto su fundador – piensa a largo plazo, con una estrategia bien definida y no se pone  límites a la ambición de liderar el ecosistema IA. Lo quiere hacer con lo que ve como próximo paso, la IA agéntica, que promete revolucionar aún más la inteligencia artificial con agentes no humanos. No  sólo contestarán preguntas y suministrarán y recopilarán información, sino que serán cada vez más autónomos.

En condiciones normales, el procesador gráfico Rubin hubiera sido la estrella de la conferencia y andando el tiempo se reconocerá su mérito.  Estará arropado por switches potentes y sistemas de interconexión óptica, aparte de una memoria ultrarrápida, que permitirán ejecutar las órdenes con celeridad y, como novedad, tendrá el respaldo de Groq 3, una CPU fabricada por Samsung. No deja de haber cierta paradoja en el hecho de que la revolución propiciada por las GPU (Graphic Processing Unit) de Nvidia necesite ahora la clásica CPU (Central Processing Unit) para completar la decodificación.

[informe de Lluís Alonso]

 


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2026 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons