20/01/2025

John Roese

CTO y CIAO de Dell Technologies

En diciembre, el ciclo de la conferencia Dell Technologies Forum, iniciado en Las Vegas, desembarcó en España con la presencia de John Roese, Chief Technolgy Officer de la compañía desde el 2012 y cuya opinión es determinante en los movimientos estratégicos de Michael Dell. Como era previsible, el parlamento de Roese en Madrid estuvo dominado por una materia que tiene en vilo a la industria TI: ¿cuándo despegará realmente el uso de la inteligencia artificial generativa en las empresas, más allá de la poderosa atracción que ejerce entre los usuarios del común? Al cierre de la sesión, Roese atendió con paciencia y pedagogía las preguntas del autor del blog sobre esta y otras cuestiones.

Según Roese, 2025 será el primer año de maduración de las tecnologías clave en el esperado boom de esta variante de la IA y de disponibilidad de las herramientas que van a facilitar su adopción en los procesos corporativos, a los que él – y por tanto Dell – atribuye el mayor potencial.

Para empezar, lo que llama la atención de la definición de su cargo corporativo es la ampliación explícita de responsabilidades que en realidad ya eran suyas. Siendo Global Chief Technology Officer, un puesto clásico, que supone una jerarquía, ¿por qué convertirse en Chief Artificial Intelligence Officer (CTAIO)? ¿Cree que es una tendencia de la industria?

No sé si es una tendencia o no, pero tengo motivos para pensar que once años y hace ocho que puse en marcha los esfuerzos de la compañía en la inteligencia artificial […] Estamos ahora en plena era de la IA y la primera razón por la que Dell Technologies necesita un Chief AI Officer – y no es una decisión tomada a la ligera – es que, sin un mecanismo de decisión centralizado, todo lo que se decida en este campo podría sufrir las consecuencias de una ejecución deficiente. Una vez que Michael [Dell] puso en marcha esta discusión internamente, tuvimos que plantearnos cómo asegurar que, entre cientos de proyectos de IA experimental, los mejores lleguen efectivamente a la fase de producción. Esta es una cuestión delicada: ¿se trata de una función de TI o va mucho más allá? En segundo lugar, si alguien ha de elegir cuatro proyectos entre cuatrocientos, es bueno que lo haga investido de una cierta autoridad; esta es la razón por la que, aun siendo CTO, la compañía me ha designado como CTAIO. Conste que no sólo a usted le cuesta deletrear la sigla [risas]

Supongo que cuenta con un equipo y una estructura ad hoc, ¿cuál es el alcance?

Mi responsabilidad es global, ya lo sabe. Contamos con la que probablemente sea la mayor cadena de suministro del mundo, por la que fluyen al año unos 70.000 millones de dólares en componentes. En cuanto a la IA, hace veinte o treinta años la llamábamos automatización robotizada de proyectos y era muy rudimentaria si la comparamos con la generativa que tenemos ahora. Siempre hemos creído en el valor de nuestra escala: si podemos automatizar los procesos mejor que los competidores, nuestras fábricas funcionarán mejor y nuestros costes serán más bajos. Me preguntará qué hacemos actualmente: pues, para manejar nuestra infraestructura, recurrimos a una treintena de modelos de IA que cada día son alimentados con datos para que nos ayuden a predecir la demanda, las múltiples señales que nos llegan de la cadena de suministro y los muchos problemas logísticos que se plantean. Así lo hemos hecho durante años, pero hemos llegado a la convicción de que esas herramientas son demasiado complejas de entender, que precisamos tirar de la ciencia de datos para interpretarlas y por eso mismo hemos colocado una interfaz generativa por encima de modelos que no lo
son en su origen.

¿En qué punto se encuentra esta disciplina que el mundo conoce como inteligencia artificial y ahora se identifica como generativa?

Nos acercamos al 2025 y la única predicción realista nos dice que la inteligencia humana hará uso intensivo de lo que esta industria ha bautizado como agentes. Volveremos sobre ellos luego, pero le diré que en Dell conjugamos la IA “tradicional” con un modelo lingüístico y un gráfico de conocimiento: los LLM de la actualidad aportan una comprensión del momento, pero no tienen memoria, no se quedan con la historia; en cambio, un agente sí tiene memoria […]

Desde su briefing de 2023, más o menos por estas fechas, o incluso antes, creo haber percibido un cambio de actitud de Dell hacia la IA generativa . No ha sido exactamente un viraje, pero se ha pasado de expresar reservas acerca de facetas negativas, que existen, a mostrar entusiasmo sin cortapisas. ¿Qué ha pasado?

Es una observación aguda, pero ha de tener en cuenta que en aquel momento la única herramienta disponible era un LLM y la única forma en la que se podía hacer que interactuara con los datos de una empresa era entrenándolo, lo que era muy caro y nada fácil, casi imposible para casi cualquier empresa […] Lo que ha modificado el paisaje se llama RAG (Retrieval Augmented Generation) y nos ha permitido trabajar con los datos en un entorno generativo sin tener que entrenar el modelo fundacional: no hay necesidad, porque podemos convertir los datos a un formato vectorizado […]. En segundo lugar, hoy es mucho más sencillo construir una infraestructura y esto viene de nuestro trabajo en común con Nvidia, gracias al cual los clientes pueden despreocuparse de ensamblar, almacenar, computar y conectar, porque para eso disponen de plantillas: pueden comprar una nuestra y empezar a trabajar con ella de inmediato Es muy diferente de lo que pasaba hace un año, cuando todo requería un esfuerzo importante: ahora hay un número suficiente de herramientas, todas disponibles on-prem; basta con usar ese software y esto es algo que naturalmente gusta a la gente de TI.

Personalmente, suelo recordar que la IA tradicional o predictiva era y sigue siendo rentable, pero no puede decirse lo mismo de la generativa […] ¿Es difícil evitar la confusión?

Esa confusión existe en el lenguaje corriente […] Por nuestra parte, insistimos en distinguir entre tres mercados de IA en lugar de nombrarlos como si fueran uno. Está el tradicional, llámelo legacy, que ha sido adoptado sin problemas por muchas empresas […] y aunque estas quieran trabajar con la generativa, necesitarán de la IA tradicional para cierto nivel de complejidad: en nuestra cadena de suministro, la mayoría de los modelos que usamos son meramente un refuerzo de los creados para machine learning, es decir que no son generativos. Esto es algo bastante común pero de lo que se habla poco […]

¿Le consta que ese segundo mercado IA ha crecido?

Es evidente que ha crecido. Y mucho. Pero esto se debe, en esencia, a que está condicionado por la publicidad, las búsquedas y las redes sociales, dominadas por unas pocas compañías que simultáneamente tratan de ser hegemónicas en la IA generativa. Cuando usted dice que no es rentable, puede que tenga razón, pero olvida que el premio es gigantesco. Y que esas compañías están invirtiendo cientos de millones en infraestructuras para sostener un negocio de largo alcance, que reside básicamente en capturar el gasto online de los consumidores. Aunque, en general, ocupan parcelas diferentes, luchan agresivamente entre ellas porque la IA va a definir quién gana y quién pierde. Por el camino van aprendiendo cómo hacer cosas que podrían trasladar a las empresas. Y con ellas, aprendemos todos, desde luego.

¿Es su argumento para separar como tercer mercado la IAgenerativa aplicada a las empresas?

Si trato de aplicar la IA al mundo real, descubro de inmediato que es un mundo de sensores no idóneos para insertarlos en un LLM […] por eso se usa la IA tradicional en el front end. Pero a lo que apuntaba su pregunta era al impacto real que ha tenido en las empresas desde noviembre del 2023. Veamos: si describo los tres modelos como diferentes, faltaría a la verdad, porque están interrelacionados a la vez que siguen siendo distintos; he ahí el margen de confusión cuando se habla y se escribe acerca de
inteligencia artificial genéricamente. Los nombres, igual que las herramientas, pueden ser similares, pero ahí es donde muchas empresas se bloquean debido a lo que alguien ha llamado la trampa de la prueba de concepto: se han hecho muchas PoC durante un año y medio, pero muy pocas han sido concluyentes como para pasar a producción; por lo tanto, no han obtenido el ROI que esperaban y ahí se detienen […]

Mi interpretación del acuerdo con Nvidia ha sido que Dell haescogido enfocarse en la inferencia […]

Desde el punto de vista de las empresas, la inferencia es lo fundamental, aunque pueda incorporar algunos elementos de entrenamiento. Recuerde: somos activos en los tres mercados. El segundo se manifiesta en el entrenamiento, por lo que hemos tenido que construir una infraestructura a escala […] pero sabemos bien que desde la invención de RAG, las empresas ya no necesitan entrenar sus propios modelos. Esto es relevante: significa que, salvo lógicas excepciones, las empresas no construirán sus propios modelos fundacionales, sino que se moverán en un mundo de agentes que sólo requieren una suerte de ajuste fino para funcionar como herramientas de entrenamiento. Este, pensamos en Dell, va a ser un fenómeno destacado del 2025. Decisivo […]

Eso es. De hecho, cuando hablamos de AI PC, en realidad estamos hablando de inferencia, no de entrenar modelos supuestamente embutidos en la limitada capacidad de un PC equipado con IA. Contar con inferencia en el edge, en los dispositivos, será una respuesta crítica, con más razón en un mundo poblado por agentes IA […] De los dos grandes proyectos que lleva mi equipo en este momento, uno es la selección de un marco de software necesario para construir agentes operativos; el segundo es la evaluación de una infraestructura de entrenamiento a menor escala. Y lo curioso es que en ambos hemos encontrado puntos de contacto en Nvidia, una compañía que sobre todo es conocida por su orientación al diseño de clusters.

Hasta donde sea posible, me interesa conocer los planes en relación con los AI PC […]  entre otras cosas porque Dell privilegia sus líneas de producto dirigidas a
las empresas.

Hemos añadido Meteor Lake y otros chips de Intel, además de abrir la puerta a Qualcomm, de manera que ahora mismo tenemos unos 50 o 55 AI PC con el máximo rendimiento posible. La razón de no haberlos sacado masivamente al mercado es que la única aplicación real, Copilot Plus, aun siendo excelente, en nuestra opinión no resulta útil más allá de una serie de usos que son articulados por Microsoft. Se podría decir que el software para los AI PC emergentes no es todavía una verdadera solución IA. Si, como es lógico en diciembre, nos ponemos mentalmente en 2025, necesariamente tenemos que pensar en los agentes. Un AI PC no es particularmente útil en un mundo de IA monolítica y reactiva, concebida para la gran escala; en cambio, es muy interesante en el mundo de los agentes autónomos distribuidos.

Hábleme de ellos, obviamente me interesan [risas].

Lo único que en este momento puedo vaticinar es que agentic va a ser una palabra central en nuestro léxico y el de la industria a lo largo del año entrante. Expresa muy bien la idea de que un sistema de IA que tiempo atrás recibía una pregunta y entregaba una respuesta – algo que casi cualquiera hace a estas alturas – se transforma mediante una arquitectura que hace posible que esos agentes sean autónomos y tengan memoria, por lo que pueden guardar traza de las cosas durante un tiempo y, lo que es más importante, pueden interactuar con el mundo real atrayendo datos de otras fuentes. Esta es una diferencia entre los agentes de ayer y los de hoy: los actuales pueden especializarse para, por ejemplo, escribir código, o bien estar diseñados para hacer análisis financieros.

He visto varias demos y parece que funcionan en entornos controlados, pero no sé si están siendo adoptados con firmeza por las empresas.

Yo mismo he construido agentes autónomos dentro de Dell y puedo asegurarle que funcionan [risas]. La única pega es que la tecnología subyacente – las herramientas y los sistemas – todavía son inmaduros, lo que es normal en su caso, pero no veo ningún obstáculo arquitectónico que impida a los agentes trabajar: han pasado seis meses y el resultado es que han facilitado enormemente el uso de herramientas. No es que sea una teoría, sino que ahora tenemos que industrializarlos.

Antes le he preguntado por la rentabilidad, pero no por la economía intrínseca en la IA generativa […]
El problema económico más acuciante ahora mismo es la energía. Tenemos que hacerlo mejor para crear sistemas mucho más eficientes, pero aunque logremos alinearlos con una curva idéntica a la de la demanda, esta seguiría estando fuera de control. Una de las herramientas de que disponemos, al menos en las empresas, es la incorporación de las Al PC: si el 80% del trabajo lo hace un agente, estoy retirando ese 80% del centro de datos y la capacidad sobrante podré usarla para otros fines.

 

 


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2025 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons