publicidad
  5/02/2026

AWS subida al andamio de la IA

Hoy, primer jueves de febrero, al cierre de Wall Street, Amazon presentará resultados financieros del año fiscal 2025 y los analistas se preguntan si al final habrá logrado corregir su desempeño mediocre (+ 12% de ingresos hasta septiembre). La acción ha cerrado el año tal como lo había empezado, lo que no contenta a nadie. Pero no es el asunto de esta crónica, sino la evolución de la filial AWS, que representa más del 18% de la facturación total. A priori, la conclusión sería que AWS se ha dormido en los laureles: sigue siendo el primer hyperscaler con diferencia, pero muestra menos dinamismo que sus rivales directos, Azure y Google Cloud, aparentemente porque su estrategia de inteligencia artificial no acaba de dar en el clavo.

Werner Vogels

Por la cuenta que le tiene, el CEO del grupo, Andy Jassy, ha tocado a rebato con una reestructuración que ha sido interpretada como una declaración de intenciones, en el contexto de una ola de despidos que, por primera vez, afecta a miles de puestos en la estructura corporativa en lugar de las víctimas usuales de bajo rango.

publicidad

Quien desee cambiar los resultados, ha de cambiar su forma de actuar, parece ser la idea que mueve a Matt Garman, CEO de AWS, quien ha sorprendido dando forma a una alianza con Google Cloud. El anuncio se hizo por adelantado a la conferencia re:Invent de Las Vegas y esta táctica consiguió el impacto que se buscaba, dar al mundo la imagen de que colaborar con un rival – ahora toca Google, mañana será Microsoft – no es incompatible con la defensa de su primer puesto.

El anuncio se materializa en un servicio de red multicloud desarrolladdo conjuntamente para, entre otros fines, prevenir interrupciones de servicio como las sufridas por la propia AWS y por Microsoft Azure a finales del año pasado.

Gracias a esta colaboración, los clientes de las dos nubes podrán establecer en pocos minutos enlaces privados de ancho de banda alto entre AWS y Google Cloud. Es, si se permite el tópico, un antes y un después en la transferencia de aplicaciones y datos en entornos multicloud y subraya la preferencia de la mayoría de las compañías por una estrategia de nube híbrida. La primera en adherirse al servicio ha sido Salesforce, cuya plataforma Agentforce 360 ya está disponible en AWS.

Naturalmente, hay una estrecha relación con el resto de la estrategia de IA de AWS, debido a que las necesidades de computación y el aumento del tráfico de datos, las infraestructuras de datacenter están sometidas a una presión creciente. En esta línea, quienes hayan pensado que AWS se quedaba atrás en la carrera frente a actores como Open AI, han tenido en Las Vegas la oportunidad de cambiar de idea. De la batería de anuncios en re:Invent se deduce que no persigue alimentar con ingentes cantidades de datos nuevos a los modelos de IA (LLM) en busca de más inteligencia, sino que se encamina más bien al aprovechamiento de datos renovables y sostenibles que se fortalecen con cada agente de IA adicional que se despliega.

Durante su intervención en re:Invent, el CTO de AWS desde sus inicios, Werner Vogels  , echó un capote en favor de los desarrolladores ante la nueva oleada de herramientas low-code y no-code impulsadas por IA, si bien precisó que, para hacerse valorar, estos tendrán que evolucionar con tanta celeridad como la tecnología. De esta manera, Vogels, quien anticipó que, después de catorce años, el próximo no pronunciara su ponencia habitual. Aprovechó la ocasión para destacar la importancia del papel del desarrollador, que con frecuencia pasa inadvertido. Sin ir más lejos, haciendo referencia a la eclosión de la generación de código por IA – que AWS utiliza, por supuesto – afirmó Vogels que hoy es más necesaria que nunca que el código pase por una escrupulosa revisión.

Esta visión se articula con la de Garman, quien concibe la IA como un elemento transversal en las organizaciones. Con este planteamiento, el actual mandamás del hyperscaler ve la nube como una plataforma nativa de IA para, con esta premisa, abordar la integración vertical. La reestructuración entre los mandos de la matriz se empapa de esa filosofía, tal y como se evidencia del hecho de que Peter DeSantis haya pasado de dirigir los equipos de ingeniería para centros de datos a supervisar un nuevo grupo que liderará el desarrollo de modelos de IA, la unidad de fabricación de chips y la investigación en computación cuántica de Amazon.

Por uno que ha ganado poder, hay un damnificado de la remodelación: Rohit Prasad, quien era uno de los artífices de los LLM de Amazon, ha sido reemplazado por Pieter Abbeel, exinvestigador de OpenAI y fundador del especialista en robótica Covariant, lo que también resulta revelador. De hecho, Amazon estaría en conversaciones para insuflar  oxígeno a OpenAI  , invirtiendo unos 10.000 millones de dólares con la contrapartida de que sus chips aceleradores Trainium ganarán usuarios como fruto del acuerdo.

A propósito: en el show de Las Vegas, la compañía anunció la disponibilidad de sus Amazon EC2 Trn3 UltraServers, impulsados por el nuevo chip de IA Trainium3 de tres nanómetros y diseñados para cargas de trabajo en agentes de IA, así como para tareas de aprendizaje a gran escala. Según afirma la compañía, los equipos ofrecen hasta 4,4 veces más rendimiento de cálculo, cuatro veces mayor eficiencia energética y casi cuatro veces más ancho de banda de memoria que Trainium2.

Además, AWS también adelantó Trainium4, abanderado con más mejoras de rendimiento y ancho de banda de memoria en FP4 y FP8. Sin embargo, frente a la omnipresencia de los Blackwell de Nvidia – que en 2026 seguirá teniendo el 90% del mercado medido en volumen – la base de clientes de Trainium es estrecha, siendo utilizados fundamentalmente en la nube de AWS y en el desarrollo de los modelos de IA de Anthropic, respaldados por Amazon. La propia AWS se rinde a los encantos de Nvidia GB300 – y a los de las futuras Vera Rubin – incorporado en sus nuevos UltraServers P6e-GB300 para ofrecer la arquitectura de GPU Nvidia más avanzada disponible en Amazon EC2.

Aglutinando estos elementos, la multinacional ha lanzado AWS AI Factories que, en esencia, funciona como una región privada para proporcionar acceso seguro y de baja latencia a servicios de computación, almacenamiento e IA, incluyendo Amazon Bedrock y Amazon SageMaker. La idea es acelerar el despliegue, que junto con la operativa y la gestión del ciclo de vida corre a cargo de AWS, mientras que el cliente pone sus propias instalaciones, energía y conectividad de red

Más allá del hardware, AWS está mucho más fuerte en el desarrollo de LLM, donde trata de posicionar a sus Nova AI como más competitivos que sus rivales en cuanto a coste. La compañía no sólo ha presentado sus nuevos modelos frontier Nova (Nova 2 Lite, Nova 2 Pro y Nova 2 Omni), sino que ha introducido un cambio de paradigma de cara a afinar y personalizar los modelos de IA existentes.  Consciente de que a medida que los modelos incorporan más datos propietarios de la organización se pueden deteriorar algunas partes del entrenamiento original, AWS introduce Nova Forge, con un coste aproximado de 100.000 dólares al año.

Con este nuevo servicio, la multinacional permite crear variantes optimizadas de Nova, a las que ha bautizado como ‘Novellas’, combinando los datos propietarios con las capacidades frontier de Nova. Para ello, ha sido necesario inaugurar una suerte de “entrenamiento abierto”, pues se abre el acceso exclusivo a puntos de control de modelos Nova tanto preentrenados, como a medio camino de su entrenamiento o  posentrenados. En cierto modo, ese aperturismo va en línea con los nuevos modelos Nemotron 3 de Nvidia.  Además, los desarrolladores también pueden crear modelos destilados más pequeños y rápidos que mantengan la inteligencia de los más grandes a un coste menor, incorporando barreras de seguridad y controles según las políticas definidas gracias al kit de herramientas de seguridad para IA que incluye Nova Forge.

Siguiendo en la línea de los desarrolladores a los que Vogels otorga tanto protagonismo, otro de los anuncios destacados en re:Invent por la repercusión que puede tener en la industria es su agente de desarrollo Kiro, inicialmente anunciado en el AWS Summit en Nueva York. La importancia de Kiro reside en que busca ir más allá del paradigma del vibe coding  y Cursor como gran exponente de esta corriente. El planteamiento de AWS no se queda en el código, sino que ataca a la raíz, al documento inicial de requisitos, de manera que no genera código hasta que el desarrollador no lo ha definido. La ventaja de este enfoque es que, cuando el software necesita evolucionar, basta con actualizar los requisitos, ajustar el diseño y regenerar el código a partir de la especificación, sin que sea necesario bucear en la base de código para detectar los elementos a modificar.

En esta misma línea, el anuncio de AWS Transform también marca un hito, pues permite hacer ingeniería inversa de un documento de diseño a partir de una base de código existente, lo que sin duda marca un punto de inflexión en la modernización de aplicaciones heredadas, apuntando a los entornos mainframe en primer lugar. En pocas palabras, podría decirse que AWS ha querido acuñar un nuevo modelo de cómo se construye, mantiene y evoluciona el software.

A nivel de las operaciones digitales, AWS también suma a su oferta el agente DevOps, capaz de realizar un completo mapeo de los servicios de Amazon y del modo en que los componentes de infraestructura se interrelacionan entre sí. Si se produce alguna incidencia y falta información, este agente tiene capacidad de interactuar con Datadog, Dynatrace o Splunk, por ejemplo, y ampliar su visibilidad para diagnosticar el problema.

Por otro lado, Garman abordó la visión de un futuro inminente de millones de agentes de IA trabajando simultáneamente y colaborando entre sí. Para ese contexto la compañía lanzó Bedrock AgentCore con la intención de ayudar a las empresas a desplegar y operar a escala este batallón de agentes de IA. Diseñado de un modo abierto y modular, AgentCore soporta frameworks como LangChain y múltiples LLM (OpenAI, Gemini, Gemma, Mistral Large, Mistral 3…). Además, como medidas de salvaguarda, AWS incorpora Policy in AgentCore para fijar controles deterministas en tiempo real sobre las acciones específicas del agente y AgentCore Evaluations para inspeccionar continuamente la calidad del comportamiento del agente.

Al mismo tiempo, la oferta se completa con Strands Agents, descargado más de cinco millones de veces en los últimos meses, según Swami Sivasubramanian, vicepresidente de AWS Agentic AI. Se trata de un SDK de código abierto que se lanzó el pasado mes de mayo para construir y ejecutar agentes de IA usando solo unas pocas líneas de código y que ahora se incorpora al lenguaje de programación TypeScript.

Con su visión de que la IA trasciende las capas más superficiales, AWS no persigue competir con el frenesí de startups que desarrollan agentes especializados en determinadas tareas, sino que quiere abarcar el andamiaje que hay debajo, esencial para extraer todo el valor de la IA, es decir, la integración de los datos, los flujos de trabajo y la gobernanza u orquestación de todos los nuevos elementos. Tal y como apuntó Sivasubramanian, en su ponencia principal, las empresas quieren ser el mejor lugar para crear agentes, pero todo el sustrato contextual del que dependen esos agentes, esto es, la inteligencia, sigue siendo complejo. Pese a los avances de actores como Palantir y Celonis, ningún proveedor ha resuelto aún el problema a gran escala.

AWS mueve sus fichas en el frente de la IA convencida de que no será suficiente con que los frontier AI models como ChatGPT incorporen sucesivas capas de herramientas para abordar la integración empresarial. En su lugar, Garman y su equipo apuestan por un abanico de modelos más pequeños y altamente especializados que, a su vez, demandarán una serie de necesidades para las que AWS confía tener respuesta.

[informe de David Bollero]

 

 

 

 


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2026 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons