“Sin la nube, hoy no existiría la inteligencia artificial”. Se hace raro escuchar estas palabras en boca de Adam Selipsky, CEO de Amazon Web Services (AWS), veinte años después de aquel experimento de Amazon, entonces ascendente sitio de comercio electrónico, que buscaba vender la capacidad excedente de sus centros de datos y acabaría liderando un fenómeno masivo: según los analistas, más del 87% de las empresas han confiado parte o todos sus procesos de computación a algún proveedor de servicios cloud. Pero la frase de Selipsky no se proponía reivindicar la historia de AWS sino recordar que ese liderazgo hay que disputarlo hoy en la IA con los mismos competidores: Microsoft y Google.
Y aunque sobre el papel AWS sea un componente menor del perímetro de Amazon, nunca será suficiente insistir en que es el componente más rentable, que baliza el camino tecnológico de su matriz. Sobre este telón de fondo, a finales de noviembre la compañía celebró en Las Vegas una nueva edición de su conferencia anual re:Invent, con la presencia de unos 65.000 asistentes.
Adam Selipsky es el director ejecutivo de AWS desde 2021, cuando sucedió a Andy Jassy, tras la designación de este como sustituto del fundador del grupo, Jeff Bezos, quien encontró formas más lúdicas de disfrutar su fortuna. Jassy, exitoso artífice de AWS, fue visto y no visto en re:Invent 2023, dejando el protagonismo a Selipsky. El leit motiv de la conferencia era la estrecha asociación entre la progresión de la nube y la inesperada explosión de la inteligencia artificial generativa (Gen-AI), que ha roto aguas este año.
La Gen-AI y los que están en el ajo se benefician ostensiblemente del estatus de acontecimiento mediático, pero a la vez son objeto de una cansina exégesis de columnistas que facturan al peso y de la crítica a expectativas no comprobadas. Digan lo que quieran, pero es indiscutible que ha marcado profundamente el mercado tecnológico este año que termina.
En Las Vegas, Selipsky dejó caer algo que escondían los apologetas de la novedad, compulsivos lectores de ciencia ficción: “nadie sabe cómo va a funcionar realmente este mercado, que aún no está configurado. El único que gana dinero es Nvidia, que nos vende chips a todos, pero llegará el día en que empiece a ser rentable para AWS y para sus competidores, que vendemos capacidades de IA a las empresas […] Por otro lado, las aplicaciones de consumo parecen florecer, pero en la vida real no se están monetizando. Se despachó con esta advertencia discretamente intercalada en una entrevista-río a TechCrunch. Venía a decir Selipsky que la IA generativa no es algo con existencia autónoma ni ha salido de la nada.
De lo que se deduce algo obvio, que la Gen AI – su acrónimo en inglés – será el caballo de batalla de AWS en 2024. Es un resarcimiento: AWS, que ha investigado durante años sobre IA, ha sido sorprendida, igual que todos, por la aparición de OpenAI y el deslumbrante acuerdo de esta con Microsoft, que ha descolocado a más de uno. Por este motivo, re:Invent 2023 puede considerarse como una escenificación del salto adelante de AWS para competir con Microsoft (Azure + Chat GPT) y con Google Cloud y su novísimo Gemini. Como parte de ese salto, AWS ha firmado un acuerdo por el que aportará hasta 4.000 millones a los trabajos de la startup Anthropic, fundada por un equipo de tránsfugas de OpenAI.
Como suele, AWS presentó en Las Vegas una plétora de novedades. Entre las más reseñables, Bedrock es un servicio gestionado para modelos de lenguaje (LLM) y construido sobre el aprendizaje a partir de un gran volumen de datos: desde 2017, Sage Maker, propiedad de AWS, ha acumulado más de 100.000 clientes de lo que probablemente sea la mayor red de ML (machine learning) del mundo. Los modelos replanteados por AWS van a facilitar, entre otras cosas, el necesario reemplazo de Alexa, asistente virtual de Amazon que desde hace un tiempo ha caído en su propia decadencia y ha dejado de usarse como gadget más o menos divertido para explorar sus posibilidades y sus límites. Ahora, si se trata de divertirse, hay que preguntar tonterías a los chatbox de la nueva IA para mofarse de las “alucinantes” tonterías de las respuestas. ¿Disculpables? Siempre reconforta saber que, finalmente, la IA se equivoca tanto o más que la inteligencia humana. Ahora, a esperar la computación cuántica, que es más dura de roer.
De la patochada provocada por los amigos de Sam Altman, incapaces de gestionar una empresa, poca gente se acuerda. Excepto unos juristas que intentan demostrar que la solución equivale a una OPA encubierta de Microsoft sobre Open AI y por tanto ha de ser investigada por la autoridad.
Lo cierto es que, tras re:Invent 2023, los tres primeros actores de la obra ya están en escena (no excluye que otros se sumen al guión). En las próximas semanas y meses se hablará de un comentado anuncio de las Vegas, un chatbot llamado lQ, al que los usuarios de a pie le están buscando las cosquillas. Ha sido diseñado junto con Nvidia, cuyo fundador, Jensen Huang, en permanente autopromoción, garantizó a la audiencia que AWS va a recibir cada vez que lo necesite su hardware más moderno [y ya tiene un parque 3.000 de sus ordenadores, habilitados para la IA] .
Que ha sido entrenado con años de datos recogidos por AWS, para con ellos desafiar a Microsof y Google), sus competidores inmediatos. Esta es una guerra que, como todas en la era moderno, servirá para probar la eficacia de nuevas armas tecnológicas.
[parcialmente publicado en La Vanguardia el 17/12]