14/07/2023

HPE desvela su vuelta a la nube pública con IA

Como es natural, la conferencia HPE Discover del pasado junio en Las Vegas ha sido pródiga en anuncios. El más potente de todos ha sido una reivindicación por todo lo alto del papel que la compañía juega en la inteligencia artificial. A su manera, distinguiéndose del modo de actuar de otros en la industria: retorna HPE a competir en la nube pública, que abandonó en enero de 2016 al clausurar Helion Public Cloud por su inviabilidad económica. Desde entonces, la estrategia de la compañía ha estrechado vínculos con los hiperescalares y se ha refugiado en dos postulados que le dan su perfil actual: la hibridez y el pago por uso. El vector del sorprendente regreso ha sido la supercomputación.

Justin Hotard

Justin Hotard, vicepresidente y director general de la división High Performance Computing (HPC) resumió así esta novedad como algo hasta ahora inexistente en el mercado: “los usuarios podrán subir sus datos,  textos e imágenes a un servicio de cloud pública de HPE, verificar que están protegidos y luego entrenar y ajustar su modelo personalizado de su uso exclusivo”.

Desde hace años, todo cuanto HPE lanza al mercado se coloca bajo el paraguas de GreenLake. La supercomputación ha sido, por razones previsibles, la última pieza que se resistía a pasar por ese mecanismo comercial. Pero ahora, impulsada por el boom de la inteligencia artificial generativa, se suma a la fiesta.

Dicho llanamente, de GreenLake for Large Languages Models (LLM) puede decirse que se encuadra más en la órbita PaaS (Platform as-a-service) que en la de IaaS (Infrastructure a-a-service) pionero, pero indudablemente se alinea con la definición de cloud pública. Lo que la diferencia en este caso es que no viene de la mano de  ninguno de los tres grandes proveedores de esos servicios – de hecho compite con ellos – sino que anida en la propia HPE.

La IA generativa tal como la ofrece HPE se apoya en sus supercomputadores Cray XS con GPU Nvidia H100; la compañía ya acepta pedidos para empezar a cumplirlos a comienzos de 2024 en Norteamérica y Europa.

Entre la oferta LLM de HPE destaca la capacidad de lenguaje natural Luminous (en inglés, francés, alemán, italiano y español) de la startup germana Aleph Alpha, especializada en IA, que cuenta con proyectos en producción en los ámbitos sanitario, financiero y legal. Según Antonio Neri, CEO de HPE, la tecnología de Aleph Alpha supone un salto cualitativo con respecto al sistema de Open AI; de hecho, se ha decidido no soportar el populat ChatGPT 4.0, aunque sin descartarlo. Todo dependerá de su idoneidad para determinados casos de usocon la vista puesta en soluciones verticales

Una de las ventajas competitivas que HPE pretende explotar en este asalto a la IA generativa es su posición adquirida en la supercomputación. Afirma Hotard que los servicios que en este momento puede proporcionar la compañía se encuentran fuera del alcance de los centros de datos existentes e incluso de la IA que practican los hiperescalares. No se trata únicamente de potencia de proceso, sino de especialización, a la que se suman fiabilidad y capacidad de escalar.

El anuncio de HPE rompe las barreras de entrada en este campo hermético, pues a la complejidad de manejar un entorno de supercomputación se añaden sus altos costes de energía y refrigeración. Ligando estos ahorros a las cada vez más presentes estrategias ESG, el hecho de que cada supercomputadora preste el servicio a múltiples clientes simultáneamente es un factor que abaratar los costes.

Los responsables de HPE hablaron en Las Vegas de la ejecución de tareas de entrenamiento con  LLM  entre un 15% y un 30% más rápido que otras alternativas convencionales. Además, como gancho, HPE elimina de la factura el  cobro de las tarifas de salida de datos, lo que lógicamente reducirá aún más un coste que de momento no se ha publicado.

En realidad, el anuncio no es la primera incursión en el mercado de la IA por parte de HPE, ni mucho menos: lleva años armándose con adquisiciones como la de Determined o este mismo año la de Pachyderm. El contexto es favorable: Neri aseguró en la presentación de los resultados trimestrales que las ventas en supercomputación e IA de alto rendimiento se han disparado un 18% hasta alcanzar los 840 millones de dólares.

Más allá del GreenLake for Large Language Models, la compañía ha reforzado su batería de propuestas en IA con una solución de inferencia basada en servidores Proliant Gen 11 y especialmente desarrollada para cargas en el edge y en el datacenter. Asimismo, sin sair del ámbito de la IA, ha comenzado a exprimir la reciente adquisición de OpsRamp, especialista en ITOM (IT Operations Management) basado en IA. Es un mercado cuya oportunidad potencial HPE ha estimado en 39.000 millones de dólares.

Con su integración dentro de GreenLake, la compañía extiende las prestaciones de administración de servicios en entornos híbridos y/o multicloud, con cobertura tanto para AWS, Azure y Google Platform como para entornos on-premise de competidores como Dell Technologies, Cisco Systems, NetApp y Pure Storage. Relacionado con ello, ha anunciado el lanzamiento de un cuadro de mando de sostenibilidad multicloud y multiplataforma con el que disponer de visibilidad, monitorización y administración del consumo de energía.

Por otro lado, pese a que en Discover 2023 se estaba relanzando una nube pública, HPE ha reforzado sus lazos con AWS, simplificando la adopción de nube híbrida mediante nuevos servicios de consultoría y desarrollo de aplicaciones, modernización, migración y servicios gestionado. Este es el caso, por ejemplo, de HPE Nonstop Development Environment para los entornos de misión crítica o para securizar entornos 5G e IoT.

Las nuevas capacidades puestas en marcha en común con AWS permiten la autogestión de máquinas virtuales implementadas en AWS a través de GreenLake for Private Cloud Business Edition (PCBE). Merece la pena detenerse en este punto, por el impacto que puede tener a la hora de desplegar nubes privadas apoyadas en la infraestructura hiperconvergente desagregada (dHCI) de HPE. En tan solo doce días desde que se concreta un pedido, el cliente puede disponer de una cloud privada totalmente operativa de máquina virtual.

Otros anuncios realizados durante la última edición de Discover vinieron de la mano del fortalecimiento de la alianza con Equinix, de manera que en siete de sus centros de co-locación [en Europa: Londres y Frankfurt] ofrecerá servicios provisionados e implementados con anterioridad, listos para utilizarse cuanto antes. Este punto confirma que la conversión de HPE a las reglas de la nube pública no mengua su otro objetivo esencial: acelerar los tiempos de migración a la nube privada con claros ahorros de eficiencia energética. Además, también se anunció un nuevo GreenLake for VMware Cloud Foundation, que proporciona una arquitectura de referencia con componentes de hardware estandarizados.

Al regresar a casa desde Las Vegas, queda una cierta resaca de IA, a pesar de que todavía se desconocen muchos detalles de la oferta de la compañía para valorar convenientemente la viabilidad de la estrategia y de que hay expertos que sólo piensan en las cargas tradicionales de HPC en lo que para HPE son cargas de trabajo de IA.

Sobre el papel, áreas como la meteorología, la biología y la sanidad son firmes candidatas a aprovechar el LLM de HPE como servicio de pago bajo demanda, pero será interesante conocer la aproximación a otros sectores con diferentes casos de uso. Para ello no bastará con su capacidad propia de I+D y su profusa lista de adquisiciones: necesitará la creación de un ecosistema IA. Lo natural sería que este prefiera la atmósfera propia de una startup antes que integrarse en una multinacional, por lo que Hotard tendrá que atraerlo hacia HPE. En cualquier caso, quienes dentro de la compañía tienen que decidir saben que el tiempo apremia, o al menos eso da a entender la proliferación de noticias sobre IA.

[informe de Mario Kotler, desde San Francisco]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons