Centros de datos y computación en la nube no son nociones antitéticas, como se pensaba hace cinco o seis años, cuando la fiebre cloud parecía condenar a los primeros a una rápida obsolescencia. No ha sido así, ni lo será: no hay mejor prueba que el comportamiento del mercado de servidores, que siguen siendo el núcleo donde se procesa cada byte de información digital. Compran servidores para sí mismas las empresas y los compran los proveedores de servicios cloud en todo el mundo. Por tanto, la demanda crece al ritmo de dos dígitos: las cifras publicadas por IDC confirman la robustez global de las ventas de servidores en el mercado, con un crecimiento interanual del 24%, aunque hay mucho que matizar.
En España, la misma consultora atribuye a Hewlett Packard Enterprise una cuota dominante, del 48,7% a finales de 2018, del mercado de servidores. Una cifra que marca tendencia e invita a buscar una explicación. ¿De quién? Jorge Fernández, quien durante años fue CTO de HPE para España, ahora en su papel de director de preventas para el Sur de Europa, y Álvaro Morán, director de ventas de infraestructura de datacenter de la compañía en España, aceptaron dedicar una hora de su tiempo a responder al autor de este blog.
Mi intención original era hablar de servidores, pero restringiría el campo de la conversación. El mercado y la estrategia de HPE da para más.
Jorge Fernández. Vivimos un momento de evolución radical en la visión del datacenter, que se puede atribuir a una combinación de factores entre los que sin duda están la interacción con el edge, la inteligencia artificial y la infraestructura componible, por citar tres elementos clave de la estrategia de HPE. Pero, si bajamos al mercado, lo qué se está vendiendo y lo que están comprando los clientes, según los resultados de IDC, vemos un claro indicador de crecimiento en cómputo.
[…] traducido como venta de servidores.
J.F. Dejando de lado la hiperconvergencia, que merecería otras consideraciones. Creo que la razón principal por la que está creciendo este mercado es que ha cambiado la respuesta a la pregunta de para qué son los servidores. El detonante es software defined que permite prácticamente cualquier funcionalidad sobre una máquina estándar. A mi juicio, lo que cambia es el uso de los servidores, esto es lo realmente interesante.
¿En qué dirección cambia?
J.F. En la forma de trabajar en los centros de datos y esto se debe, entre otras cosas, al almacenamiento. Lo que no ha cambiado es la parte de producción, los servidores en su función primaria, para bases de datos y aplicaciones. Pero las arquitecturas de software reflejan lo que pasa en la economía digital, mientras que ha cambiado poco o nada la forma en que se usan los servidores de computación: se virtualiza igual, se añade información a las bases de datos […]
[…] pero los servidores no son iguales y no se compran igual
J.F. Ciertamente ha aumentado el número y potencia de los procesadores, la memoria, la capacidad de computar más en menos espacio, pero esa arquitectura no ha cambiado mucho. Lo que cambia, y mucho, es cómo se gestiona el almacenamiento que hay detrás
¿Ahí entraría la hiperconvergencia?
J.F. Veníamos de la arquitectura de virtualización, que básicamente consistía en poner un servidor con unas máquinas virtuales que daban la capacidad de computación, más una red de comunicaciones como SAN y luego una cabina de almacenamiento. Es lo convencional y sigue haciéndose así, pero de pronto llega la hiperconvergencia y alguien dice que puede prescindir de la cabina de almacenamiento. Porque, veamos, ¿qué es una cabina? Un montón de discos con un software por encima que, básicamente, se ocupa de que el dato esté siempre disponible, que no se pierda y no se corrompa. Y que sea compartida por varios dispositivos. Si cojo un servidor estándar, que ya es suficientemente rápido con la nueva generación de discos y le pongo encima una capa de software, soy capaz de crear exactamente las mismas funcionalidades que en una cabina de almacenamiento. Le agrego la virtualización y en una sola caja tengo todo lo que necesito.
[…] No todo el almacenamiento puede gestionarse así, creo entender.
Álvaro Morán. Los clientes empiezan a distinguir entre almacenamiento primario y almacenamiento secundario y entre dos tipos de datos. En el primario, tradicionalmente basado en cabinas o arrays, se debe garantizar una calidad de servicio en el acceso al dato y una determinada velocidad. Esas cabinas van a seguir teniendo su misión y van a seguir vendiéndose; nada puede sustituir sus cualidades intrínsecas. Pero tenemos la parte virtualizada en las que se trabaja con software-defined; aquí encajan nuestras soluciones de Simplivity […]
No quisiera perderme, francamente
J.F. […] La hiperconvergencia empieza a consolidarse, pero todavía es algo emergente, no ha alcanzado una implantación masiva. Creemos que puede estar en el orden del 15% del parque de almacenamiento primario […] Hay un techo en las aplicaciones que no pueden ser virtualizadas, algo así como un 30% que está en servidores físicos. Lo que significa que el 70% restante es susceptible de trabajar en una arquitectura software-defined sobre servidores estándar con discos muy rápidos.
¿Este es el mercado a atacar?
J.F. Pasar del 15% al 70% es un negocio potencialmente enorme. En el mercado primario, todas las cargas virtualizadas son susceptibles de moverse a software-defined. En el secundario puede haber algo más de controversia; los clientes observan que no hay por qué acceder a todos sus datos a la misma velocidad.
¿Cómo se mide ese mercado?
J.F. Hay un estudio de Gartner según el cual sólo el 20% de la información es primaria por naturaleza, tiene que ser accesible o, en caso contrario, el negocio se resiente. De modo que el 80% vendría a ser secundaria, esencialmente fruto de la economía digital […] La pregunta es cómo crear una capa de almacenamiento secundario que cumpla los requisitos de accesibilidad, que la información no se pierda y no se corrompa, pero que al mismo tiempo sea mucho más económica. Esto es lo que más está creciendo en las organizaciones […] El transaccional no parece que vaya a crecer, o casi, pero la información procedente de Big Data alcanza tal volumen que se convierte en un problema.
Un ejemplo no me vendría mal.
J.F. Supongamos que soy una empresa que digitaliza documentos legales, que tengo que guardarlos de forma estructurada para acceder a ellos en cualquier momento, no necesariamente a una velocidad alta. Nos encontramos ahí con aplicaciones que guardan información como objetos; no es más que un sistema de almacenamiento en el que dejo mi fichero y me devuelve un identificativo. Como en un guardarropas entrego mi gabardina y me dan un número. Cuando quiero recuperar mi prenda, entrego el número y me la devuelven.
Didáctico ejemplo, que nunca oí en mis visitas a Scality.
J.F. Bueno, no tiene más misterio; es sencillo de gestionar, tiene un sistema interno de no corrupción y de réplica de la información. Muchas de las aplicaciones que se desarrollan en esta era digital implican almacenar información como objeto de forma nativa. HPE no sólo tiene un acuerdo para revender los productos de Scality pero además es accionista.
Me temo que hemos pasado demasiado rápido sobre Big Data. O no me he enterado
J.F. Por supuesto, tenemos que ocuparnos de Big Data para luego hacer un análisis ‘paralelizado` de la información guardada. […] digamos que tengo un secundario gigantesco con distintas puertas de entrada y distintos interfaces. Lo que tiene de particular es que se construye sobre servidores estándar con mucho disco. Estoy hablando de servidores muy pequeños pero capaces de tener 500 o 600 terabytes en crudo: una densidad descomunal con un software por encima. Barato y masivo. Quiero decir que HPE está presente en todas estas lógicas que he citado: en la de objetos, la de NAS, la de Big Data, la de backup... Esta es la dinámica del mercado; los clientes buscan un almacenamiento secundario con tecnología scale-out sobre servidores estándar.
Suena como una predicción optimista del negocio de HPE.
A.M. Somos optimistas. Estamos viendo ese crecimiento en la venta de cómputo. Las consultoras miden máquinas, dato que igual no se corresponde con el crecimiento que subyace en la virtualización o en las bases de datos.
¿Cuál es la métrica que vale? ¿Máquinas o dólares?
A.M. Actualmente vendemos menos máquinas pero facturamos más, porque las máquinas tienen un precio medio más alto: llevan disco, procesadores más potentes […] En general, el mercado se ha reducido en unidades, pero ha crecido en valor. De hecho, HPE está en torno al 46% de cuota de ingresos por computación. Antes, en momentos buenos del mercado español, no llegábamos al 40%.
J.F. En el almacenamiento secundario del que hablaba hace unos minutos, estamos en un momento muy interesante. Un mercado que no está consolidado, e incluso puede decirse que es emergente, en el que los actores en escena no son los vendedores de almacenamiento de toda la vida.
¿Por ejemplo?
A.M. Jorge ha mencionado a Scality; además de ser revendedores, nosotros le ponemos una capa de servicio, de pago por uso en caso de que sea necesario, y está teniendo mucho éxito. En la parte de NAS scale-out trabajamos con Qumulo, que es capaz de dar un precio por tera cinco veces inferior a las NAS tradicionales de la competencia. En backup, trabajamos con Cohesity que es muy poco conocida en España. En Big Data con Cloudera y Hortonworks, que finalmente se han fusionado.
Una constelación de startups esperando el momento de la consolidación o una adquisición.
A.M. Básicamente, reflejan múltiples necesidades en el datacenter, estructuras bimodales que necesitan respuesta. Por ponernos como ejemplo, HPE tiene una tipología tradicional de servidores blade, pero también infraestructuras componibles que permiten trabajar de manera más flexible las distintas capas. Y esto, creo yo, es lo que se está manifestando en el crecimiento que revela IDC. Mientras el mercado de servidores crecía el año pasado en ratios del 11%, nuestros Synergy crecían un 36%. Y no olvidemos el papel de edge.
Eso mismo, no lo olvidemos
J.F. Es una corriente muy intensa en estos momentos y una apuesta muy firme de la compañía. Servidores que se ponen cerca de donde se está produciendo la información para tomar decisiones locales… pequeños, preparados industrialmente para condiciones ambientales extremas […]
Hasta aquí las respuestas han sido muy prolijas, pero echo en falta una referencia a las opciones de inversión que se presentan al cliente interesado en alinear su datacenter con las nuevas corrientes […]
J.F. El datacenter que conocemos sobrevivirá profundamente renovado y como acompañante necesario de dos ecosistemas adyacentes que llamamos cloud y edge. Acompañante quiere decir que habrá migración de cargas de trabajo a la nube, de ida y de vuelta lo que supone que cada vez se van a generar más datos en el extremo y también que será más rápido y eficiente procesarlos en el extremo. Con esta visión híbrida, que ha sido un lema permanente de HPE en los últimos años, nos ofrecemos a identificar qué cargas son las más adecuadas para permanecer en el datacenter, qué cargas deben ser procesadas en el extremo y qué cargas conviene alojarlas en la nube. Honestamente, creo que el mercado lo está entendiendo y lo está pidiendo.
Si esta entrevista llevara un titular, que no lo lleva, creo que sería “el cloud no es una amenaza para el datacenter”
J.F. Es innegable que la fuerza gravitacional de la nube atrae muchas cargas de trabajo, pero no hay más que hablar con las empresas para ver que muchas cargas seguirán afincadas en el datacenter, con la facilidad de que podrán ser movidas a la nube de manera muy sencilla.
¿Y cómo será ese datacenter dentro de cinco años?
J.F. Sin ninguna duda, será definido por software. Y para que sea así, va a ser necesaria una gran capacidad de computación y una gran capacidad de almacenar información en disco. Y luego están las redes, en las que también ha penetrado la misma tendencia: redes definidas por software quiere decir más flexibles.
A.M. Yo añadiría un elemento adicional. Creo que en el futuro el centro de datos será cada vez más autónomo, a través de modelos de inteligencia artificial. Tendrá un alto nivel de autogestión porque será capaz de predecir dónde puede haber un problema que deba corregirse y que se corrija de manera automática. Lo estamos viendo con Infosight, que tras la adquisición de Nimble hemos integrado en nuestras cabinas de almacenamiento y a lo largo de 2019 estará en nuestros servidores.
Veo que es un punto diferencial, pero me pregunto si es algo que preocupe a los clientes.
A.M. Para empezar, tenemos métricas que mostrar. En la tipología Nimble a la que Infosight venía asociado, en torno al 75% de los fallos se predicen y se corrigen autónomamente. Por lo que la necesidad de dedicar recursos a mantenimiento se minimiza.