No es un secreto que este blog presta una atención con asiduidad al mercado de almacenamiento de datos, así como a las estrategias de las empresas que participan de él. Como otros segmentos del mundo de las TI, el flujo de noticias que filtrar es constante, el paisaje competitivo es volátil y las nuevas propuestas cuestionan ciertas ideas adquiridas. Pero lo nuevo y «disruptivo» no tiene por qué estar en contradicción con la necesidad de preservar lo existente. Esta es la esencia del verbo transformar. Para contrastar esas tendencias ha sido oportuna una conversación con Javier Martínez, director técnico de la filial española de NetApp, y es de justicia reconocer al entrevistado su paciencia didáctica.
Como aperitivo, tengo una pregunta sencillita: ¿hacia dónde va el mercado del almacenamiento?
[risas] Creo que NetApp refleja bastante bien por dónde van los mercados, porque al estar especializados exclusivamente en almacenamiento, no tenemos otras líneas de negocio que pudieran alejarnos del core business. Venimos de un mundo en el que durante veinte años la información se almacenaba en discos convencionales, los ´que dan vueltas` los llamo yo, que siguen ahí, y las previsiones adelantan que seguirán vivos unos cuantos años como soportes de alta capacidad. En cuanto a la tecnología en sí, flash no es algo tan nuevo como parece: NetApp empezó con los discos de estado sólido en 2009, con cierta timidez al principio. Es cierto que en 2015 se inició un despliegue que ha tenido consecuencias, y estamos viviendo en 2016 un punto de inflexión.
Por razones de coste, entre otras, flash se usaba en origen como acelerador. Para NetApp es ya un soporte en todo el sentido de la palabra?
[…] como soporte definitivo, sí, porque en una función de acelerador empezamos en 2009. Fuimos necesariamente tímidos, porque nadie podía permitirse que un alto porcentaje de sus datos se almacenaran en estado sólido. Con el tiempo, empezaron los proyectos puntuales en torno a lo que ahora se llama flash que, en esencia, es cambiar discos por SSD.
Cuando habla de discos, ¿se refiere a SATA?
Hay varios nombres para los discos de alta capacidad. Unos los llaman SATA y otros Near Line SAS o simplemente Near Line o más sintéticamente NL, con lo que el batiburrillo se presta a confusión. Lo importante no son los nombres, sino que se trata de discos de 7.200 revoluciones con alta densidad. Los discos SAS de baja capacidad y altas prestaciones ya no tienen sentido económico, otra cosa es que lo tengan por compatibilidad con lo instalado. Ahí es donde hemos visto este año el punto de inflexión: casi todos los proyectos para almacenamiento de altas prestaciones se van a los discos de estado sólido. Que a su vez también han evolucionado: de los 100 o 200 gigas de hace unos años, se ha pasado a los 15 teras que NetApp tiene ahora en el mercado. Al mismo tiempo, la tecnología ha permitido que mientras subía la capacidad, las prestaciones bajaban un poquito.
[…] confieso que no me he enterado del todo
Pasa que nos volvemos a enfrentar a la necesidad de construir sistemas con varios niveles, unos más rápidos y otros no tanto. Una cabina de almacenamiento puede tener soportes de diferentes tipos, y empezamos a ver que no todo lo que es flash corre igual; esto lleva a la necesidad de hacer un poco de ingeniería para combinar todas las piezas. Las proyecciones prevén que las dimensiones seguirán creciendo, duplicándose cada nueve meses más o menos. En concreto, quiere decir que de los 15 teras actuales, el año próximo pasaremos a 32, luego a 64 y así… Hay más tecnologías en la cocina, como las memorias Cross Point, de Intel y Micron, que no dejan de ser un retorno a los sistemas de almacenamiento permanente, en los que la latencia es cada vez más baja y los anchos de banda cada vez más altos.
O sea que vienen más tecnologías que cambiarán el panorama…
Sí. Al final, de lo que se trata es de tecnologías de memoria que hagan viable almacenar de manera definitiva, pero habrá que ir viendo cuál es su evolución, su disponibilidad comercial, prestar atención a sus precios…
Y también el tipo de demanda, que condiciona el ritmo al que puede correr la industria.
Por lo que he leído, no tengo claro si los procesos de fabricación ya han alcanzado los niveles necesarios de calidad y de madurez. No hay duda de que flash es lo que tenemos hoy, y tiene mucho recorrido por delante. Tal vez si volvemos a charlar dentro de un tiempo, ya habrá que hablar de un flash diferente: no hay que perder de vista lo que buscamos, dispositivos donde almacenar la información permanentemente, y que permitan gestionarla mejor. Esto es lo que hacemos NetApp y otros que fabricamos cabinas: coger los distintos componentes que hay en el mercado y construir sistemas para guardar la información. No podemos trabajar pensando sólo en el medio de almacenamiento, porque es seguro que dentro de cinco años habrá cambiado. Los discos ´que dan vueltas` han durado veinte años; ¿durará flash veinte años?
Depende de cómo evolucionen los fabricantes de semiconductores. A ellos me refería.
Empiezan a notarse problemas de suministro de discos, porque las fábricas que los hacían, ahora se dedican a otras cosas. Es interesante saber que los que vendemos sistemas de almacenamiento, NetApp y nuestros competidores, tenemos ahora menos predicamento en la decisión acerca de qué se va a fabricar […] porque empresas como Google, Amazon y otras consumen más discos que los fabricantes, y el mercado se ha redistribuido con actores diferentes a los de hace unos pocos años. El siguiente punto para responder del todo a la pregunta inicial sería cómo se accede a la información, qué protocolos usamos para ello.
[.. ] Me apunto a recibir una lección.
Intentaré explicarme. De hecho, sigue vigente el SCSI de los años 70, los primeros equipos que tenían los discos directamente conectados; sigue vigente, pero embebido en varias capas. NetApp empezó con SCSI. En los años 90 emergieron las redes SAN, un almacenamiento compartido entre varios servidores. A finales de esa década, con el protocolo Fiber Channel nuestras cabinas consolidaban grupos de almacenamiento o volúmenes grandes. Luego vino la cuarta pata, NAS [Network Attach Storage] que en lugar de una red dedicada utiliza una red IP […] Si me pregunta por lo nuevo que viene, mi opinión personal es que vamos hacia dos mundos, uno de los cuales es el almacenamiento de objetos, un paradigma que gana terreno en distintos casos de uso y en aplicaciones de información no estructurada: lo que no es una base de datos, lo que no pertenece a un solo servidor capaz de gestionarlo, sino que son millones de objetos que vienen de dónde sea que vengan.
El almacenamiento de objetos está muy asociado a la proliferación de imágenes, pero creo entender que Internet de las Cosas es su próxima estación…
Muy cierto. IoT supone un problema nuevo para el almacenamiento; toda esa información no estructurada, ¿dónde guardarla? Los sistemas de ficheros tienen problemas de escalabilidad a partir de cierto volumen, ahí es donde aparece el almacenamiento de objetos como solución más idónea. Los diferentes proveedores hemos tomado posición (bueno, no todos), pero está claro que se trata de un área de crecimiento, cuyo interés está en combinar alta capacidad con bajo rendimiento […]. Se están produciendo movimientos hacia arquitecturas capaces de soportar volúmenes crecientes de datos. En España no está ocurriendo todavía, salvo algún proyecto muy pequeño.
Hasta aquí ha explicado cómo se accede a la información almacenada. ¿Cómo se construye un sistema de almacenamiento que responda a los nuevos paradigmas?
Nosotros venimos de lo que ahora llaman segunda plataforma. Es decir, arquitecturas que privilegian la disponibilidad, buscando componentes de calidad, redundados para ser más consistentes, todo se multiplica por dos como mínimo… Esto tiene sentido en algunos casos, pero en las iniciativas del tipo tercera plataforma vamos a utilizar componentes más baratos y más estándar… En definitiva, lo que el mercado conoce como un servidor: podemos hacer que se comporten como un sistema de almacenamiento, y esto en el fondo es lo que se ha dado en llamar almacenamiento definido por software, pero al final se trata de un hardware estándar que puedes comprar a un fabricante de servidores y al que le pones una pieza de software que hace que no se comporte como un servidor Windows sino como un sistema de almacenamiento que, además, es capaz de crecer en horizontal, tener escalabilidad y es de gestión más sencilla.
¿Es ahí es donde entra la compra de SolidFire?
Entra ahí en el sentido de que ha permitido a NetApp entrar en este tipo de arquitectura. Porque en muchos ámbitos, desde luego que no sólo en el de almacenamiento, el hardware es más estándar, ´comoditizado`, por lo que es cada vez más difícil aportar valor añadido con base en el hardware. La solución tiene que construirse con base en el software, y creemos que esta evolución tiene mucho sentido, por esto la compra de Solid Fire. De hecho, la preocupación de la compañía apunta más al software que al hardware. Claramente, vamos hacia productos que serán prácticamente todo software: claro que hay venta de hardware, pero no es importante que lo vendamos nosotros o un tercero, lo importante es el software que corre sobre esos servidores estándar.
[…] el mercado dirá…
Efectivamente, el mercado dirá. No todos los casos de uso son válidos para esta arquitectura, pero parece tener futuro. Funciona solamente sobre flash, y entonces ¿qué pasa con los datos que están en SATA a día de hoy? Pues, que hay que seguir dándoles vida, y es un porcentaje muy alto en volumen. Con SolidFire no estamos hablando de virtualización, que sería una alternativa, sino de utilizar los dispositivos directamente: no hay un hipervisor […] A nosotros, nos está permitiendo llegar a empresas más pequeñas que nuestros clientes típicos, pero no es una opción válida para grandes organizaciones, para las que tenemos soluciones grandes, tanto en capacidad como en rendimiento. Otro rasgo de interés es su exportabilidad a la nube.
Un informe reciente de IDC decía, a propósito del gasto en infraestructura on premise, que ahora representa el 66% y al final de la década será el 50% pero seguirá cayendo, y el resto se irá a cloud. ¿Qué papel tiene el almacenamiento en esta evolución?
Depende de en qué medida seamos capaces de jugar con las aplicaciones, porque, en general, el almacenamiento tiene que estar junto a las aplicaciones que lo utilizan. Puedo pensar en una base de datos que tiene mi CRM y llevármela a la nube, pero entonces el CRM también tiene que estar en la nube, ¿no es cierto? Salvo el almacenamiento de objetos, que está pensado para otro modelo de uso. Mire, al final, tenemos que seguir las decisiones que tomen los gestores de TI. Estos son los que deciden si les conviene más confiar en el proveedor de servicios X, sea multinacional o local, o seguir con su propia infraestructura.
Para una empresa como NetApp, habría un cambio de clientes…
Por supuesto que sí. Estamos viendo cómo se consolida el número de clientes: cada vez son más los proveedores de servicios dentro de nuestra clientela. Nuestro mercado crece en volumen pero baja en número de clientes, porque nos compran esos proveedores de servicios. La ventaja para NetApp es una mayor capilaridad: así llegamos a más clientes finales a los que antes no podíamos llegar.
En una palabra, los proveedores de servicios son clave para NetApp…
Clave es la palabra clave. Buena parte de la informática de los próximos años la van a construir ellos, y ellos tomarán las decisiones en materia de almacenamiento. Esto nos viene bien, porque siendo como somos una compañía muy tecnológica, podemos hablar con estos interlocutores de una manera que no siempre es posible con un CIO de empresa. Además, los productos de NetApp han evolucionado siguiendo la tendencia del mercado, y lo que hacen realmente es facilitar que los datos se puedan mover del cliente a un proveedor, o de un proveedor a otro. Normalmente, se trata de decisiones económico-financieras, más que técnicas, y todo indica que la tendencia es imparable.