Big Data es mucho más que un eslogan eficaz. Y la demanda de software basado en Hadoop crece rápidamente entre las empresas. No sólo crece sino que su adopción se acelera. Lo confirma el último informe trimestral de Hortonworks: ha cerrado el año fiscal 2015 con ingresos de 121,9 millones de dólares, un 165% de incremento interanual. El problema es que las pérdidas netas ascendieron a 179,1 millones de dólares. Tal como ocurre con otras compañías especializadas en Hadoop – Cloudera y MapR – con una diferencia sensible: Hortonworks fue la primera, y por ahora la única, en salir a bolsa, en diciembre de 2014. Por tanto, está sometida a un escrutinio del que sus competidores se libran.
El número de clientes aumenta, pero la vulnerabilidad financiera se hace patente: la compañía ha tenido que emitir nuevas acciones por 100 millones de dólares, a la vez que su CEO, Rob Bearden, ratificaba la sostenibilidad de su modelo de negocio, que hasta ahora ha sido el propio de una compañía de open source: dos de cada tres dólares que ingresa corresponden a suscripciones por soporte, y el resto a servicios profesionales.
A finales de febrero, The Wall Street Journal atisbaba un viraje parcial en el modelo: «Hortonworks se prepara para vender software ´propietario` construído por otras compañías, que correría en su plataforma open source [aunque] la cuestión de la propiedad intelectual aún no está definida». En particular, añadía la noticia «la compañía está en discusiones con diversos socios para que su plataforma incluya programas de ciberseguridad de estos». Es un área que Hortonworks podría monetizar sin renunciar a sus principios.
Conviene no sacar conclusiones apresuradas. Cuando este blog visitó la recién estrenada sede de Hortonworks en Santa Clara (California) nada hacía presumir esta evolución, por otra parte muy razonable. En una entrevista posterior, el CTO de la compañía, Scott Gnau, insistió en su defensa del modelo de trabajo con la comunidad de código abierto. Sin embargo, en la conversación apareció el asunto crucial de la sostenibilidad del modelo de negocio. De hecho, Gnau sugirió que dentro del modelo cabe la posibilidad de añadir elementos complementarios (de terceras partes) encima de su plataforma.
Desde la visita a la sede de la compañía tengo una pregunta pendiente: ¿por qué impulsa Hortonworks la iniciativa Open Data Platform, de la que no son miembros sus dos competidores?
Creemos que la ODPI es más importante para la industria que específicamente para Hortonworks. La complejidad del ecosistema que se está formando en torno a las diferentes tecnologías de Big Data, podría llegar a ser insostenible en razón de su tendencia a la fragmentación. Entonces, como compañía, pensamos que es importante para la industria – y por supuesto, para nosotros – la existencia de un núcleo común de tecnologías para que los diferentes vendedores puedan construir sus propias ´pilas` de aplicaciones. Esta fue la génesis de la iniciativa, y desde que la lanzamos se han sumado muchas compañías y se han puesto de acuerdo en lo que hay que hacer. En definitiva, se trata de pensar en cómo aportar tecnología a un mercado amplio, creciente y heterogéneo: si fuéramos capaces de crear ese núcleo común y un conjunto consistente de APIs, además de acordar unas técnicas de testing, sería mucho más fácil para todos desarrollar y vender sus propuestas.
¿O sea que es más realista que todos saquen partido, incluídos sus competidores?
Absolutamente. Creemos que lo que es bueno para la industria es bueno para Hortonworks, y por esos estamos muy satisfechos de formar parte del grupo inicial de miembros de la ODPI.
¿Hasta dónde llegaría entonces la singularidad de cada compañía, en su caso la de Hortonworks? ¿En qué casos consideraría añadir complementos a ese core común?
Ya hay varias tecnologías complementarias que hemos presentado ante la ODPI. Si asumimos que el núcleo común comprende HDFS, YARN, MapReduce y Ambari, hay muchos otros elementos de un ecosistema Hadoop que podrían incorporarse a la iniciativa […] Los tres componentes esenciales de la ODP, en mi opinión, tienen que ser acceso, gobernanza y seguridad.
¿Cuál diría usted que es su mayor valor añadido de Hortonworks al ecosistema Hadoop, en comparación con sus competidores?
Yo destacaría dos piezas. Una es que, en nuestra opinión, tenemos el modelo de modelo más sostenible para seguir innovando alrededor del core: somos en un 100% software comunitario. Esto quiere decir que trabajamos con la comunidad e incorporamos todo aquel programa o proyecto que sea innovador, para sumarlo a nuestra plataforma de datos. La fuerza de este modelo salta a la vista si consideramos el número de desarrolladores que han trabajado en la resolución de los problemas que plantea Big Data […].
Ha dicho que el modelo es sostenible […] pero, de las cuatro fases del ciclo de vida de su oferta, la única monetizable es el soporte; el resto, de momento, son una carga. En la visita de prensa a Hortonworks se nos dijo que la compañía tiene predisposición a hacer adquisiciones y contrata asiduamente personal. ¿Son signos de sostenibilidad?
Como puede ver en nuestro informe de resultados, el número de clientes ha crecido significativamente, y la facturación también. La sostenibilidad está en función del volumen, y por esto podemos permitirnos contratar personal, porque lo necesitamos para atender a nuestros clientes.
Me refería a la sostenibilidad a más largo plazo, no tanto a los resultados trimestrales […]
La última adquisición hasta ahora ha sido Onyara, gracias a la cual hemos añadido inmediatamente a nuestra oferta un producto, Hortonworks DataFlow. Significa que seguimos expandiendo la huella y que estamos pendientes de cualquier oportunidad que se presente para hacer crecer el valor de nuestros accionistas. Onyara es un ejemplo de compañía que vamos a monetizar fácilmente. Anunciamos DataFlow en septiembre, y poco después estábamos vendiendo suscripciones por separado. No sólo por un afán de monetización, sino porque es algo realmente diferente para los clientes: les permite gestionar datos en movimiento, lo que conecta absolutamente con nuestra plataforma analítica: pensamos que son productos complementarios y, en relación con su pregunta, confirman que hay servicios contribuyen a la sostenibilidad.
[…] No siempre será tan rápida la integración de una tecnología recién adquirida. En ciertas áreas, la plataforma podría justificar una adquisición u otro tipo de acuerdos. ¿Cuáles son los criterios para explorar una posible compra?
El caso de Onyara fue excepcional, pero en toda adquisición hay que enfrentarse a dilemas. El primero es: construir o comprar, si lo segundo es un atajo practicable; otro es el ámbito que pretendes cubrir […] Seguimos mirando oportunidades, desde pequeñas piezas de propiedad intelectual que podamos insertar en nuestro stack, hasta otras más grandes, que puedan cubrir un área completa, como fue el caso de DataFlow. No puedo extenderme más al respecto, lo entenderá.
Lo entiendo y lo agradezco. Se habla mucho de Spark, tal vez debido al apoyo de IBM, que también es partner de Hortonworks. Creo que hay cierta confusión al comparar Spark con Hadoop. Entre otras cosas, se dice que Spark es para grandes organizaciones y Hadoop más para las de rango medio. ¿Qué piensa al respecto?
No hay confusión desde mi punto de vista. Spark es una tecnología muy interesante, y la mejor prueba de que nos la tomamos en serio es que soportamos Spark en nuestra Hortonworks Data Platform. Es interesante porque sirve muy bien para un cierto número de casos de uso, pero no es una plataforma de datos completa. Tal como la vemos, es otro motor analítico que encaja en el ecosistema de Hadoop. Combinar Spark con otras tecnologías es lo que hacen muchos usuarios, y para ellos refuerza el valor del ecosistema Hadoop. Lo mismo ocurre con otros motores surgidos de la comunidad y que son herramientas útiles para resolver problemas en el contexto de Big Data. Hortonworks soporta Spark, sin reserva mental alguna; tenemos clientes que le están sacando partido sobre nuestra Data Platform, e invertimos en desarrollos que pueden mejorar el valor de Spark. Podríamos construir otros elementos adicionales sobre Spark, a requerimientos de los clientes.
¿En qué sentido puede influir el apoyo de IBM a Spark? De su respuesta se desprende que siempre habrá una capa de Hadoop, que en un sistema o en otro, Hadoop estará ahí. Vale, pero ¿podría afectar al negocio de Hortonworks?
Hay componentes de un ecosistema genérico Hadoop que realzan su importancia y lo hacen sostenible. El apoyo de IBM a Spark se circunscribe al soporte como motor analítico y, por tanto, refuerza el valor del stack y no creo que tenga ningún impacto material sobre nuestro negocio. Por el contrario, nos parece muy positivo que se dediquen recursos a optimizar estas herramientas.
[NOTA: A finales de febrero, a través de un webinar en el que anunció un acuerdo con Hewlett-Packard Enterprise (HPE), Hortonwoks anunciaba la inclusión de la release Spark 1.6 en su Data Platform, reconociendo explícitamente que se ha convertido en un estándar de la industria]
Es corriente escuchar quejas acerca de la rigidez en la implementación de Hadoop. ¿Está haciendo algo Hortonworks para que su plataforma sea más flexible y adaptable a distintos business cases?
Claro que sí. Invertimos en dos áreas distintas para mejorar la experiencia de uso. Es parte del ciclo de vida de cualquier proyecto que conduce a un producto con una evolución razonable: un nuevo producto merece un tratamiento diferente al de un producto muy maduro. Me explico: en primer lugar, invertimos en tecnología para que los despliegues sean más fáciles y flexibles; me refiero a nuestra adquisición de SequenceIQ y su tecnología que hemos embebido en nuestra Data Platform, y que nos permite una gran flexibilidad en los despliegues cloud, automatizando configuraciones e instalaciones tanto en redes privadas como públicas. En segundo lugar, estamos trabajando para paquetizar soluciones que pueden desplegarse en sectores verticales, como las finanzas, la salud o la fabricación.
He leído una entrevista reciente en la que usted consideraba posible obtener el doble de performance en un datacenter ocupando la mitad de espacio. Me pregunto si esa reflexión está relacionada con Hadoop y si daria como resultado una drástica reducción de costes […]
Sería una combinación de Hadoop y otros elementos adicionales. Como CTO, tengo que prestar atención a lo que hacen los clientes y cómo implementan nuestra tecnología. Con el objetivo de tener mejores ratios de performance y funcionalidad. La única diferencia con otros CTO en otras empresas, es que lo hago a través de una comunidad abierta […]
He dejado para el final una pregunta personal. Durante años, usted ha trabajado en Teradata en funciones de I+D, paralelas a las del CTO y ahora ha pasado a ser el CTO de Hortonworks. Por cierto, las dos empresas son partners bastante íntimos. […] ¿En qué ha variado su visión del mercado al cambiar de función y de empleador?
La verdad es que no tengo la sensación de estar haciendo en Hortonworks algo tan diferente de lo que hacía en Teradata. Quizàs la denominación de mi puesto anterior, presidente de Teradata Labs, se prestaba a equívoco: mi responsabilidad abarcaba I+D, ingeniería y participaba de la estrategia de todo el stack de Teradata. Ahora, en Hortonworks, soy respondable de definir la estrategia tecnológica de la compañía para todo su stack. No es lo mismo, sin embargo, por el modelo de desarrollo comunitario que sigue esta empresa. Es excitante poder capitalizar más de 30 años de experiencia aplicándola a conceptos y formas de trabajar nuevas. Al mismo tiempo, esta situación me permite contribuir a los vínculos entre Hortonworks y Teradata.
[informe de Daniel Comino]