Newsletter

Formulario de suscripción

3 de noviembre, 2016

Era obvio que Charles Chuck Robbins formaría su propio equipo al poco de suceder a John Chambers como CEO de Cisco. Así lo hizo en varias tandas, y el proceso en cascada aún no ha acabado, como consecuencia de los huecos que se han ido produciendo en el organigrama de la compañía. No era obvio, sino más bien inesperado, que Robbins prescindiera prematuramente de uno de sus fichajes estrella, alguien al que él mismo fue a buscar. Emparentado con el anuncio de otro recorte de plantilla, he visto pasar el nombre de Zorawar Biri Singh, designado CTO por Robbins en julio de 2015.

Biri Singh llegó al cargo con un CV singular: se dio a conocer en 2008, cuando vendió su startup Encentuate a IBM, que le encargó el diseño de una estrategia cloud. Cumplidos los dos años pactados, pasó a HP, como senior VP and Cloud general manager, pero esta vez no duró dos años: se incorporó como partner del fondo de inversión de su compatriota Vinod Khosla. Diez meses después, aceptó la oferta de Cisco… y así hasta octubre. En su perfil de LinkedIn se identifica como advisor.

¿Por qué me intereso en el personaje, pudiendo ocuparme de esas apasionantes aplicaciones para móviles que se desarrollan en España? Porque consta en mi archivo que cuando Robbins fichó a Biri Singh, le encargó ejercer un «liderazgo de pensamiento» que incluía formular una hoja de ruta de plataformas y arquitecturas e influir con sus ideas en la política de inversiones a corto plazo.

Parecía un buen portavoz – pueden verlo en YouTube – aunque a veces daba la impresión de ir a su aire, algo que un periodista siempre agradece. En una rueda de prensa en Berlín, el hombre sembró una cantidad de ideas con fondo teórico. Por ejemplo esta, que tengo grabada: «vivimos el encuentro de dos tendencias que van a definir la próxima generación del datacenter. Una es la nueva arquitectura de aplicaciones de Internet, en la que los microservicios, ejecutados en contenedores sobre una infraestructura cloud, mejorarán enormemente el uso del hardware y acelerarán los desarrollos y despliegues. La segunda es la proliferación de funciones analíticas y su cruce con machine learning, que permiten pensar en una auto-optimización de la infraestructura […]». Su leit motiv – eso creo entender – era la orquestación, que daría por resultado el acople – en el sentido de trabajar en común de las tecnologías UCS y ACI: computación, almacenamiento y networking, todo en uno.

Ahora mismo, sólo podemos preguntarnos si esas ideas permearon la estrategia de la compañía o se han quedado varadas ante la exigencia más prosaica del mercado. No tengo noticia de que el puesto de CTO, que en Cisco tiene connotaciones estratégicas, haya sido cubierto por alguien más ortodoxo.

Otro movimiento llamativo en las filas de Cisco ha sido la ruptura del vínculo que Chambers había establecido con un cuarteto de ingenieros, de nombre Mario Mazzola, Prem Jain, Luca Cafiero y Soni Jiandani, colectivo conocido por la sigla MPLS. Alguna vez he contado aquí que funcionaban como una task force o «equipo A», al que Chambers recurría para acortar los plazos de un proyecto de desarrollo tecnológico. La originalidad consistía en que, cuando eran requeridos por el CEO, los cuatro creaban una startup interna, apoyada financieramente por Cisco, que la compraba luego en función de resultados. Mazzola y Cafiero, líderes espirituales del grupo, bautizaron tres empresas sucesivas con nombres italianos: Andiamo, Nuova e Insieme. La primera se ocupó de almacenamiento, la segunda está en el origen de los servidores UCS y la tercera ha sido responsable del desarrollo de ACI.

La verdad es que el extraño papel de MPLS nunca sentó bien dentro de la compañía, y no es difícil entender por qué: Cisco pagó en total 2.300 millones de dólares por las startups creadas por los cuatro ingenieros. El nuevo CEO decidió que ese no era su modelo, y les propuso cambiar su estatus por un contrato de asesoría, oferta que declinaron.

¿Fin de la historia? No tan rápido. La semana pasada se supo que Mazzola y sus socios han creado una startup, ahora fuera de Cisco, y han ofrecido a Microsoft invertir en ella. Se sabe poco al respecto, pero según la versión que me ha llegado el objetivo sería desarrollar un software de networking que se integre con la tecnología de Azure. Mi fuente californiana no ha sabido decirme si en esa iniciativa cuentan con la anuencia de Cisco o, en caso contrario, si se expondrían a un litigio en asunto tan delicado.

2 de noviembre, 2016

Ericsson tiene nuevo CEO, en la persona de Börje Ekholm, y a diferencia de sus predecesores no es un veterano de la compañía sueca, pero no es para nada un advenedizo porque llega investido de la confianza de uno de los dos grandes grupos accionistas, la familia Wallenberg, cuyo holding de inversión AB ha dirigido durante años. En tal carácter, es miembro del consejo de Ericsson y, presuntamente, uno de los que avaló los planes de Hans Vestberg y luego votó su fulminante destitución. Ekholm no ocupará su nuevo puesto hasta enero, por lo que no se esperaba gran cosa de sus primeras declaraciones.

Ekholm ha preferido adelantar sus intenciones a través de una conversación telefónica con Tiernan Ray, de Barron´s, quizá para explicarse ante los accionistas no suecos: «nos encontramos en una situación que exige decisiones duras, de las que requieren coraje; personalmente, no me asusta tomarlas». Más precisamente, explicó que el problema de Ericsson consiste en «ajustar nuestros costes al volumen de nuestras ventas». Por si alguien hubiera entendido que prometía profundizar los recortes que no evitaron la caída de Vestberg, el futuro CEO predicó la necesidad de «invertir en I+D […] ir mucho más lejos en nuestras competencias en software y ser más audaces en los servicios cloud«.

Nada sorprendente, que no lo dijera Vestberg en años anteriores, pero que se presenta como un discurso renovado por venir inspirado desde el sancta sanctorum del capitalismo sueco, la dinastía Wallenberg, hoy dirigida por los primos Jacob y Markus. Hace meses, cuando arreciaban los rumores de que Vestberg no tardaría en caer, un amigo que conoce bien el país me dijo que, a las dificultades de Ericsson en el mercado, se sumaba la rivalidad entre accionistas de distinta mentalidad: una industrial, encarnada por los Wallenberg – de la que años atrás se decía que controlaba el 40% de los empleos y el 40% del valor bursátil del país – y otro cuyo centro de gravedad es financiero, el Handelsbank controlado por Fredrilk Lundberg. La prensa se encarnizaba entonces con Vestberg, que se había quedado sin cartuchos.

Me fío del diagnóstico, pero me preguntó qué habrá pasado para que de la nutrida lista de presuntos candidatos publicada por la prensa de Estocolmo – todos externos, que ya dice algo – el puesto de CEO recayera precisamente en un acólito de los Wallenberg y no en alguien neutral, si es que tal cosa existe en semejante reparto.

Comoquiera que sea, el problema de fondo es que los recortes de costes de Vestberg desde 2014 no restauraron los márgenes. Ericsson sufre, como Nokia, la contracción de las inversiones de los operadores, el difícil tránsito entre una larga sobrevida de las redes 4G ya desplegadas y el plazo que falta hasta el despliegue de las infraestructuras 5G. Vestberg intentó diversificar el negocio hacia áreas de crecimiento, pero esas áreas – sólo una quinta parte de los ingresos – no pudieron compensar la caída del core business. El informe de resultados del tercer trimestre indica una caída del 14% en los ingresos, en la que ha sido determinante el retroceso de la división Networks (-19%), que representa el 48% del total.

Hay menos de 500 kilómetros entre Estocolmo y Espoo, suburbio de Helsinki donde tiene su sede Nokia. No es mucha distancia, pero ambas compañías comparten dificultades en un mercado mundial renuente a aprobar contratos de infraestructura de comunicaciones. Los ingresos de Nokia cayeron un 7%, que fue más grave (-12%) en la división Networks. La diferencia fundamental reside en que Nokia está inmersa en el proceso de absorción de Alcatel Lucent, mientras que la doctrina oficial de Ericsson dice que la consolidación no es la solución a los problemas que plantea el mercado.

Tanto en una como en otra, las explicaciones de los resultados trimestrales parecen escritas frente a un espejo:

[Nokia]: «el declive de nuestros ingresos se debe a la debilidad macroeconómica de mercados como Brasil, Rusia y Oriente Medio, que impacta nuestro negocio de cobertura y de capacidad […] adicionalmente, las ventas en Europa son débiles desde que se completaron los proyectos de banda ancha móvil de 2015»

[Ericsson]: «las tendencias negativas de la industria en la primera mitad de 2016 se han acelerado, y la principal razón es la debilidad de la demanda de banda ancha móvil en los mercados con un entorno macroeconómico débil. La mezcla actual de los negocios de venta de cobertura y capacidad en banda ancha móvil no esperamos que mejore a corto plazo».

Los análisis bursátiles que he leído dan un voto de confianza a Rajeev Suri, CEO de Nokia, al que conceden el beneficio de la duda mientras reorganiza la compañía para sacar partido de las áreas de negocio que incorpora gracias a la integración de Alcatel Lucent.

No me extenderé más. Sería hasta de mal gusto comentar hoy en este newsletter los resultados de Huawei, cuya competencia agobia a los dos últimos representantes de lo que en tiempos fue una industria europea del sector.

31 de octubre, 2016

Cada día es más evidente el dominio chino sobre el mercado mundial de smartphones. Ante todo, por el tamaño de su mercado, que representa el 31% del total mundial. O sea: uno de cada tres se venden en China. Esta connotación geográfica (previsible) tiene una traducción económica notoria: las marcas chinas representan, probablemente, casi el 60% de las unidades despachadas globalmente. La proporción es más alta aún si uno se pregunta dónde se han fabricado la mayoría de los 362,9 millones de unidades despachadas en el trimestre.

Según los informes de IDC, el crecimiento del mercado mundial ha sido anémico, de apenas el 1,0%, pero el mercado chino creció un 5,8% . Por su parte, Strategy Analytics eleva el porcentaje al 15% [de 105 a 121 millones, según sus cálculos] mientras el global habría crecido un 6%. Las discrepancias entre las fuentes son habituales, así que lo mejor es fijarse en las tendencias. Y, como es sabido, este blog tiene por costumbre seguir la línea de IDC, aunque sólo fuera por mantener la coherencia de las series históricas.

En ese contexto, las posiciones de Apple y Samsung son delicadas. La primera, porque en el ranking mundial tiene el 12,5% del total, pero en China sólo el 7,1% y sus despachos en el trimestre han sufrido una caída del 34%. No obstante, Tim Cook ha arriesgado su buen juicio predictivo al afirmar que en el cuarto trimestre China hará una gran aportación a las ventas de sus nuevos iPhones. En el tercer trimestre, Apple ha retrocedido un 5,3% en China, por eso sorprende la confianza de su CEO.

Por su parte, Samsung ni siquiera figura ya entre las cinco primeras marcas del mercado chino, pese a lo cual conserva el liderazgo del mercado mundial [72,5 millones de unidades, 20% del total]. No ha pasado tiempo suficiente para saber si el fiasco del Galaxy Note 7 tendrá impacto duradero sobre las ventas de Samsung en el mercado chino, aunque es obvio que las locales se han lanzado al asalto de inmediato. La marca coreana, entretanto, ha descendido otro 13,5% en el mercado mundial, pero conserva una cómoda ventaja sobre Apple; la medida del peligro que corre la dan los tres mercados más poblados: China, Estados Unidos e India (donde ha cedido posiciones a las marcas locales y a las chinas).

Bien. Estábamos en que las marcas chinas arrasan, pero hay que matizar. Según Strategy Analytics, Huawei sigue siendo líder de ese mercado [18 millones de unidades, 15% de cuota] pero pierde terreno ante sus rivales Oppo y Vivo. Neil Mawston, director de esta consultora, vaticina que Oppo pasará al primer puesto en uno o dos trimestres. Mientras, Xiaohan Tay, analista de IDC, da por hecho el sorpasso: en su ranking, la primera posición la ocupa Oppo (17,5%) seguida por vivo y Huawei. Dos circunstancias llaman la atención: 1) la decadencia de Xiaomi, que ha pasado de ser aclamada por los medios a una brusca caída a la cuarta posición y 2) Lenovo, también china, no aparece entre las cinco primeras marcas de su país.

El analista Tay ofrece un esquema de las tres fases sucesivas de desarrollo del mercado chino. «La primera (antes de 2014) estaba muy determinada por los operadores: Samsung y Lenovo lideraban el mercado gracias a las subvenciones de aquellos. En la segunda fase (2014-2015), el boom chino del comercio electrónico benefició a Xiaomi, que rompió el mercado con sus campañas relámpago de venta online, provocando la emulación de las otras marcas locales [lectura implícita: descolocando a Apple, que se habría confiado a sus tiendas en las grandes ciudades]. En 2016, la tercera fase, la venta online se ha estabilizado, pero Oppo y Vivo han acertado con la apertura de tiendas en ciudades de tercer y cuarto rango». La apuesta de Huawei consiste en privilegiar sus modelos P8 y P9 poniendo de relieve sus cualidades para competir con los modelos premium de Samsung y Apple; Linda Sui, analista de Strategy Analytics, cree que es una apuesta ganadora.

En la retahila de marcas chinas que aún no hemos visto en Occidente – pero ya asoman como patrocinadoras de figuras del deporte – hay dos (Oppo y Vivo) a las que les basta con lo que venden en su país para entrar en la tabla mundial. Xiaomi podría volver a un primer plano. Otra, como LeEco, podría colarse en el quinteto de cabeza desalojando a Apple después de haber derrumbado la posición que Samsung supo tener en la gama media.

En su seguimiento periódico del mercado mundial de smartphones, IDC pasa de puntillas sobre el hecho de que Apple, con dos modelos nuevos en el mercado, bajara sus despachos un 5,3% [de 48 a 45,5 millones de unidades], circunstancia que Strategy Analytics atribuye a la «fatiga» de los consumidores fieles a la marca. Anthoy Scarsella, otro analista de IDC, hace mención explícita del caso Galaxy Note 7 al sugerir que ninguna marca está realmente a salvo de un desastre motivado por la carrera de innovaciones con riesgo de sus procesos de fabricación. «No sólo Samsung, sino todos los vendedores – escribe Scarsella – tendrán que invertir tiempo y dinero a evitar experiencias que [buscando diferenciarse de la competencia] ponen a prueba la calidad de sus productos».

Sigue en el aire la sospecha de que no todo el problema del Galaxy Note radicaba en la batería: si así fuera, habría bastado con sustituirla o, como intentó Samsung en primera instancia, hacer cambios en la carga, un esfuerzo que resultó baldío obligando a la retirada del mercado. Mawston, de Strategy Analytics, opina que la marca coreana puede rehacerse del contratiempo gracias a la buena imagen de sus Galaxy S7 y S7 Edge, en los que va a acentuar sus esfuerzos de marketing en el cuarto trimestre.

28 de octubre, 2016

Cuesta entender que Tim Cook calificara de great quarter y de incredible momentum los magros resultados del cuarto trimestre del año fiscal de Apple. La realidad, que no el deseo, indicaría lo contrario: los ingresos cayeron un 9% y el beneficio neto un 14,4%, las ventas del iPhone siguieron bajando – un 5% en unidades y un 13% en facturación – y en el mercado chino la marca ha sufrido un batacazo del 30%. Pero si el CEO de la compañía está tan excitado por estas cifras, será porque sabe algo que el resto del mundo desconoce.

Una de las perversiones del oficio de analista bursátil es que estos evalúan los resultados de las empresas según se aproximen más o menos a sus previsiones, y premian sus aciertos propios recomendando la compra de la acción correspondiente. Es el caso de Apple, por ejemplo: entre julio y septiembre de 2016 se vendieron menos iPhones que un año antes, pero más que los pronosticados por la mayoría de los analistas. En cambio, dieron en el blanco con los ingresos (46.852 millones de dólares) pero esto no quita que este fuera el tercer trimestre consecutivo de bajada.

En consecuencia de lo anterior, hay división de opiniones ex post, pero todos los analistas sin excepción se fijan en el pronóstico de cara al trimestre en curso, primero del ejercicio 2017, que incluye la vital campaña navideña. La pauta anticipada por Apple – habitualmente conservadora – va muy por delante de la marcada por los profesionales que siguen día a día su actividad. Si se cumpliera la primera [entre 76.000 y 78.000 millones de dólares] este primer cuarto del año fiscal 2017 sería el mejor de la historia. ¿A qué atenerse, entonces? Quizá haya que dar la razón a en su impostada euforia.

Conviene aclarar, para evitar confusiones, que los nuevos iPhones 7 y 7 Plus apenas han influído, porque sólo estuvieron disponibles las dos últimas semanas del trimestre [incluso podrían haber influído negativamente, al desalentar la compra de la generación anterior en espera de la nueva]. Tampoco ha tenido relevancia la desgracia sufrida por Samsung, ni se espera que Apple sea la marca beneficiaria, si se diera el caso.

Al día siguiente de conocerse estos resultados, IDC ha publicado su informe sobre el mercado mundial de smartphones, que atribuye a Apple un descenso de 2,5 millones de unidades despachadas y la pérdida de casi un punto de cuota de mercado; peor le ha ido a Samsung, que vendió 9 millones menos y perdió más de tres puntos (a manos de Huawei, por si alguien se pregunta quién sale ganando].

Luca Maestri, CFO de Apple, explicó a los analistas que se han vendido todos los iPhones que Apple pudo fabricar, debido a perturbaciones en su cadena de suministro. Una explicación que contrasta con la que contaron a DigiTimes proveedores asiáticos que, desde finales de agosto, advirtieron recortes en los pedidos de Apple. Lo que sí parece claro es que la demanda se ha centrado en el iPhone 7 Plus, cuando Apple esperaba lo contrario.

Hay otros elementos quizá más importantes en este paquete de noticias. El primero es la coincidencia general en que, para escapar al exceso de dependencia del iPhone (60% de los ingresos y probablemente más de los beneficios), Apple debería reforzar su actividad de servicios. En el cuarto trimestre, estos han avanzado un 24% y ya representan el 13,4% del total. El problema de estos servicios es que están directamente subordinados al comportamiento del iPhone.

Lo señalaba a mediados de octubre Simona Jankowski, analista de Goldman Sachs, quien escribió un informe sobre Apple en el que incita a Tim Cook a tener la audacia de cambiar su modelo de negocio y lanzarse a competir cuanto antes en el mercado de los contenidos por suscripción. En su cálculo, un paquete – se atreve a bautizarlo Apple Prime – que, por una cuota de 50 dólares mensuales, incluyera un iPhone más Apple Music, Apple TV, contenidos originales y deportes en vivo, añadiría un 10% al valor de la acción en los próximos tres años.

A rebufo de las recientes ofertas de compra de Yahoo por Verizon y de Time Warner por AT&T, en los últimos días se ha especulado – nunca mejor dicho – con el presunto interés de Apple por adquirir Netflix. En una elipsis verbal, Cook pareció aludir a ello al reconocer que Apple «está abierta a adquisiciones de cualquier tamaño»·, sugiriendo que alguna podría estar al caer.

Si se lo propusiera, no le faltarían recursos. Según las cifras publicadas, Apple ha cerrado el año fiscal con una tesorería de 237.600 millones de dólares. Pero como el 91% está aparcado fuera de Estados Unidos, Apple ha aprovechado los bajos tipos de interés para endeudarse y evitar el alto coste de repatriar esos fondos. ¿A qué podría dedicar Cook ese tesoro? Bueno, sin ir más lejos, el saldo neto equivale a 5 veces la capitalización bursátil de Netflix (hipótesis plausible) o 19 veces la de Twitter (hipótesis descabellada). Vamos a dejarlo aquí por hoy.

24 de octubre, 2016

La compra pactada de Time Warner por AT&T va a dar mucha tela que cortar. Por lo pronto, un buen amigo la ha valorado como confirmación de aquel aserto «content is king«, que se remonta a las interpretaciones de la llamada ley de Metcalffe. Sin meterme en honduras, me adelanto a otra frase hecha que un día de estos inventará algún publicista: «mobile is king«. La primacía de los contenidos fue el argumento central por el que Time Warner se dejó convencer de pagar 164.000 millones de dólares por AOL, por entonces en la gloria de Internet, el año 2000. No sé si fue la fusión más cara de la historia, pero seguro que fue la más disparatada, justo antes del estallido de la burbuja.

En los años siguientes, AOL fue vendida a precio de saldo a Verizon, y Time Warner se ha dedicado al achicamiento de su colección de activos para ser nuevamente presentable ante los inversores. Jeff Bewkes, CEO desde 2008, se permitió hace dos años el lujo de rechazar una oferta del imperio Murdoch a 85 dólares por acción; ahora ha negociado con AT&T hasta obtener una de 105 dólares, que representa una prima del 35% sobre la cotización del viernes pasado. Entremedias de las dos ofertas, recaudó 65.000 millones al vender Time Warner Cable, de modo que los 84.000 millones que ofrece AT&T son motivo de alborozo para los accionistas. Si la operación llegara a buen fin.

No son pocos los analistas que no acaban de ver claro que la operación sobreviva al escrutinio de la FTC (Federal Trade Commission). Será más fácil pasar el de la FCC (Federal Communications Commission): no se trata de una integración horizontal, porque las partes no compiten entre sí en sus respectivos negocios aunque forman parte de la misma cadena de valor [esta es la confusión de mi colega y amigo]. Esa fue la razón por la que la FCC rechazó el año pasado la oferta de Comcast sobre Time Warner.

AT&T no es sólo el segundo operador estadounidense de telecos, herencia remota del sistema Bell. Es el operador líder de televisión de pago tras la compra de DirectTV, mientras que Time Warner sólo posee una pequeña emisora local que seguramente venderá para facilitar las cosas. No hay duda de que, caso de ser aprobada, la fusión afectará el ´ecosistema` de los medios y provocará críticas y quejas para evitar la eventual discriminación en el acceso a los contenidos de la segunda para difundir por las redes de la primera. En todo caso, la convergencia sigue ganando terreno, y las estrategias de operadores como Telefónica se validan al otro lado del Atlántico [atención a México, donde AT&T compite con Telefónica y ambas compiten con Slim y Televisa].

Dicho esto, la transacción se inscribe en una ola de fusiones que tienen en común el conjugar el papel de la tecnología móvil para distribuir los contenidos. La fiebre de hoy es muy distinta a la que se vivía en tiempos de la compra de AOL. El motivo transparente para Bewkes son los millones que está dispuesta a pagar AT&T, pero en ello subyace otra historia: ser dueño de Warner Bros, HBO, CNN, Juego de Tronos y House of Cards, no le libra del auge de Netflix, Amazon Prime y YouTube. El alejamiento de los consumidores jóvenes de los medios tradicionales, y su obsesión por los dispositivos móviles, obliga a las media companies a buscar socios con redes de banda ancha propias y capacidad financiera de consolidación. Desde hace tiempo se habla de Disney como interesada en nuevas fórmulas de hacer frente a la erosión de audiencia de sus canales. Una importancia especial adquieren los nuevos hábitos de los espectadores de deportes, asociadas al uso de dispositivos móviles y sus aplicaciones. Por cierto, si se me permite la digresión, esta podría ser a mi juicio la única vía para que Twitter salga del marasmo.

No quisiera enrrollarme más. La compra de Yahoo por la teleco líder en Estados Unidos, Verizon, para juntar sus activos con los de AOL, es otra manifestación del mismo fenómeno. El abrasivo CEO de AT&T, Randall Stephenson se desdijo hace cinco años de su intención de comprar T-Mobile US [que le hubiera añadido usuarios para adelantar a Verizon] tiene ahora otra estrategia: para recuperar el primer puesto, lo mejor es ser propietario de activos de medios. Salvando todas las distancias y ciertos detalles, es lo que ha hecho en España Telefónica con la compra de Canal+.

Resumiendo: 1) Stephenson (AT&T) necesita diversificarse, poseer su propia programación y, no menos importante, evitar que Time Warner caiga en manos hostiles y 2) Bewkes (Time Warner) vende la compañía al mejor precio posible y, antes de retirarse, se monta en una ola de fusiones que está lejos de acabar aquí.

Me queda por señalar el aspecto político del asunto. Las elecciones de noviembre abrirán un panorama difícil para este tipo de transacciones. El candidato Trump ha dicho que cuando sea presidente vetará esta y otras formas de «exceso de concentración de poder en pocas manos». Y la candidata Clinton, por su parte, ha prometido ser muy severa con los procesos de consolidación. Imagino que los abogados de AT&T y Time Warner habrán tomado la precaución de diseñar los contratos teniendo en cuenta este factor.

18 de octubre, 2016

Los llaman nuevos factores de forma, y se confía en que sean la tabla de salvación para los atribulados fabricantes de PC. Según un informe de IDC, los convertibles, dettachables y ultrafinos – la nomenclatura es tan rica que suele exigir notas al pie – seguirán expandiendo su cuota y representarán el 40% del mercado de PC en Europa Occidental en 2020. Este año, que sigue siendo de sudor y lágrimas para el sector, estos tres ´factores de forma` van a experimentar un crecimiento de dos digitos: 14,2% los ultrafinos, 20,7% los convertibles y casi el 80% los dettachables. Pero, por impresionantes que sean estas cifras, no serán suficientes para corregir el rumbo del mercado total, pero al menos servirán para aliviar las cuentas de resultados gracias a los márgenes que generan.

La coyuntura está marcada en rojo para esta industria. El volumen de PC despachados lleva ocho trimestres en baja, y sólo un milagro podría lograr que 2016 se cerrara con cifras inferiores a las de 2015. Tanto da que se consulten las estadísticas de IDC o las de Gartner, la conclusión es la misma aunque los números difieran. Según IDC , se han despachado 68 millones de unidades, un 3,9% menos que en el tercer trimestre de 2015. Según Gartner, fueron 68,9 millones (-5,7%).

¿Cómo es posible que con una cifra más alta el descenso sea mayor? Se explica por diferencias metodológicas: IDC es prisionera de una decisión anterior criticada por la industria, que contabiliza los dettachables como tabletas y no como portátiles; pero Gartner no es menos arbitraria: en su estadística no cuentan los Chromebook.

En la parte textual del informe de Garner se atribuye la reiteración del declive a dos razones: la extensión de la vida útil de los PC causada por un exceso de dispositivos en poder de los usuarios, y la menor demanda en los mercados emergentes. «Comprar un nuevo PC no es una prioridad alta para quienes ya tienen uno en los mercados desarrollados, mientras que en los emergentes, con una penetración baja, los consumidores no tienen interés en un PC». Escribe Mikako Kitagawa, que la estación back-to-school ha sido decepcionante. Sin embargo, el descenso es menos acentuado que en la primera mitad del año, lo que no es del todo malo para los líderes del mercado.

Algo parecido opinan los analistas de IDC. Hay una consolidación notoria: las seis marcas dominantes suman el 78% del mercado total, y las tres primeras el 58%. «Los grandes competidores han ganado cuota sobre los pequeños y con ella pueden ejercer su ventaja dominando el suministro de componentes, así como el espacio en las tiendas minoristas».

Loren Loverde, analista de IDC, lo ve como un signo de optimismo: «nos complace observar una cierta mejoría en el mercado. Los esfuerzos de la industria por modernizar sus productos con nuevos procesadores y sistemas operativos están ofreciendo experiencias muy superiores a los usuarios, condición básica para que estos aceleren el reemplazo del PC que poseen».

Lenovo se ha mantenido en la primera posición del ranking, con la menor diferencia desde que la consiguió en 2013: 120.000 unidades por delante de HP según IDC y 376.000 menos según Gartner. Porcentualmente, lo que una pierde lo gana la otra. El problema de Lenovo está identificado: su bajo crecimiento en China; el mérito de HP, también: ha ganado cuota en Estados Unidos, donde por primera vez supera el 30% de los despachos totales, así como en Europa y Japón. Dell ha tenido un excelente trimestre, el segundo mejor desde 2011, mejorando en todos los mercados.

Un caso singular es Apple, que sigue cayendo [un 13%] . Es fácil ver lo que le ocurre a la marca de la manzana: lleva demasiado tiempo sin renovar su familia Mac. La versión más moderna del celebrado MacBook Air lleva casi 600 días sin alumbrar un nuevo modelo, y es aún peor el caso del MacBook Pro: 1.600 días. Entre esta percepción de antigüedad y sus precios comparativamente altos, es explicable que los fieles a la marca se retraigan.

14 de octubre, 2016

La oferta de compra de Oracle sobre NetSuite, que a finales de julio pudo parecer pan comido, se ha complicado hasta el extremo de extenderse un mes el plazo de aceptación, hasta el 4 de noviembre, ante la dificultad de convencer a un número suficiente de accionistas. En un primer momento, la única objeción parecía deberse a que Larry Ellison, factotum de Oracle, controla a título personal el 39,5% de NetSuite, lo que pudiera dar lugar a sospechar que tendría interés en infravalorar el precio objetivo [no es así: la oferta contempla una prima del 19%]. Para salvar el obstáculo, Ellison se autoexcluyó de las negociaciones, y un comité ad hoc acordó que, a efectos de la aprobación de la oferta, sus acciones no contarían.

Abreviando: Oracle condicionó la oferta a que como mínimo dieran su consentimiento los titulares de 20,4 millones de acciones. El problema es que hasta hace diez días sólo sumaban 4,6 millones, y este es el motivo de que Oracle empiece a considerar la posibilidad de retirar la oferta antes que verse rechazada formalmente: «en caso de que una mayoría de los accionistas [no declararan su disposición a vender] Oracle respetará su voluntad y dará por terminada la propuesta de adquisición».

No será fácil, puesto que el segundo accionista de NetSuite, el fondo inversor T.Rowe, normalmente pasivo, ha dicho que no contribuirá con su 15% de acciones a materializar las intenciones de Oracle. Considera que los 9.300 millones de dólares ofrecidos no reflejan el valor de la compañía, habida cuenta de las elevadas sinergias que podría obtener la parte compradora.

Estas discrepancias podrían echar por tierra la fusión, y la cotización de ambas compañías está pagando el pato. Pero lo que me parece más interesante es que han atizado un debate entre analistas acerca de la política de adquisiciones de Oracle. Como regla general, y este es el caso, quien desea algo tendrá que pagar una prima directamente proporcional a su deseo. En este caso, se trata del precio de la transición que vive Oracle para llegar a ser un actor relevante en el mercado cloud. El método de comprar compañías (normalmente pequeñas) e integrar su tecnología con las propias, ha funcionado hasta ahora sin chirridos.

Aparte de NetSuite, Oracle ha cerrado este año ocho compras, entre ellas las de Ravello Systems (500 millones de dólares), Textura (663 millones) y Opower (530 millones), en términos generales para reforzar su estrategia cloud. Cuando, en junio, Oracle lanzó una emisión de bonos por valor de 14.000 millones de dólares, todo el mundo entendió que se preparaba para una adquisición de fuste, y así fue.

A pesar de una cómoda tesorería, si Oracle tiene que acudir al mercado de deuda es para pagar sus compras a toca teja; su acción no es bastante atractiva como medio de pago. En consecuencia, la ratio entre deuda y EBITDA ha pasado de 1:1 en 2013 a 3:7 este año. Los bajos tipos de interés ayudan a que sea tolerable. Pero, en los últimos cinco años, la cotización ha subido un 25%, comparada con el 86% del índice S&P500 y palidece al lado de otro gigante de la vieja guardia, Microsoft, que en el mismo lapso ha visto engordar un 120% su cotización. Parecía que este año iba a ser bueno, con un 12% de aumento en el primer semestre, pero la oferta por NetSuite ha recortado el porcentaje a la mitad: la revalorización ha sido de sólo el 6% desde enero.

En realidad, las discusiones estratégicas son más propias de analistas que de accionistas, que van a lo suyo y se dejan acunar por una política de retornos que combina dividendo y recompra de acciones. No es que destaque por su generosidad en el pago de dividendos [comparada con Microsoft y Cisco es más bien rácana] pero otra cosa es su política de buyback. Es de libro que cuando una compañía es agresiva en la compra de sus propias acciones, puede interpretarse como reconocimiento de que están infravaloradas [aunque, ya se sabe, habrá un picajosos para decir que se trata de ingeniería financiera]. Los datos publicados indican que Oracle dedica el 80% de su free cash flow a remunerar a los inversores y un 20% a salir de compras.

Como telón de fondo, asoma un cuestionamiento de la estrategia impulsada por Ellison, a quien en el reciente OpenWorld de San Francisco se le calentó la boca para retar a Amazon Web Services. La verdad es que Oracle es un competidor de peso en SaaS y PaaS, pero en su día renunció conscientemente a tratar de competir con AWS porque hacerlo supondría enormes inversiones y una guerra de márgenes. La absorción de NetSuite debería contribuir a mejorar la aventajada posición que tiene Oracle como proveedor de SaaS, pero no achicaría en nada la distancia con AWS. A menos que Ellison tenga otros planes, claro.

Hace dos años, los ingresos de Oracle por servicios en la nube representaban el 4% del total, y en el pasado trimestre han subido al 7%. Es un progreso, pero todavía insuficiente. El crecimiento del 79% de la suma de SaaS más PaaS este año es el más alto desde que Oracle empezó a interesarse en la nube. Y, por cierto, ese crecimiento duplica el conseguido por NetSuite. En el fondo, la clave está en un asunto que otras veces ha tratado este blog: cómo hacer que el incremento de los ingresos generados por la nube exceda el retroceso de los que proceden de la venta de licencias.

Abordar este asunto sería llevar muy lejos la intención de este newsletter. Lo que me recuerda que aún no he publicado en el website la crónica de OpenWorld que me ha enviado Mario Kotler desde San Francisco y está en lista de espera.

13 de octubre, 2016

Fiasco [mal resultado de algo que se esperaba sucediese bien] ha sido la palabra más usada estos días para definir la retirada – ahora sí definitiva – del Galaxy Note 7, del que se habían fabricado 4 millones de unidades. Con la consecuencia inmediata de una brusca caída de la acción de Samsung, y la advertencia de la compañía sobre un descenso más que probable de su beneficio operativo en un 29,6% y del 5% en sus ingresos del ejercicio fiscal. Se ha creado un agujero de 19 millones de unidades de ventas potenciales del Note 7 que alguien deberá llenar, sea otro modelo de Samsung o uno premium de otra marca.

Una de esas discusiones banales en las que se entretienen las redes sociales es qué ventaja sacará Apple de los problemas de su competidor. Puede ocurrir, desde luego, pero no es frecuente que un usuario de Android se pase al bando contrario. Según he leído, una consultora – desconocida para mí – llamada Appteligent, dice haber constatado que las ventas del Nexus 6P de Google [fabricado por Huawei] y del G5 de LG se han incrementado anormalmente en las últimas semanas, supuestamente entre quienes desistieron de comprar un Note 7. Pero, llamativamente, los Galaxy S7 y Galaxy S7 Edge han multiplicado su adopción.

El impacto bursátil ha sido muy severo, un 8% de la capitalización de Samsung en la bolsa de Seúl se ha caído después de la agitación de días anteriores. Pero, echando cuentas, no sería tan grave ni es definitivo: pese al batacazo, la cotización está muy por encima del nivel al que empezó el año, y la división de móviles representa sólo el 40% de las ventas de Samsung Electronics. También puede haber implicaciones políticas: el gobierno coreano ha abierto una investigación, preocupado porque los móviles de Samsung representan el 2% de las exportaciones del país.

En el plano industrial, la compañía confiesa (tardíamente) que realmente no tiene identificada la raíz del problema. Inicialmente, admitió que las baterías defectuosas fueron fabricadas por una filial propia, Samsung SSI, pero luego se supo que el mismo problema sufrían unidades de reemplazo equipadas con baterías de Amperex (filial china de la japonesa TDK), lo que podría estar indicando que tal vez hubiera algún fallo en el diseño o en los materiales utilizados en la carcasa del smartphone.

El impacto que el fiasco tendrá sobre la reputación de Samsung, es la gran incógnita. Sobran los antecedentes de incidentes con baterías de ion litio [Sony, Dell y Boeing son los más conocidos] que se resolvieron y acabaron olvidados por la opinión pública. Es improbable que el caso del Note 7 se olvide tan fácilmente: de evitarlo se encargarán unos cuantos blogueros que tienen partido tomado. Los mejores aliados con los que Samsung podría contar, supuestamente, son los operadores; hay indicios de que ya trabaja para atraerlos de su lado.

Con el tiempo, el Note 7 puede convertirse en un caso de estudio – para bien o para mal, ya se verá – de gestión de crisis. Ayer mismo, el Financial Times evocaba como modelo una historia que no tiene nada que ver con los smartphones: sus protagonistas fueron Johnson&Johnson y su analgésico Tylenol. En 1982, una partida de frascos de pastillas fue saboteada por un criminal en Chicago para mezclarlas con cianuro de potasio. La consecuencia fueron varias muertes. Nada que ver, claro, pero el diario británico traza esta relación para destacar la gestión modélica que hizo la compañía farmacéutica.

Lo primero – parece conceptualmente aplicable al Note 7 – consistió en circunscribir el problema a un solo producto, retirarlo del mercado, cambiar el proceso de envasado y sacarlo de nuevo al mercado con fuertes descuentos. Salvando las distancias, Samsung debería hacer algo similar – recomienda el FT – para demostrar a los consumidores que otros productos, en primer lugar los Galaxy S7 y S7 Edge, están a salvo. Algo en esta línea ha empezado a hacer Samsung en Corea: ofrecer cupones de descuento a los compradores de otros smartphones de la marca. Pero es una táctica no exenta de riesgos.

El articulista recuerda que, pasado un año, la cuota de mercado de J&J había vuelto a su nivel anterior a la crisis de Tylenol [pese a que nunca se llegó a condenar a nadie por el sabotaje]. Es poco probable que las cifras del tercer trimestre, que IDC dará a conocer el 26/10 reflejen cabalmente las consecuencias para Samsung. Si se me tolera la osadía, voy a insistir en que la redención de Samsung dependerá de su próximo flagship. Mientras tanto, su suerte en el segmento de gama alta dependerá del acierto en el marketing de los Galaxy S7 y S7 Edge.

No soy quien para dar consejos, pero me atrevería a decir que lanzar un Note 8 sería un error: fatalmente recordaría lo ocurrido a su antecesor. Más transparencia y menos prisas, puede que sea la fórmula para resarcirse de estos dos meses malditos. El resto de la industria tendría algo que aprender de esta experiencia: ya que la tecnología de las baterías no mejora al ritmo que exigen los diseños, no sería mala estrategia calmar las ínfulas innovadoras que buscan reactivar artificialmente un mercado saturado. Es sólo otra opinión impertinente de las mías.

10 de octubre, 2016

Da la impresión de que a los accionistas de Samsung les inquieta poco la calamidad sufrida por la compañía a cuenta de las baterías defectuosas del Galaxy Note 7. Realmente, lo que les importa son los resultados, y ocurre que estos son buenos a pesar del problema que un analista de Macquarie Securities considera «una contrariedad de corto plazo». El pasado viernes se conoció un adelanto de los resultados del tercer trimestre, que arrojan un beneficio operativo de 7,8 billones de won (unos 7.000 millones de dólares), equivalente a un 5,5% de aumento interanual.

Se mantiene la tendencia positiva del segundo trimestre y, aunque las cifras detalladas no se publicarán hasta fin de mes, este dato ha bastado para disparar la cotización de las acciones, que al cierre de la semana rozaban su máximo histórico.

A decir verdad, las acciones habían caído tras conocerse las primeras noticias negativas sobre el Note 7. Pero, desde entonces, ha entrado en juego otro factor: una carta de 10 folios y 30 gráficos, en la que el fondo ´activista` Elliott Management reclama una partición del conglomerado Samsung, una nueva política de dividendos y un cambio de gobernanza. Este fondo, dirigido por Paul Singer, es conocido por haber forzado la mano de otras empresas en las que tenía acciones para que se adaptaran a sus criterios, cuyo resumen es «más valor al accionista».

Samsung – denuncia Singer en su carta – está infravalorada en un 70% «debido a la innecesaria complejidad de su estructura». La cuota de capital de Elliott en el grupo coreano es pequeña, de sólo el 0,62%, pero sus argumentos podrían ser respaldados por una parte de los inversores institucionales occidentales que poseen el 60%. Por su lado, la familia Lee controla Samsung con no más del 4,9% gracias a una sofisticada trama de sociedades instrumentales. El fondo presenta su alternativa: simplificar la estructura separándola en una sociedad holding que tendría sólo el 20% de otra compañía operativa. Este mecanismo gozaría de beneficios fiscales – según los cálculos de Elliott, que de eso sabe algo – y en principio no seria contrario a los intereses de la familia Lee, metida en una delicada fase sucesoria. Lee Jae Yong (48 años), heredero aparente del patriarca incapacitado, ya sabe cómo las gasta Singer.

El año pasado, Elliott libró una batalla jurídica contra la propuesta de fusión de dos empresas del grupo: Cheil Industries (que funciona de hecho como cabecera familiar) y Samsung C&T (en principio una constructora, que es el centro de operaciones del heredero). Al final, Lee ganó el pulso, porque una mayoría de accionistas aprobó la fusión.

Vuelve Singer a la carga con un plan más elaborado. La segregación supondría que las dos compañías resultantes coticen en Nueva York y que los accionistas reciban un dividendo especial y la incorporación de tres miembros independientes al consejo.

Así planteada, la operación podría tener apoyo entre muchos accionistas, disconformes con el modelo de control que prevalece en Samsung. No es la única razón por la que las acciones de Samsung suben, que también. La prensa coreana airea que el coste del reemplazo masivo del Galaxy Note 7 tendrá impacto limitado sobre las finanzas de la compañía, aunque nadie – mucho menos Samsung Electronics – lo cuantifica. La clave está en que los otros negocios del grupo van viento en popa, en particular los semiconductores y los paneles para pantallas.

Samsung Electronics es el líder indiscutido en el mercado de memorias DRAM y en la próxima generación de memorias flash 3D NAND. Asimismo, lleva ventaja a sus rivales en las ventas de paneles OLED, que disfrutan de una demanda ascendente de los fabricantes chinos de smartphones. Estos dos capítulos, por sí solos, compensarían el desastre del Galaxy Note 7. Anticipan los analistas que la división de móviles ha tenido beneficios en el trimestre y cerrará el año fiscal con un margen superior al (mediocre) de 2015.

Antes o después, tendrá que afrontar la realidad de que el Galaxy Note 7 está maldito, pese a sus cualidades. Es difícil imaginar que se reactive la demanda tras la campaña –lubricada por la competencia – que cada día destila una incidencia aquí o allá para desacreditarlo. La redención sólo llegará hasta el Galaxy S8, que debería aparecer en el Mobile World Congress del año entrante.

6 de octubre, 2016

En el evento de Google, este martes en San Francisco, que se anunciaba – y eso fue – como el lanzamiento de una nueva estrategia de hardware, se ven a bote pronto dos parajojas: 1) del esperado festival de hardware, la atención mediática se ha centrado en la presentación de dos nuevos smartphones, una pena porque las otras novedades no son menos interesantes, y 2) mucho hablar de hardware, pero el hilo conductor de todos los anuncios es la ´inteligencia`, es decir el software. No es que lo diga yo desde lejos. Brian Blau, analista de Gartner, lo ha resumido en pocas palabras: «Google abre un nuevo juego; el buscador es su medio de vida, pero la inteligencia artificial es su futuro».

No es la primera vez que Google llega a la conclusión de que necesita hardware. Pero es la primera desde que creó una división específica, con recursos de ingeniería propios y que recoge iniciativas dispersas dentro de la compañía. A su frente está Rick Osterloh, veterano de Motorola. Es oportuno recordar que en 2011, Google [que todavía no era un holding llamado Alphabet] pagó una cifra disparatada por Motorola Mobility. Tres años después, tiró la toalla y [no sin antes apartar unas cuantas patentes] la revendió a Lenovo por un precio más bajo. La experiencia probó que, a pesar de su apetito, Google no estaba preparada para explotar una marca propia de smartphones, aunque esta tuviera resonancias históricas.

El titular más ocurrente que he visto estos días informa de que el Pixel «será la alternativa de Google al iPhone de Apple». Mejor hubiera quedado precisar que será una alternativa «controlada» por Google, porque hay en el mercado otras alternativas de distintas marcas que no desmerecen comparadas con el iPhone. Puedo equivocarme, pero creo que en los próximos años, los rivales de Apple serán Samsung y quizá Huawei, por una capacidad de llegar al consumidor que Google no tiene.

El titular tiene sentido. Google parece dar la razón a Apple, que lleva diez años controlando férreamente su software y su hardware (e incluso al diseño de sus procesadores), mientras Google se ha pasado nueve años cediendo ´gratuitamente` a terceros su sistema operativo para que diseñen hardware con sólo dos requisitos: no violar unas especificaciones básicas y no obstaculizar los servicios que son su core business.

A mediados de 2015 se produjo un incidente revelador del peligro de esa actitud: un malware llamado Stagefright infectó millones de dispositivos Android. Mientras unos fabricantes, como Samsung, se apresuraron a reaccionar, otros no movieron un dedo, y Google estaba condenada a la impotencia.

A partir de ahora, gracias al control del hardware sobre el que funciona su software, Google podrá imitar a Apple y sincronizar las mejoras de ambos niveles. Mucho mejor para los desarrolladores de aplicaciones y, en esta medida, mejor para los usuarios. Justamente lo que Google ha evitado. Es difícil aquilatar la influencia sobre las relaciones entre Google y la industria.

La familia de smartphones Nexus, que desde 2010 ha alumbrado una decena de modelos, diseñados por Google y fabricados sucesivamente por HTC, LG, Samsung y Huawei, no consiguió lo que pretendía, marcar la pauta de cómo debería ser un Android en opinión de Google. Se quedó corta, puede decirse, porque no competía con las marcas afines.

Las numerosas actualizaciones de Android provocaron su fragmentación en versiones no compatibles entre sí, que los fabricantes se resisten a actualizar para no dañar su negocio. Por otro lado, la popularidad de Android lo convirtió en un recurso para que marcas ignotas, sobre todo asiáticas pero no solamente, pusieran a la venta en mercados locales productos de bajo precio y dudosa calidad.

Se ha señalado que durante el evento del martes todos evitaron pronunciar la palabra Android; sólo cuando fue estrictamente necesario se informó que el Pixel funciona con Nougat, que viene a ser Android 7. Puede uno preguntarse: si nueve de cada diez smartphones que se venden en el mundo son Android, ¿qué necesidad tiene Google de promover uno nuevo con logo propio? Con el tiempo, si el Pixel se vende bien, cabreará a las marcas que se han mantenido fieles, al menos las de gama alta; pero si se vende mal, todo el mundo lo verá como un fracaso de Google.

Ha rebrotado el rumor según el cual Google prepara un sistema operativo que no será una variante de Android, sino un maridaje entre este y Chrome, que cubriría todo el espectro de dispositivos. No será Android, pero casi, porque según el rumor se llamaría Andrómeda.

No se ha aclarado si el nacimiento de la marca Pixel [Google ya tiene un portátil con ese nombre] implica la extinción de Nexus. La experiencia de venta online de los Nexus ha dejado usuarios insatisfechos con el soporte y el servicio técnico, pero nunca llegó a molestar a las marcas porque, en la práctica, era una minoritaria irrelevante. Puesto que Google no tiene tiendas como Apple, parece inclinarse por acuerdos comerciales con los operadores.

Se me ocurre que, más que imitar a Apple y su ´jardín vallado`, Google se ha inspirado en Amazon. No porque esta sea un rival en el mercado de smartphones,  sino porque ha encontrado el modo de llevar su software a dispositivos que le sirven para expandir su universo de consumidores. La hipótesis se podría verificar (o no) en el mercado de los asistentes digitales, cuya hegemonía tiene Amazon y que es, supuestamente, la puerta del hogar digital, otra obsesión frustrada de Google. Lo dejo para otro día.

5 de octubre, 2016

A John Chen, CEO de BlackBerry, los analistas le han puesto un mote, ´Mr Next Quarter`. El hombre llamado in extremis en noviembre de 2013 a salvar la compañía para que los inversores, entre ellos fondos de pensiones canadienses, no perdieran su dinero, tiene por costumbre valorar en cada conferencia de resultados en qué proporción ha cumplido el plan de rescate. Llegó al puesto con fama tras haber reestructurado Sybase hasta venderla a SAP en 2010, y se esperaba una hazaña parecida.

De entrada, Chen dijo que devolver la salud a Blackberry le llevaría seis trimestres, un año y medio. En junio de 2015 retocó la promesa, pero presumió de haber hecho el 50% de lo necesario para dar la vuelta a la situación.

La semana pasada, dos días antes de presentar los resultados trimestrales, Chéng Shǒuzōng (su nombre en pinyin) quiso curarse en salud y advirtió en una entrevista que la tarea encomendada por los accionistas está hecha al 75%. Un analista calculó rápidamente: los 15 meses se le han ido en hacer sólo una sexta parte de lo prometido. Es decir Mr Next Quarter vuelve a pedir tiempo

Estos son los antecedentes de una noticia que, una jibarizada para ser tuiteada, se ha entendido como acta de defunción de un smartphone que en su cénit vendía 40 millones de unidades y recientemente no ha pasado de las 400.000. En su pico bursátil (2008) la empresa – con su nombre original, Research in Motion – llegó a valer 83.000 millones de dólares [el puesto 29º en Wall Street]. Ocho años después, le cuesta horrores mantenerse en la línea de los 4.000 millones.

Este año, que fiscalmente es su ejercicio 2017, la empresa no llegará, si llega, a 1.500 millones de ingresos, pero habrá alcanzado una modesta rentabilidad (30 millones en el primer semestre). Esta es su realidad financiera.

Ahora bien, a menudo se opina que el victimario de BlackBerry ha sido Apple. Es una ligereza, una verdad sólo a medias: las buenas cifras de la canadiense sobrevivieron cuatro años a la irrupción del iPhone, y tenía tecnologia y dinero suficiente para defender su lugar en el mercado. Pero la arrogancia de los fundadores, los errores de estrategia y las disputas internas, acabaron por hundir el barco. Se suponía que Chen sabría reflotarlo, y lo intentó a su manera.

Si se cree al ejecutivo chino [nacido en Hong Kong], está ahora mismo en el punto de inflexión y sus avances son sólidos. Impávido, dijo a los analistas que desde el principio su estrategia se ha basado en tres ejes: restaurar el balance, invertir en áreas de crecimiento y explotar un nuevo modelo de licencias de su propiedad intelectual. Diga lo que diga, lo que ha quedado es una noticia sumaria: BlackBerry (la empresa) deja de fabricar directamente sus blackberries (que ahora son androides). Pero, al mismo tiempo, Blackberry (la marca) podría sobrevivir: Chen ha firmado un extraño acuerdo con un grupo indonesio para que fabrique y venda smartphones Android bajo su marca histórica. [Al parecer Indonesia, país altamente poblado, sigue siendo mercado fiel a los blackberries]

En realidad, hace mucho que BlackBerry no vive de su dispositivo, sino de su propiedad intelectual. Según las cifras publicadas, en la mitad del año fiscal 2017 sus ingresos de 776 millones de dólares se desglosan en soluciones móviles (257 millones), canon de usuarios (197 millones) y software y servicios (222 millones). El primer concepto desaparecerá y con él desaparecerá pronto el segundo. De manera que BlackBerry (la empresa) tendrá que sobrevivir gracias a su software, muy apreciado por sus cualidades de seguridad, que espera seguir vendiendo a gobiernos y empresas y licenciarlo a otros fabricantes (Samsung, por ejemplo) así como de la tecnología QNX, válida para el coche conectado.

La cartera de patentes, reforzada con adquisiciones hechas por Chen, como la de Good Technology, permiten suponer que recibirá un flujo de ingresos por licenciarlas. De seguir así las cosas, al acabar su año fiscal 2018 BlackBerry podría haberse descargado del legado de su modelo de negocio anterior, los inversores habrán recuperado el valor de la deuda convertible [razón por la que pusieron a Chen al mando] y la empresa podría aguantar viva, pero despiezada [podría vender algunos activos y hacer alguna adquisición menor] cuyos ingresos futuros los analistas estiman en no más de 600 millones de dólares. No sé… quizás entonces llegue esa oferta de compra de la que tanto se ha especulado pero que era poco razonable esperar.

4 de octubre, 2016

Si damos por sentado que el modelo cloud – privado, público o híbrido, a este efecto da igual – prefigura el futuro de la computación, análogamente se puede afirmar que la hiperconvergencia será el destino que, a largo plazo, tendrá el almacenamiento de datos a largo plazo. Tal vez exagero, pero lo digo como es un recurso para señalar la importancia de que por primera vez una empresa cuya especialidad es la hiperconvergencia haya salido a bolsa el pasado viernes. No hay un censo, sé de una decena que comparten más o menos esa definición, pero Nutanix ha saltado al ruedo. No sin dudarlo mucho: su OPV ha estado en el limbo desde diciembre, aparentemente porque las condiciones del mercado no eran idóneas para que una startup saliera a cotizar.

Ya está hecho: Deeraj Pandey, cofundador y CEO de Nutanix cumplió con el ritual de tocar la campana del Nasdaq para abrir la jornada. El precio de salida había sido fijado en 16 dólares, equivalentes a una valoración de 2.300 millones [la última ronda de financiación, en 2015, se cerró sobre la base de 2.000 millones] y la sorpresa fue que al cierre de la sesión había subido a 37 dólares, que representarían un valor total de 4.000 millones. Bueno, esto no quiere decir mucho mientras Nutanix no pueda presentar resultados que justifiquen el interés inicial de los inversores. Al cierre del año fiscal, en julio, registraba ingresos de 445 millones [+84%] y pérdidas de 168 millones [+68%].

Me quedo con lo fundamental: la HCI [hyperconvergent infrastructure] se ha legitimado como un segmento ascendente del mercado. IDC ha estimado el mercado total en 481 millones trimestrales, de los que 140 millones habrían sido facturados por Nutanix, que parece ser el líder de este pelotón. Ya está bien de cifras, where´s the beef?

La HCI es sólo una estación para quienes piensan que la infraestructura de los centros de datos debería ser completamente automática, simple de desplegar y fácil de usar, eliminando la complejidad heredada de los sistemas convencionales. Nutanix dice haberse inspirado en las técnicas desarrolladas dentro de Google [donde trabajó Aron] y Facebook para operar sus datacenter con la máxima eficiencia y flexibilidad. En pocas palabras, se trata de comprimir en un appliance las capacidades de un servidor, reduciendo así la administración, ahorrar espacio y consumo, acelerando el almacenamiento. Como se verá, la idea se ha extendido por la industria.

Pandey ha declarado que salir a bolsa era una condición para que Nutanix fuera visible a los clientes globales. Mohit Aron, miembro del grupo original – aunque dejó pronto la compañía para crear Cohesity – opina que como empresa cotizada, Nutanix tendrá más recursos para innovar y hacer evolucionar su producto. Este sería el plan, aparentemente: Nutanix aspira a subir en la escala zoológica, con perdón, y pasar de ser un vendedor puro de hiperconvergencia a la condición de actor en la escena de la infraestructura de cloud privada. Tal vez porque los inversores que respaldan su aventura sospechan que los tiburones se comerán un día a las sardinas.

Al propósito de reforzarse apuntarían dos compras de empresas más pequeñas y más jóvenes, que Pandey cerró este año para reforzarse con productos adyacentes: PernixData (que se quedó sin blanca para seguir desarrollando un motor analítico de entornos cloud) y Calm.io (plataforma de automatización de desarrollo). Según se puso en evidencia durante su conferencia el pasado junio, Nutanix calienta motores para atreverse a competir con el VMware lanzando su propio hipervisor, Acropolis open source. En la acera de enfrente, VMware tiene su propia oferta hiperconvergente.

La colisión entre Nutanix y VMware acabará provocando fricciones con Dell, que ha sido ahora el principal OEM de la primera, y que ahora es propietaria de la segunda tras cerrar la compra de EMC. Dos alianzas, que Pandey trata de conservar para frenar el ímpetu de su competidor Simplivity unen a Nutanix con Lenovo y Huawei. Por su lado, Cisco – después de tontear con Simplivity – ha optado por comprar Springpath, base de sus appliances Hyperflex. HPE tiene sus propios sistemas HC250 y 380. ¿Se han cansado de tanto detalle? Sólo pretendo mostrar cómo se las gastan en este mercado tan peculiar, no muy voluminoso pero en el que compiten a brazo partido una legión de startups y los ´incumbentes` de costumbre. ¿A qué se debe? La respuesta, en el primer párrafo.

3 de octubre, 2016

Será casualidad. La misma semana en que Google anunciaba que Google for Work pasará a llamarse G Suite, Facebook ponia fecha – el 10 de octubre – al lanzamiento oficial de Facebook at Work. Se han evitado crear confusión nominal, pero aunque llevaran el apelativo Work, sus ofertas no iban a competir en el mismo espacio. El adversario es común, se llama Microsoft.

Facebook for Work es la concreción de un meticuloso proyecto de red social para empresas, que durante más de un año ha sido probado por miles de empleados en compañías de Estados Unidos y Europa: Starbucks, Heineken, Royal Bank of Scotland y Telenor, entre otras. Julien Codorniou, a quien este blog trató en sus funciones anteriores es el responsable de la puesta en marcha de esta iniciativa. Según él, los resultados de las pruebas permiten esperar que el nuevo servicio llegará a ser tan adictivo entre los empleados como lo es Facebook en su faceta de usuarios individuales.

El modelo de ´monetización` imaginado al comienzo, ha sido modificado: las empresas pagarán una cantidad mensual (no revelada) proporcional al número de usuarios activos entre sus empleados. Queda así descartada la idea original de ofrecer el software gratuitamente y cobrar a los empleadores por servicios adicionales [la rentabilidad sería ilusoria].

Facebook at Work incluirá las mismas funciones que la versión corriente, y un algoritmo específico mostrará al empleador qué posts son los más populares, con la finalidad de elaborar un «análisis del sentimiento» de sus empleados. Este será un argumento clave para convencer a las empresas, normalmente hostiles al uso individual de Facebook, que consideran enemigo de la productividad laboral.

Las primeras reacciones publicadas – algunas en Facebook por usuarios que han participado en las pruebas – manifiestan prevenciones acerca de las credenciales de Facebook como custodio de la privacidad: si las malas prácticas denunciadas se extendieran a su «business class«, las disculpas a posteriori no serían de recibo para una clientela diferente.

Las tarifas serán anunciadas en los próximos días. Por si sirviera de referencia, el servicio más parecido existente, Slack, tiene una versión gratuita pero cobra 6 dólares por usuario activo a las empresas que contratan la versión con doble autentificación, con la salvedad de que sólo se considera activos a los usuarios que superan un cierto volumen de actividad. Yammer, propiedad de Microsoft desde 2012 el año próximo empezará a comercializarse sólo como componente de algunos planes de Office 365, partiendo de una tarifa de 4 dólares por usuario/mes.

Ni Slack ni Yammer han tenido una acogida entusiasta dentro de las grandes compañías, de ahí que necesiten intergrarse en servicios con más amplitud. Slack ha aceptado, sin renunciar a su autonomía, su integración recíproca con el servicio Chatter, de Salesforce.

El problema de estos competidores – que también podría afectar a Facebook at Work – es que, a menos que la mayoría de los empleados usen el servicio por decisión empresarial, el correo electrónico seguirá siendo el medio de comunicación interna preferido. Una posibilidad, que Codorniou no descarta, es invitar a empresas de software ´de productividad` a combinar sus productos con Facebook at Work.

Se supone que si Facebook at Work reclutara un número suficiente de usuarios, serviría de estímulo para un mayor ´engagement` de los mismos en la red social ordinaria, lo que mejoraría indirectamente su alcance como medio publicitario. La iniciativa es, en todo caso, un movimiento de exploración de nuevas fuentes de ingresos al margen de la publicidad. A las plataformas Messenger y WhatsApp les falta al menos un par de años para contribuir seriamente a la cuenta de resultados de la compañía. Será interesante observar el experimento; Facebook, acostumbrada a llegar la primera, se mete esta vez en una parcela donde otros han acampado antes.

Vuelvo ahora al caso de Google for Work y su cambio de nombre. Desde que Diane Greene fue fichada para dirigir el negocio de Google en la nube, ha tomado medidas para asegurarse de que las empresas tienen la percepción adecuada. Y una de esas medidas ha sido la simplificación de la nomenclatura: Google Cloud Platform ha pasado a ser, sin más vueltas, Google Cloud. En cuanto a Google for Work [que antes se llamó Google Apps], por un momento Greene pensó en bautizarla como Google Enterprise, pero al final se decantó por G Suite. Corto y eufónico.

Días atrás, en un encuentro con periodistas en San Francisco, Greene reconoció entre risas: «a la vista del catálogo de herramientas y servicios que les ofrecemos, muchas empresas tienen derecho a preguntarse si nos tomamos en serio lo que ellas necesitan». A partir de ahora, G Suite se venderá bajo el paraguas de Google Cloud, un rebranding » cuyo objetivo es que todo el mundo sepa de inmediato lo que le ofrecemos». Y lo que ofrecerá serán las siguientes aplicaciones: Gmail, Docs, Drive, Calendar, Hangouts y otras. El cambio de nombre pretende reflejar un enfoque más colaborativo y de trabajo en equipo, promesa que no es nueva en Google. Una novedad es el acuerdo de colaboración con Box. aparentemente no distinto del que Microsoft tiene desde hace tiempo con Dropbox.

Ahi está el asunto: ¿hay alguna diferencia que permita competir con Office 365, que domina el mercado con aplicaciones similares? La hay. G Suite va a poner énfasis en dotar de capacidades machine learning a sus aplicaciones: Quick Access ayudará a encontrar en Drive todos los archivos que sean relevantes para una reunión y para interactuar en ella; Calendar pondrá ´inteligencia` en la agenda cotidiana; Sheets añadirá búsquedas en lenguaje natural y Slides permitirá preparar plantillas basadas en fotos. Bien está que así sea, pero machine learning se está convirtiendo en un rasgo estándar de la industria. Microsoft ha anunciado que Office 365 tendrá funciones comparables. Diane Greene necesitará algo más que nominalismo para marcar su territorio.

29 de septiembre, 2016

Es poco probable que la compra de Yahoo por Verizon – todavía en due dilligence – se deshaga, pero la investigación en marcha sobre el robo masivo de datos personales de usuarios podría implicar una revisión a la baja del precio acordado de 4.800 millones de dólares. El ´incidente` se produjo a finales de 2014 pero sólo fue conocido en agosto – una semana después de firmado el acuerdo – porque un tal ´Peace` se jactó de haber vendido a través de la Dark Web millones de credenciales de usuarios (contraseñas, fechas de nacimiento y direcciones de correo).

El desenlace último de la operación entre Yahoo y Verizon podría depender de que el comprador decida argumentar judicialmente que la otra parte a) no fue capaz de detectar por sí misma el robo de datos o b) conociéndolo, lo ocultó bajo la alfombra durante un año y medio. En la segunda hipótesis, se trataría no sólo de un engaño, sino de una violación de la ley.

Realmente cuesta aceptar ese extremo por parte de directivos con tanta experiencia, y lo previsiblemente es que se echen los trastos a la cabeza. También cuesta admitir que un ataque «presuntamente patrocinado por un estado» se lleve por las buenas datos de 500 millones de cuentas y nadie se diera cuenta hasta que un bocazas presumió de ello en Internet.

El asunto es la comidilla de los especialistas: Hernan Bhargava, profesor de la Universidad de California Davis, ha sido muy rápido en sacar conclusiones: sin siquiera haberse hecho cargo de los activos de Yahoo, Verizon puede resignarse a la desafección de un gran número de usuarios. La dificultad está en calcular el valor de cada desertor para detraerlo de la factura: Bhargava lo calcula en una horquilla de 25 a 200 dólares cada uno.

Sobre alguien caerán las responsabilidades, digo yo. El papel de Marissa Mayer como CEO de Yahoo desde julio de 2012 ha sido destrozado por una fata grave de gobernanza, y puede que tenga complicado cobrar el finiquito de 44 millones de dólares. Portavoces de Verizon han susurrado a los medios que el acuerdo firmado contempla la compra de activos operativos, excluyendo cualquier pasivo u obligaciones pendientes. Por no hablar de una crisis de reputación que nadie pudo prever.

La fase forense está abierta. Aparte de la vaga atribución inicial, no está demostrado que un estado extranjero estuviera involucrado, ni para qué querría ese patrocinador gubernamental los datos de medio medio billón de internautas. Según Yahoo, con la poca credibilidad que le queda, no hay rastros de intrusiones posteriores y «las vulnerabilidad aprovechadas por los hackers han sido mitigadas o corregidas para que el problema no vuelva a ocurrir».

El problema de Verizon no es sólo medir el riesgo de reputación que asume, sino empezar por determinar «si la política de protección de datos de Yahoo ha sido razonable» y si hay indicios de «grave negligencia». En particular, se quiere averiguar si alguien descubrió la brecha y no informó o, si informó, qué hicieron sus superiores. De la respuesta a estas preguntas podría depender, como poco, una rebaja de varios cientos de millones de dólares.

La complejidad jurídica del caso – posiblemente sin precedentes – obedece a que la fechoría se descubrió en medio de una transacción aún no cerrada. Podría ocurrir que cierto número de usuarios se organizaran para presentar una demanda colectiva, a la que Yahoo – bajo presión de Verizon – probablemente respondería con un arreglo extrajudicial. Pero en todo caso, Yahoo está expuesta a una sanción por parte del gobierno federal. La legislación vigente obliga a las compañías a comunicar cualquier robo de datos y, llegado el caso, a responder pecuniariamente ante los titulares de las cuentas por no haberles informado a su debido tiempo.

Con independencia de esas cuestiones, Yahoo está expuesta a una sanción gubernamental. La legislación obligaría a la compañía (y a sus accionistas, en última instancia) a responder pecuniariamente ante los titulares de las cuentas por no haber contactado con ellos en su debido momento. Los expertos vaticinan que el episodio hará que otras empresas tomen medidas para reforzar sus sistemas de autentificación, etcétera. Pero lo mismo se dice después de cada ataque voluminoso y al tiempo ocurre otro que lo supera.

28 de septiembre, 2016

De entrada, tengo que confesar mi desdeñosa ignorancia en la asignatura bursátil. Lo que no impide que siga con interés profesional las peripecias de las bolsas. En fin, que he pasado un buen rato tratando de interpretar algo que en otra ocasión hubiera pasado por alto: las razones por las que Microsoft ha decidido dedicar otros – repito: otros – 40.000 millones de dólares a recomprar acciones propias, una cifra que hoy equivaldría al 9% de su capitalización bursátil de 443.000 millones. Este automordisco, con perdón, para el que no se ha fijado fecha límite, ha sido aprobado por el consejo de la compañía cuando aún están pendientes de ejecución 7.100 millones de los 40.000 millones autorizados anteriormente, y que deberán desembolsarse este año. Simultáneamente, se anunciaba un incremento de dividendo del 8%, de 0,36 a 0,39 dólares trimestral, con la peculiaridad de que ya son catorce años de aumentos consecutivos.

Por supuesto, es un signo de fortaleza de Microsoft. No es la única empresa que lo hace ni la más asidua, ni siquiera la que ha hecho compras más voluminosas, al menos en su sector. Apple, por ejemplo, se sumó a la corriente bajo la insistencia de un inversor ´activista` Carl Icahn, y desde entonces ha retirado de circulación el 17,5%.

No hace falta decir que Microsoft y Apple son empresas cuyas robustas tesorerías les permiten llevar a cabo estos «programas de retorno de capital» sin atenuar su capacidad de seguir invirtiendo en el crecimiento de sus negocios y, cada vez que se presenta la ocasión, en ampliar su perímetro mediante adquisiciones. Pueden incluso emplear su autocartera para pagar en acciones una parte de estas.

Los críticos de las recompras de acciones advierten que sería más lógico que las empresas usaran su free cash flow para invertir en desarrollar nuevos productos, abrir nuevas líneas de negocio y otras finalidades productivas, en lugar de juegos malabares con los que cortejar a Wall Street. Bueno, en realidad, hacen una cosa y la otra, porque se lo pueden permitir, y porque una característica de la industria de las T.I. es su baja intensidad de capital, lo que se refleja en la asombrosa acumulación de liquidez fuera de Estados Unidos, que no van a repatriar mientras no se cambie la fiscalidad.

Reintegrar liquidez a los accionistas – frase que a menudo se enuncia con intención demagógica – es sólo una de las opciones posibles en las políticas de asignación del capital. Si una empresa no es capaz de generar proyectos de crecimiento genuino, esa opción conduciría a medio plazo al accionista a llevar su dinero a otra empresa que sí los tenga. Así que estas maniobras no son para cualquiera.

No estoy divagando. Estas cuestiones – que afectan a empresas en las que trabajan numerosos suscriptores de este blog – han saltado al escenario político. En mis averiguaciones he leído que la candidata demócrata a la Casa Blanca, Hillary Clinton, critica los programas de share buybacks, con el argumento de que así detraen recursos que podrían usar para invertir en crecimiento y crear empleo. Uno de sus asesores ha escrito en Harvard Business Review que determinadas empresas racanean deliberadamente sus inversiones para aumentar artificialmente el PER, de lo que deduce que así inflan los bonus de sus consejeros y directivos. El retorno a los accionistas sería, desde este punto de vista político, una forma de hacerse perdonar el saqueo.

No sé, no sé… Es fácil entender el efecto práctico de esta práctica tan corriente: al reducir la oferta de acciones cotizadas, se provoca que la cotización suba. A veces, para disimular la insuficiencia de los beneficios, que sin ese artificio deprimirían la cotización. El objetivo es siempre contentar a los accionistas. Cuando estos echan cuentas, calculan lo siguiente: aumento de precio (plusvalía) + dividendo = rendimiento del activo financiero. El beneficio por acción sube porque el número de acciones disminuye.

En los últimos diez años, sólo 14 compañías del índice S&P 500 han invertido 40.000 millones de dólares o más en recomprar sus acciones. Entre ellas Apple (127.000 millones), IBM (109.000 millones), Microsoft (101.000 millones) y HP (47.000 millones). Abundan las opiniones según las cuales, esta política no podría aplicarse indefinidamente. Se cita el caso de IBM que la aplicó con ahinco durante años bajo el mandato de Sam Pamisano. Tanto que un analista llegó a bromear con la eventualidad de que algún día – creo que en 2031 – ya no sería posible comprar en bolsa acciones de IBM, porque todas serían propiedad de la compañía. Palmisano no consiguió su objetivo, y como el embeleco no podía durar, la actual CEO, Virginia Rometty, lo desmontó y se dedicó a reinventar el negocio.

Microsoft, fundada en 1975, no sintió necesidad de espolear la cotización hasta 2003, año en que Steve Ballmer lanzó su primer programa de recompra de acciones. Aunque los beneficios subían [7.000 millones en 2001, 12.000 millones en 2005, 20.000 millones en 2012] la acción languidecíó hasta que Ballmer dejó su puesto. A la confianza que genera Satya Nadella, se atribuye que Microsoft cotice actualmente a 56 dólares.

Según un informe de FactSet, en los últimos doce meses las empresas del índice S&P500 usaron el 72% de sus beneficios netos a recomprar acciones. El artificio ha sido apuntalado por un endeudamiento favorecido a su vez por los bajísimos tipos de interés, pero a menos que el sector recupere rentabilidad, será difícilmente sostenible. En este contexto hay que valorar la ampliación del programa de buyback aprobado por el consejo de Microsoft la semana anterior. Recuérdese que la Reserva Federal estadounidense no ha movido los tipos de interés por ahora, pero se espera que los suba antes de finales de año. Si el viento monetario gira para conseguir el mismo efecto, las empresas tendrán que «quemar dinero» o asumir nueva deuda para comprar sus propias acciones. ¿Valdrá la pena?

26 de septiembre, 2016

Cada semana tiene su afán, y la pasada se cerró con un rumor que he dudado en recoger por su apariencia especulativa. La acción de Twitter dio el viernes un salto del 21% tras difundirse la versión de que Salesforce y Alphabet estarían en carrera para hacerse con la empresa del pajarito. Un analista muy respetado, Mark Mahaney, ha rebajado su calificación de Twitter con este argumento: «la proposición de valor para los anunciantes se está desvaneciendo, contrariamente a lo que pudiera deducirse de la fidelidad de los usuarios» ¿Cómo es eso? Pues que según un estudio de Advertising Age, el gasto en publicidad online seguirá creciendo a buen ritmo [un 80% de los encuestados prevén aumentar ese capitulo presupuestario en 2017 y sólo el 2% contemplan una disminución]. Aunque, presten atención: la mayor parte de ese crecimiento irá al bolsillo de Alphabet /Google y de Facebook. De hecho, la cuota destinada a Twitter crecerá modestamente.

Mahaney no se pronuncia sobre el rumor, pero sibilinamente advierte que Twitter podría seguir a su aire durante cinco años, al cabo de los cuales su valor seguiría tan estancado como lo estuvo el de Yahoo hasta que aceptó la oferta de compra de Verizon. Con una diferencia: Twitter no tiene ningún activo valioso que pueda compararse con su participación en Alibaba: implícitamente, el analista sugiere que cuanto antes se venda, mejor para los accionistas.

Una incógnita es si Jack Dorsey, cofundador de Twitter que ha vuelto a dirigirla tras echar a Dick Costolo a mediados de 2015, estaría de acuerdo en vender. No es que su participación sea importante (tiene sólo el 2% de las acciones después de una cesión para reforzar un plan de incentivos al personal) pero ha sabido configurar un consejo afín.

En todo caso, como se desconoce la cuantía de la supuesta oferta, subsiste la duda de si una prima elevada [aún a 22 dólares la acción cotiza a la mitad del precio que tocó al salir a bolsa hace tres años] convencería al propio Dorsey y a otros accionistas como otro fundador, Evan Williams (6,2%) o a un reciente inversor llamado Steve Ballmer (4%).

Segundo aspecto: los supuestos candidatos. ¿Para qué querría Salesforce comprar Twitter? Subjetivamente, sería un modo de resarcirse por haber perdido LinkedIn, que aceptó la oferta de Microsoft. Objetivamente, como sucedáneo no tendría el mismo interés. Salesforce vende aplicaciones empresariales como servicio, y últimamente ha sido un voraz comprador de startups de software, e-commerce e inteligencia artificial. Pero adquirir una empresa que se alimenta de mensajes compulsivos y promoción de celebrities, con una monetización publicitaria, es algo muy distinto a integrar LinkedIn. Por supuesto, podría ser una herramienta para procesos de relación con los clientes de los clientes de Salesforce, pero para eso no haría falta comprarla, bastaría con mantener vigente – incluso con otro propietario – el acuerdo que ambas tienen en vigor.

Para no extenderme en detalles: la oferta – si la hubiera, vaya usted a saber – no sería aceptable sin una prima fuerte sobre los 15.000 millones de dólares del valor bursátil actual, y Salesforce tendría que pagar todo o la mayor parte en efectivo, porque sus acciones cargan con la fama de estar sobrevaloradas .

Alphabet sería un comprador sin esos inconvenientes. Ante todo, le sobra dinero, y agregar Twitter a sus activos tendría impacto directo al añadir audiencia ´monetizable` para competir con Facebook. Es una hipótesis que ha circulado profusamente, por esa precisa razón.

Siguiendo el hilo de Mahaney, Twitter podría esperar , pero su situación actual aconsejaría lo contrario. La empresa empezó 2016 en crisis, buscando una nueva estrategia que evitara la deserción de usuarios [en la práctica, su número ha crecido sólo el 1%, hasta 313 millones]. Otros sitios (Facebook, Instagram y Snapchat le ganan por goleada en tiempo de uso y atención. En consecuencia, su cuota del gasto publicitario online global es del 1,2%, según eMarketer.

Dorsey, desde su regreso, ha tratado de reinventar la empresa que fundó hace diez años, adaptándola a la creciente demanda de vídeo en dispositivos móviles. Recientemente, lanzó – parece que con éxito – transmisiones en streaming de eventos deportivos y ha firmado un acuerdo con Bloomberg para cubrir la campaña electoral estadounidense. Es decir que le ha dado un perfil que podría interesar a Alphabet, pero no a Salesforce.

16 de septiembre, 2016

Consumatum est. Once meses tuvo que esperar Michael Dell el día de ingerir EMC: tras la aprobación final del gobierno chino (comunicada el 30 de agosto), EMC ha pasado a integrarse en Dell Technologies. La digestión podría llevar más o menos tiempo, dependiendo del ritmo en que se eliminen redundancias, entre las que hay que contar el recorte de 3.000 empleos. En teoría, ha nacido una empresa con una facturación de 74.000 millones de dólares, que será la más grande del sector TI con la peculiaridad de que no cotizará en bolsa. Aunque no se puede descartar un retorno a Wall Street, como recurso para aligerar la deuda de 40.000 millones de dólares que han contraído la family office de Dell y su socio el fondo de inversión SilverLake.

De principio a fin, la operación ha sido inusualmente compleja por dos razones esenciales: 1) la ingeniería financiera que ha tenido que montar Dell para concretar una compra valorada inicialmente en 67.000 millones de dólares y 2) la estructura bizantina de EMC, que hace años escogió ser una federación de empresas formalmente autónomas pero accionarialmente controladas por la matriz. Una expresión de esa complejidad ha sido la incertidumbre acerca del valor de unas acciones ´de seguimiento`, vinculadas a la evolución de la más importante de esas participadas, VMware.

Dell [Michael] ha bendecido el cierre de la operación con estas palabras: «con nuestra cadena de suministro, la fuerza de ventas y la escala que sumamos, estaremos muy bien posicionados en las nuevas áreas de las T.I como en las existentes».

Huelga decir que, tratándose de la fusión entre dos empresas con fuerte carga de legacy, la tarea no será fácil. Tanto Dell como EMC ha comprado activos para reforzarse en los negocios emergentes, pero cada una por su lado parecen haber llegado a la conclusión de que no era suficiente y por eso han cambiado de estrategia.

Escribe el colega Tim Pricket Morgan: «si algo necesita desesperadamente Dell, es construir una plataforma […] pero esto significa mucho más que sumar servidores, cabinas y switches además de software para gestionarlos». Fundamentalmente, necesitará una estrategia cloud, y para ello contará con VMware como pieza maestra. «Hace años – recapitula – Dell intentó construir su propia cloud, pero tuvo que echarse atrás. Por su lado, VMware ha seguido construyendo [no sin tropezar varias veces, esto es de mi cosecha] su propia oferta cloud en la que apoyarse […] Da la impresión de que Dell tratará de poner el acento en la venta de nubes privadas a las grandes empresas, pero el hardware convencional [el propio y el que hereda de EMC] es un negocio voluminoso pero no una fuente de crecimiento».

Sin estar obligada a hacerlo, por su condición de no cotizada, Dell [la empresa] desveló 24 horas antes de concretar la fusión sus propios resultados, que fueron recibidos sin emoción. Cerró el trimestre en julio con ingresos de 13.100 millones de dólares (aumento interanual del 1%), y un beneficio operativo de 63 millones, que corrige la pérdida de 103 millones un año antes. A esa fecha, disponía de una tesorería de 7.500 millones de dólares, que en buena medida se origina en las desinversiones con las que ha reunido capital para afrontar la compra de EMC.

La oferta de la compañía integrada abarcará PC, servidores, almacenamiento y networking, que conforman lo que Dell [Michael] llama ´las áreas existentes` de las T.I. Para ayudar a financiar la operación, se ha desprendido de activos de software y servicios. También EMC ha soltado lastre [casi a última hora ha vendido a la canadiense OpenText su división de gestión de contenidos, a cambio de 1.600 millones de dólares]. Hay un evidente solapamiento en segmentos como seguridad y almacenamiento, pero al parecer coexistirán durante un tiempo, para no confundir a la clientela. Por otro lado, Dell Technologies acumula valiosas propiedades que le permiten aspirar a ser una potencia en ´las nuevas áreas` a las que alude su fundador: Pivotal, Virtustream y, fundamentalmente, VMware.

La más explícita declaración de respeto por la singularidad de VMware la dio Michael Dell al compartir un simulacro de diálogo con Pat Gelsinger en la reciente edición de VMworld en Las Vegas [volverán a escenificarlo, previsiblemente, en Barcelona a mediados de octubre]. No dijo mucho, la verdad, pero dejó este mensaje: allí donde sea posible y corresponda al deseo de los clientes, los servidores Dell llevarán preinstalado vSphere. Otra muestra del mismo talante fue la aceptación pública de los lazos muy estrechos entre VMware e IBM. Asimismo, los acuerdos con HPE [desde siempre la némesis de Dell] y Lenovo se mantendrán, pero Dell presume de poder competir con una integración más profunda.

En el escenario de Las Vegas, parecía reinar la armonía. Mientras Gelsinger ratificaba su autonomía, a la vera de su nuevo accionista de control, Michael Dell hilvanaba una letanía de ejemplos con los que abonar la imprescindible convivencia, dejando este corolario: «el ecosistema abierto de VMware es un factor crítico para el éxito de Dell Technologies».

Uno de los próximos pasos será prescindir de 3.000 puestos de trabajo, un 2% del total con el que arranca la integración entre Dell y EMC. La agencia Bloomberg atribuye a un portavoz el cálculo de 1.700 millones de dólares en ahorro neto de costes, añadiendo esta coletllla: «haremos todo lo posible por minimizar al impacto sobre el empleo». Dicho lo cual, puesto que la empresa no cotiza, tiene todo derecho al hermetismo.

15 de septiembre, 2016

Aunque el mundo entero considera a Facebook como el epítome de red social, la realidad es que se trata de un medio publicitario; lo demás es accesorio, y no hay más que ver sus cifras. Los ingresos de Facebook ascendieron a 6.239 millones de dólares en el segundo trimestre, un 63% de aumento sobre el mismo período de 2015. Y su beneficio neto fue de 2.055 millones de dólares (86% de aumento). Un éxito financiero de tal calibre sólo se explica por la capacidad de hacer llegar mensajes publicitarios personalizados a microaudiencias, gracias a una sofisticada segmentación de sus 1.700 millones de usuarios activos.

Esa cualidad ha inducido a los grandes anunciantes – sostén habitual del resto de los medios – a desviar parte de sus presupuestos: en lugar de dispersar dinero entre la masa amorfa que ve la televisión (cada vez menos, en ciertas capas de población) ¿por qué no apoyarse en los datos personales que acumula Facebook, para llegar con el anuncio apropiado a cada grupo de consumidores que con más probabilidad podría comprar sus productos?

Hasta aquí, todo iba sobre ruedas. Facebook afina constantemente sus herramientas, y está en mejores condiciones que nadie de garantizar resultados tangibles de cada campaña dirigida a un target específico. A finales de julio, el mayor anunciante del mundo, Procter & Gamble, que invirtió 7.200 millones de dólares en publicidad en su año fiscal – cerrado en junio – anunció que en el nuevo ejercicio incrementará su presupuesto un 5% pero reducirá la cuantía que dedica a la publicidad online, con el previsible efecto de pagar menos a Facebook.

Tal vez no sea más que una manera temporal de reaccionar al hecho de que las ventas totales de P&G han caído un 8%, cerrando el ejercicio 2015 con un total de 65.300 millones. Un cálculo elemental indica que se gastó en publicidad el 11% de los ingresos, y la reacción es aumentar la dosis.

En el ambiente de la publicidad, la noticia causó sensación, porque equivale a dar la vuelta a una tendencia ascendente. Marc Pritchard, chief marketing officer de P&G, dijo mucho con pocas palabras: «hemos personalizado demasiado, con lo que hemos estrechado nuestro alcance». Luego, a la vista de las reacciones, aclaró que Facebook no tiene nada que temer, porque P&G seguirá empleando la modalidad de targeted advertising en los casos en que su utilidad esté demostrada, pero a la vez buscará otras fórmulas de precisión.

Procter & Gamble es un conglomerado de marcas de la categoría que se conoce como CPG (consumer packaged goods) , cuyas ventas dependen de su penetración publicitaria y, por tanto, de una atinada distribución de esta entre los distintos medios. El reajuste empezó antes, al parecer: la consultora Kantar Media asegura que P&G ha incrementado su inversión en televisión durante la primera mitad del año un 11% de incremento: 429 millones de dólares más, en detrimento de otros medios, particularizando el repliegue en Facebook. Pritchard aseguró a Marketing Week que «Facebook es para nosotros un recurso de marketing de precisión, y nuestras marcas seguirán usándolo según en qué circunstancias».

En el fondo subyacen sospechas sobre la eficacia de la publicidad digital. Según estimaciones de IAB (Interactive Advertising Bureau) una quinta parte de los usuarios de Internet usan software de bloqueo de anuncios. Otras fuentes añaden que sólo el 4% de la publicidad digital desplegada en dispositivos digitales se visualiza durante más de dos segundos. Motivos no faltan para reflexionar. Otro factor que inquieta a los anunciantes es el duopolio que en la práctica han llegado a conformar Facebook y Google, secando el mercado a otros actores: pueden concentrar en ellos sus presupuestos, pero pierden el control.

Es curiosa, en este contexto, la coincidencia casual entre el anuncio de P&G y la decisión de Facebook de implementar una solución tecnológica que bloquea a los bloqueadores, por entender – como todos los medios online – que la práctica del ad-blocking amenaza su misma existencia. Durante meses, los editores han buscado afanosamente formas de combatir la extendida costumbre de bloquear los anuncios en sus sitios web. Algunos han invitado a los usuarios a incluirlos en una «lista blanca», otros han tratado infructuosamente de impedir el funcionamiento del software de bloqueo, impidiéndoles el acceso a sus páginas.

La Newspaper Association of America califica esta práctica como «un atentado contra el derecho a consumir contenidos periodísticos de calidad». Los portavoces de Facebook tienen otra forma de expresarse: «la publicidad forma parte de la experiencia de los usuarios». Es una manera sibilina de sugerir que los anunciantes son más importantes que los usuarios. Están en juego los cerca de 25.000 millones que Facebook espera facturar este año [fueron 17.900 millones de dólares en 2015].

A los anunciantes, Facebook viene a decirles algo así como ´haremos lo necesario para que vuestros mensajes lleguen al destinatario`, a los usuarios les dice ´disfrutad de nuestros servicios, pero recordad que otros pagan para que sean gratuitos`. Bueno, digamos que esta es mi manera impertinente de definir lo que en las escuelas de negocios llaman ´economía de la atención`.

La guinda la ha puesto Martin Sorrell [también conocido como Sir Martin], presidente del grupo publicitario global WPP. Al presentar los resultados del holding, declaró a los analistas que «muchas marcas se están cuestionando el crecimiento de la publicidad digital». Citó el ejemplo de P&G, pero fue más allá: «los problemas a los que nos enfrentamos son la visibilidad real, el fraude y la pertinencia de las métricas, además del software de bloqueo, por supuesto. Es un debate que la industria espera que agitemos».

Según Sorrell, los directores financieros, los ejecutivos de compras y los auditores de los medios están deseando que existan métricas fiables, que demuestren la eficacia de los medios digitales. La publicidad digital – dijo – representa una media del 30% de los presupuestos de las marcas, pero «si Facebook o Google esperan que sus ingresos sigan creciendo, deberían presentar mejores herramientas de medición».

Los datos de Facebook y Google no son fiables – argumentó – por su doble condición de jugadores y árbitros: «la independencia de las métricas es un asunto crucial para nuestros clientes». WPP ha desarrollado sus propias herramientas, pero estas son a menudo superadas por los cambios que Google introduce frecuentemente en sus algoritmos y porque Facebook se arroga el derecho a asociar, sin intervención de los anunciantes, qué publicidad asociar a los feeds de sus usuarios.

He leído estos días que Ian Leslie, autor de libros sobre estrategias publicitarias, apunta una paradoja: «después de años proclamando que la TV era un medio obsoleto, Facebook [como Google antes y Twitter demasiado tarde] ha decidido invertir en vídeo y estimular a sus clientes a producir spots que recuperan viejas formas de creación de memoria compartida, que es de lo que trata la publicidad».

14 de septiembre, 2016

De entrada, la disparidad de las cifras es expresiva. La división de impresión de Samsung facturó 1.800 millones de dólares en el año fiscal 2015, que le adjudica aproximadamente un 4% de cuota de mercado en las categorías en las que compite. No cumple, pues, el requisito de escala que requiere el mercado: compárese con los 21.200 millones facturados por la división printing de HP Inc en el mismo período. Es una primera explicación de por qué Samsung decidió vender esa división y por qué HP Inc. decidió pagar por ella 1.050 millones de dólares.

Estamos, pues, ante un típico caso de consolidación, que tiene una segunda derivada: Samsung nunca llegó a desarrollar un canal de distribución a la altura de su ambición, mientras que el canal es uno de los rasgos destacados de HP Inc.

La operación, anunciada el lunes, no es exactamente una sorpresa. Ya en septiembre del año pasado, antes de hacerse efectiva la separación de la antigua HP, el CEO designado para regir HP Inc, Dion Weisler, avisó que una de las claves de su estrategia sería apostar fuerte por el segmento de impresión en formato A3, con su línea de impresoras PageWide, en el que muy rápidamente ha ganado cuota de mercado. Dicho y hecho. Al anunciar el acuerdo con Samsung, Weisler anticipó que próximamente se lanzarán 16 modelos de impresoras LaserJet y PageWide, cuyos precios oscilarán entre 2.000 y 28.000 dólares y cubrirán distintas necesidades de impresión de las empresas.

Enrique Lores, presidente de la división Imaging and Printing Business, se ocupó de detallar la lógica de la transacción. El mercado de copiadoras – cuyo valor total estimó en 55.000 millones de dólares – se caracteriza por la obsolescencia del parque instalado, uno de cuyos problemas es que tiene muchas partes mecánicas, con la frecuencia de incidencias técnicas que conlleva, y el mantenimiento se encarece.

Reemplazar esas máquinas por equipos multifunción es la solución más idónea; el rápido éxito que ha cosechado la línea PageWide indica un potencial por desarrollar. ¿Quién mejor que HP Inc, líder del mercado mundial de impresión, para desarrollarlo? vino a decir Lores. El entusiasmo merece un matiz. La tecnología láser que usan los equipos de la marca HP es suministrada por Canon, que es a la vez un fuerte competidor. Liberarse gradualmente de esa dependencia es otro de los objetivos de la compra de la división de Samsung.

La firma coreana tiene tecnología propia, y la adquisición incluye el traspaso de más de 6.000 patentes y la incorporación de 1.300 ingenieros, la mayor parte de los cuales trabajan en Corea [además, Samsung invierte algunos cientos de millones en acciones de HP Inc.]. Adicionalmente, HP Inc. estará en mejores condiciones de atacar los mercados de Asia y el Pacífico [que el australiano conoce bien desde sus tiempos como directivo de Lenovo].

HP Inc. controla el 40% del mercado mundial de impresión A4, pero menos del 5% del A3, en el que no entró hasta 2014. La integración duplicará a priori esa cuota de mercado, y la marca californiana estará en mejores condiciones de competir con Xerox – en franco descenso – y con las japonesas Canon y Ricoh.

Samsung aportaría a HP Inc. su tecnología de impresión cloud desde dispositivos móviles. «Otra de las cualidades que estamos llevando al mercado que hasta ahora cubrían las copiadoras es nuestra tecnología de seguridad – apunta Lores – y en la medida en que las copiadoras se conectan en red, se trata de un asunto capital. Cathy Lesjak, CFO de HP Inc. se sumó al anuncio para precisar que Samsung ha invertido mucho en su división de impresoras, lo que significa que la compra es en el fondo un ahorro en el parámetro COGS (cost per goods sold) e inversión en I+D.

La relación entre Canon y HP Inc. se mantendrá, respondió un directivo de la empresa japonesa a la prensa de su país. Los analistas familiarizados con la compradora discrepan: es muy probable que, apoyándose en la tecnología adquirida a Samsung, esté pronto en condiciones de extenderla a sus equipos de impresión A4.

Los frutos de la operación no llegarán a tiempo para corregir la tendencia declinante del negocio de impresión de HP Inc, que en el trimestre más reciente ingresó 4.400 millones de dólares, un 14% menos que en el mismo período del año anterior. Incluso las ventas de consumibles, que en otros tiempos fueron boyantes, están haciendo descender los ingresos y la rentabilidad de la división. El tránsito del modelo transaccional al contractual lleva tiempo, y todo el sector está metido de coz y hoz en esa transición.

En declaraciones recientes a Barron´s, Weisler desgranó su perspectiva del negocio de impresión. El mercado corporativo – cuyo valor total estimó en 110.000 millones de dólares – se divide a partes iguales entre A4 y A3, y el propósito de HP Inc. es conseguir en el segundo segmento el liderazgo de que disfruta en el primero: «si podemos alcanzar un 10% de cuota [aún no se había anunciado el acuerdo con Samsung] podremos añadir 5.000 millones a nuestro top line (ingresos brutos)». Hay 12 competidores en el mercado A3, pero no hay sitio para todos, y por esta razón algunos se están moviendo hacia el de A4. «Si conseguimos bajar el coste por página – actualmente en 6 ó 7 dólares por impresión a color – el canal podrá trasladar esa economía al cliente».

Otra área de desarrollo en la que se detuvo Weisler en la conversación, fue el de los flujos móviles: «no hablo ahora de smartphones, sino de la cantidad de tareas en ciertos mercados verticales, que en última instancia requieren una solución que, como especialistas, podemos aportar». Las artes gráficas representan otro buen pellizco de 35.000 millones de dólares – subrayó – y HP Inc. lleva varios años embarcada en el paso de las soluciones de impresión analógica a la digital en grandes formatos y en segmentos específicos como el packaging y la cartelería.

Por último, Weisler se refirió a la última criatura expansiva de la empresa, su tecnología propia de impresión 3D. «Lo que la mayoría conoce como impresión 3D no es un gran mercado, vale quizás unos 5.000 millones de dólares; lo que estamos haciendo es una auténtica disrupción, en el plazo de 3 a 10 años, de la industria de moldeado por inyección, que en su totalidad tiene un mercado enorme, casi 12 billones de dólares.

Cuántas cosas se aprenden buscando bajo una simple noticia de que A compró B, ¿verdad? Pero hay que currárselo, en lugar de regurjitar una nota de prensa. Un saludo (casi) otoñal.

5 de septiembre, 2016

Hoy se abre en Santander el encuentro de las telecomunicaciones, que organizan AMETIC y la Universidad Internacional Menéndez Pelayo. De la lectura preliminar del programa, deduzco que los ponentes se esforzarán un año más por no desentonar con la retórica habitual: agenda digital, oportunidad digital, transformación digital y múltiples variaciones del mismo género.

Me ha llamado la atención que este año no acuda una representación de las instituciones europeas. Con tres comisarios afines a la temática del encuentro, no hubiera estado mal escuchar a uno de ellos. Aunque, ahora que lo pienso, de 2015 aún recuerdo el rutinario mensaje en vídeo del comisario Gunther Ottinger y la pedestre lección que nos dejó la eurodiputada Pilar del Castillo del Castillo. En cualquier caso, la política europea de telecomunicaciones será la referencia obligada del encuentro. El debate tendrá previsiblemente un eje diferente al de años anteriores.

El plato fuerte de la sesión inicial será una mesa redonda de los CEO de tres grandes operadores europeos: José María Álvarez-Pallete (Telefónica), Vittorio Colao (Vodafone) y Stéphane Richard (Orange). A priori, debería ser una ocasión perfecta para conocer sus posiciones acerca de las recientes directrices comunitarias sobre la llamada neutralidad de red. Me atreveré a adelantar algunas observaciones de mi cosecha sobre este tema fundamental.

Creo que con la neutralidad pasa casi lo mismo que con la austeridad: son dos desiderata a los que parece impropio oponerse como principios ideales que son; otra cosa es juzgar los resultados de su aplicación en la economía real. Conocemos los efectos de las políticas de austeridad de los últimos años, y con esto no quiero prejuzgar sobre la neutralidad de las redes, concepto que sin duda goza de gran popularidad pero yo no lo veo tan claro.

Considerar Internet como un bien común es una premisa que hoy parece indiscutible: por su importancia en la vida cotidiana, en la economía global y en la innovación tecnológica. Nadie en su sano juicio discutiría que los costes de acceder a la web han bajado – wifi gratis, tarifas planas, paquetes de datos, etc – en mayor proporción que los de cualquier otro servicio o mercancía. Se da por sentado que la neutralidad de red profundizaría y extendería esos beneficios.

Ha caído en desuso la analogía, muy frecuente hace años, entre Internet y las autopistas, un argumento discutible y si me apuran falaz: las autopistas son infraestructuras financiadas con recursos públicos (o con sistemas de peaje por concesión) de las que no se espera rentabilidad directa, mientras que las redes se pagan con inversión privada, fuertemente condicionada por los mercados financieros, que esperan retorno.

Las recomendaciones del BEREC (Body of European Regulators) han sido avaladas con leves correcciones por la Comisión Europea, y con ello toman la forma de directrices a las que deberán ajustarse los reguladores nacionales. Por supuesto, están en juego múltiples intereses creados. De eso se trata. De los intereses de los operadores por un lado, y por otro los activistas de ´derechos digitales` que también representan intereses y son un lobby poderoso. Estos últimos han acogido la posición de la CE como una victoria, un paso adelante hacia una Internet abierta y libre, que esta es su meta. Empero, advierten lagunas y excepciones, por lo que reclaman una vigilancia estricta para impedir que los operadores tergiversen la interpretación de la normativa.

Según las directrices europeas, todas las categorías de tráfico por una red recibirán el mismo tratamiento, y los proveedores de servicios de Internet tendrán prohibido «bloquear o ralentizar el tráfico de Internet, excepto en casos de necesidad […], las excepciones se limitan a la gestión del tráfico para cumplir un imperativo legal, asegurar la integridad de las redes y su seguridad, o evitar su congestión». Está expresamente vetada la práctica de zero rating, considerada discriminatoria, aunque se reconoce que en ciertos casos podría estar justificada. Se admiten excepciones para ciertos servicios especializados, caso por caso, citándose tres ejemplos: las llamadas de voz de alta definición (VoLTE), los servicios IPTV y las sesiones de cirugía remota, que eventualmente podrían usar redes específicas. No se excluye que en el futuro otros servicios, relacionados con IoT, pudieran incluirse entre las excepciones.

Alguno de mis colegas ha interpretado – a mi juicio precipitadamente – las enmiendas de la CE a las propuestas del BEREC como concesiones a los operadores, con las que se evitaría (o postergaría) un conflicto. Es notorio que esas supuestas concesiones están muy lejos de las demandas que 17 operadores (con la complicidad de los suministradores de equipos de red) plasmaron en un llamado Manifiesto 5G. El argumento central de este documento es que la CE debería conciliar la necesidad de una Internet abierta con una normativa pragmática que sirva para promover la inversión y acelerar la innovación europea. Por el contrario – decían en julio – de seguirse la propuesta del BEREC, se crearían incertidumbres en torno al retorno de las inversiones en 5G, que podrían ralentizarse a menos que la regulación incentive su despliegue.

Las preocupaciones de los operadores – por una vez, no exclusivas de los ´incumbentes`- ya no tienen que ver con las polémicas recurrentes acerca de la consolidación. Pueden resumirse en tres puntos clave: 1) ¿cómo estar seguros del retorno de sus inversiones para dotarse de capacidades 5G cuando muchos de los ingresos por servicios irán a parar a los proveedores over-the-top?; 2) ¿acaso se pretende condenarles a un rol de transportistas de contenidos de Internet?; y 3) en todo caso, ¿cuál será su remuneración por conectar los datos generados en el nuevo mundo de IoT?

Esta posición pactada de los operadores europeos ha sido un tardío intento de negociación, que pone sobre la mesa el compromiso colectivo (hasta ahora inexistente) de lanzar un Plan de Acción 5G, que empezaría por cooperar en pruebas piloto en los 28 países miembros de la UE tan pronto como queden establecidos los estándares, entre 2017 y 2018, y que se completaría en 2020 con el despliegue de redes comerciales 5G en al menos una ciudad de cada país.

Lógicamente, el plan conlleva contrapartidas que, por el momento, la CE ha desoído. Una es la adopción de una nueva política común europea en materia de espectro, que se trasladaría a la próxima conferencia WRC en 2019. Otra, dar soporte financiero a las demostraciones de 5G, con las que se estimularía a las industrias verticales a sumarse a las pruebas (esta postura explica que Airbus, Siemens y Philips firmaran el documento), una actitud que tendría un impacto económico real. En concreto, el manifiesto sugiere que los mecanismos actuales de la UE sean usados para destinar entre 500 y 1.000 millones de euros a ese uso y, además, se constituya un fondo de inversión para apoyar las actividades de startups en el desarrollo de servicios sobre la base de 5G.

No consta que la CE haya prestado atención a estas peticiones, que llevan implícito un enfoque light de la regulación en asuntos tales como el espectro, el despliegue de fibra o de small cells. Por el contrario, Bruselas parece enquistada en su tradicional punto de vista: alentar la competición en los servicios minoristas, en lugar de relajar las normas que pudieran acelerar la inversión en redes y los acuerdos entre operadores. Estos se toman como amenazas el desembarco de Google en Europa con propuestas de roaming [mediante un acuerdo con el operador británico Three] o la iniciativa TIP (Telecom Infrastructure Project] alentada por Facebook. Estos movimientos de terceros podrían aliviar la carga de inversión de los operadores, pero con la consecuencia de perder el control de la cadena de suministro tal como lo han ejercido durante décadas.

Disculpen si me he extendido demasiado, incluso para lo que es habitual en este newsletter, pero confieso que siento una enorme curiosidad por escuchar las posiciones que van a exponer Álvarez-Pallete, Colao y Richard: ¿será más dura, más conciliadora o tirarán balones fuera?. Desde ya aviso que este blog tendrá durante la semana unos contenidos monográficos, dedicados a las telecos.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons