wp_head() ?>
Por segunda vez en nueve meses, Meg Whitman ha aprovechado la presentación de resultados trimestrales de Hewlett Packard Enterprise para anunciar otra desinversión que achicará más el tamaño de la empresa que preside. Es imposible saber si la idea rondaba en su cabeza cuando hizo aprobar la partición de la antigua HP, pero la secuencia es llamativa: en mayo, cedió la deficitaria actividad de servicios a una sociedad común con Computer Sciences (CSC) y en agosto ha repetido la táctica con los activos non core de software, ahora de la mano de Micro Focus como socio. Así dará carpetazo a dos líos heredados de sus predecesores: EDS (comprada por Mark Hurd en 2008) y Autonomy (Leo Apotheker en 2011). Leer más
Consumatum est. Once meses tuvo que esperar Michael Dell el día de ingerir EMC: tras la aprobación final del gobierno chino (comunicada el 30 de agosto), EMC ha pasado a integrarse en Dell Technologies. La digestión podría llevar más o menos tiempo, dependiendo del ritmo en que se eliminen redundancias, entre las que hay que contar el recorte de 3.000 empleos. En teoría, ha nacido una empresa con una facturación de 74.000 millones de dólares, que será la más grande del sector TI con la peculiaridad de que no cotizará en bolsa. Aunque no se puede descartar un retorno a Wall Street, como recurso para aligerar la deuda de 40.000 millones de dólares que han contraído la family office de Dell y su socio el fondo de inversión SilverLake.
De principio a fin, la operación ha sido inusualmente compleja por dos razones esenciales: 1) la ingeniería financiera que ha tenido que montar Dell para concretar una compra valorada inicialmente en 67.000 millones de dólares y 2) la estructura bizantina de EMC, que hace años escogió ser una federación de empresas formalmente autónomas pero accionarialmente controladas por la matriz. Una expresión de esa complejidad ha sido la incertidumbre acerca del valor de unas acciones ´de seguimiento`, vinculadas a la evolución de la más importante de esas participadas, VMware.
Dell [Michael] ha bendecido el cierre de la operación con estas palabras: «con nuestra cadena de suministro, la fuerza de ventas y la escala que sumamos, estaremos muy bien posicionados en las nuevas áreas de las T.I como en las existentes».
Huelga decir que, tratándose de la fusión entre dos empresas con fuerte carga de legacy, la tarea no será fácil. Tanto Dell como EMC ha comprado activos para reforzarse en los negocios emergentes, pero cada una por su lado parecen haber llegado a la conclusión de que no era suficiente y por eso han cambiado de estrategia.
Escribe el colega Tim Pricket Morgan: «si algo necesita desesperadamente Dell, es construir una plataforma […] pero esto significa mucho más que sumar servidores, cabinas y switches además de software para gestionarlos». Fundamentalmente, necesitará una estrategia cloud, y para ello contará con VMware como pieza maestra. «Hace años – recapitula – Dell intentó construir su propia cloud, pero tuvo que echarse atrás. Por su lado, VMware ha seguido construyendo [no sin tropezar varias veces, esto es de mi cosecha] su propia oferta cloud en la que apoyarse […] Da la impresión de que Dell tratará de poner el acento en la venta de nubes privadas a las grandes empresas, pero el hardware convencional [el propio y el que hereda de EMC] es un negocio voluminoso pero no una fuente de crecimiento».
Sin estar obligada a hacerlo, por su condición de no cotizada, Dell [la empresa] desveló 24 horas antes de concretar la fusión sus propios resultados, que fueron recibidos sin emoción. Cerró el trimestre en julio con ingresos de 13.100 millones de dólares (aumento interanual del 1%), y un beneficio operativo de 63 millones, que corrige la pérdida de 103 millones un año antes. A esa fecha, disponía de una tesorería de 7.500 millones de dólares, que en buena medida se origina en las desinversiones con las que ha reunido capital para afrontar la compra de EMC.
La oferta de la compañía integrada abarcará PC, servidores, almacenamiento y networking, que conforman lo que Dell [Michael] llama ´las áreas existentes` de las T.I. Para ayudar a financiar la operación, se ha desprendido de activos de software y servicios. También EMC ha soltado lastre [casi a última hora ha vendido a la canadiense OpenText su división de gestión de contenidos, a cambio de 1.600 millones de dólares]. Hay un evidente solapamiento en segmentos como seguridad y almacenamiento, pero al parecer coexistirán durante un tiempo, para no confundir a la clientela. Por otro lado, Dell Technologies acumula valiosas propiedades que le permiten aspirar a ser una potencia en ´las nuevas áreas` a las que alude su fundador: Pivotal, Virtustream y, fundamentalmente, VMware.
La más explícita declaración de respeto por la singularidad de VMware la dio Michael Dell al compartir un simulacro de diálogo con Pat Gelsinger en la reciente edición de VMworld en Las Vegas [volverán a escenificarlo, previsiblemente, en Barcelona a mediados de octubre]. No dijo mucho, la verdad, pero dejó este mensaje: allí donde sea posible y corresponda al deseo de los clientes, los servidores Dell llevarán preinstalado vSphere. Otra muestra del mismo talante fue la aceptación pública de los lazos muy estrechos entre VMware e IBM. Asimismo, los acuerdos con HPE [desde siempre la némesis de Dell] y Lenovo se mantendrán, pero Dell presume de poder competir con una integración más profunda.
En el escenario de Las Vegas, parecía reinar la armonía. Mientras Gelsinger ratificaba su autonomía, a la vera de su nuevo accionista de control, Michael Dell hilvanaba una letanía de ejemplos con los que abonar la imprescindible convivencia, dejando este corolario: «el ecosistema abierto de VMware es un factor crítico para el éxito de Dell Technologies».
Uno de los próximos pasos será prescindir de 3.000 puestos de trabajo, un 2% del total con el que arranca la integración entre Dell y EMC. La agencia Bloomberg atribuye a un portavoz el cálculo de 1.700 millones de dólares en ahorro neto de costes, añadiendo esta coletllla: «haremos todo lo posible por minimizar al impacto sobre el empleo». Dicho lo cual, puesto que la empresa no cotiza, tiene todo derecho al hermetismo.
Aunque el mundo entero considera a Facebook como el epítome de red social, la realidad es que se trata de un medio publicitario; lo demás es accesorio, y no hay más que ver sus cifras. Los ingresos de Facebook ascendieron a 6.239 millones de dólares en el segundo trimestre, un 63% de aumento sobre el mismo período de 2015. Y su beneficio neto fue de 2.055 millones de dólares (86% de aumento). Un éxito financiero de tal calibre sólo se explica por la capacidad de hacer llegar mensajes publicitarios personalizados a microaudiencias, gracias a una sofisticada segmentación de sus 1.700 millones de usuarios activos.
Esa cualidad ha inducido a los grandes anunciantes – sostén habitual del resto de los medios – a desviar parte de sus presupuestos: en lugar de dispersar dinero entre la masa amorfa que ve la televisión (cada vez menos, en ciertas capas de población) ¿por qué no apoyarse en los datos personales que acumula Facebook, para llegar con el anuncio apropiado a cada grupo de consumidores que con más probabilidad podría comprar sus productos?
Hasta aquí, todo iba sobre ruedas. Facebook afina constantemente sus herramientas, y está en mejores condiciones que nadie de garantizar resultados tangibles de cada campaña dirigida a un target específico. A finales de julio, el mayor anunciante del mundo, Procter & Gamble, que invirtió 7.200 millones de dólares en publicidad en su año fiscal – cerrado en junio – anunció que en el nuevo ejercicio incrementará su presupuesto un 5% pero reducirá la cuantía que dedica a la publicidad online, con el previsible efecto de pagar menos a Facebook.
Tal vez no sea más que una manera temporal de reaccionar al hecho de que las ventas totales de P&G han caído un 8%, cerrando el ejercicio 2015 con un total de 65.300 millones. Un cálculo elemental indica que se gastó en publicidad el 11% de los ingresos, y la reacción es aumentar la dosis.
En el ambiente de la publicidad, la noticia causó sensación, porque equivale a dar la vuelta a una tendencia ascendente. Marc Pritchard, chief marketing officer de P&G, dijo mucho con pocas palabras: «hemos personalizado demasiado, con lo que hemos estrechado nuestro alcance». Luego, a la vista de las reacciones, aclaró que Facebook no tiene nada que temer, porque P&G seguirá empleando la modalidad de targeted advertising en los casos en que su utilidad esté demostrada, pero a la vez buscará otras fórmulas de precisión.
Procter & Gamble es un conglomerado de marcas de la categoría que se conoce como CPG (consumer packaged goods) , cuyas ventas dependen de su penetración publicitaria y, por tanto, de una atinada distribución de esta entre los distintos medios. El reajuste empezó antes, al parecer: la consultora Kantar Media asegura que P&G ha incrementado su inversión en televisión durante la primera mitad del año un 11% de incremento: 429 millones de dólares más, en detrimento de otros medios, particularizando el repliegue en Facebook. Pritchard aseguró a Marketing Week que «Facebook es para nosotros un recurso de marketing de precisión, y nuestras marcas seguirán usándolo según en qué circunstancias».
En el fondo subyacen sospechas sobre la eficacia de la publicidad digital. Según estimaciones de IAB (Interactive Advertising Bureau) una quinta parte de los usuarios de Internet usan software de bloqueo de anuncios. Otras fuentes añaden que sólo el 4% de la publicidad digital desplegada en dispositivos digitales se visualiza durante más de dos segundos. Motivos no faltan para reflexionar. Otro factor que inquieta a los anunciantes es el duopolio que en la práctica han llegado a conformar Facebook y Google, secando el mercado a otros actores: pueden concentrar en ellos sus presupuestos, pero pierden el control.
Es curiosa, en este contexto, la coincidencia casual entre el anuncio de P&G y la decisión de Facebook de implementar una solución tecnológica que bloquea a los bloqueadores, por entender – como todos los medios online – que la práctica del ad-blocking amenaza su misma existencia. Durante meses, los editores han buscado afanosamente formas de combatir la extendida costumbre de bloquear los anuncios en sus sitios web. Algunos han invitado a los usuarios a incluirlos en una «lista blanca», otros han tratado infructuosamente de impedir el funcionamiento del software de bloqueo, impidiéndoles el acceso a sus páginas.
La Newspaper Association of America califica esta práctica como «un atentado contra el derecho a consumir contenidos periodísticos de calidad». Los portavoces de Facebook tienen otra forma de expresarse: «la publicidad forma parte de la experiencia de los usuarios». Es una manera sibilina de sugerir que los anunciantes son más importantes que los usuarios. Están en juego los cerca de 25.000 millones que Facebook espera facturar este año [fueron 17.900 millones de dólares en 2015].
A los anunciantes, Facebook viene a decirles algo así como ´haremos lo necesario para que vuestros mensajes lleguen al destinatario`, a los usuarios les dice ´disfrutad de nuestros servicios, pero recordad que otros pagan para que sean gratuitos`. Bueno, digamos que esta es mi manera impertinente de definir lo que en las escuelas de negocios llaman ´economía de la atención`.
La guinda la ha puesto Martin Sorrell [también conocido como Sir Martin], presidente del grupo publicitario global WPP. Al presentar los resultados del holding, declaró a los analistas que «muchas marcas se están cuestionando el crecimiento de la publicidad digital». Citó el ejemplo de P&G, pero fue más allá: «los problemas a los que nos enfrentamos son la visibilidad real, el fraude y la pertinencia de las métricas, además del software de bloqueo, por supuesto. Es un debate que la industria espera que agitemos».
Según Sorrell, los directores financieros, los ejecutivos de compras y los auditores de los medios están deseando que existan métricas fiables, que demuestren la eficacia de los medios digitales. La publicidad digital – dijo – representa una media del 30% de los presupuestos de las marcas, pero «si Facebook o Google esperan que sus ingresos sigan creciendo, deberían presentar mejores herramientas de medición».
Los datos de Facebook y Google no son fiables – argumentó – por su doble condición de jugadores y árbitros: «la independencia de las métricas es un asunto crucial para nuestros clientes». WPP ha desarrollado sus propias herramientas, pero estas son a menudo superadas por los cambios que Google introduce frecuentemente en sus algoritmos y porque Facebook se arroga el derecho a asociar, sin intervención de los anunciantes, qué publicidad asociar a los feeds de sus usuarios.
He leído estos días que Ian Leslie, autor de libros sobre estrategias publicitarias, apunta una paradoja: «después de años proclamando que la TV era un medio obsoleto, Facebook [como Google antes y Twitter demasiado tarde] ha decidido invertir en vídeo y estimular a sus clientes a producir spots que recuperan viejas formas de creación de memoria compartida, que es de lo que trata la publicidad».
De entrada, la disparidad de las cifras es expresiva. La división de impresión de Samsung facturó 1.800 millones de dólares en el año fiscal 2015, que le adjudica aproximadamente un 4% de cuota de mercado en las categorías en las que compite. No cumple, pues, el requisito de escala que requiere el mercado: compárese con los 21.200 millones facturados por la división printing de HP Inc en el mismo período. Es una primera explicación de por qué Samsung decidió vender esa división y por qué HP Inc. decidió pagar por ella 1.050 millones de dólares.
Estamos, pues, ante un típico caso de consolidación, que tiene una segunda derivada: Samsung nunca llegó a desarrollar un canal de distribución a la altura de su ambición, mientras que el canal es uno de los rasgos destacados de HP Inc.
La operación, anunciada el lunes, no es exactamente una sorpresa. Ya en septiembre del año pasado, antes de hacerse efectiva la separación de la antigua HP, el CEO designado para regir HP Inc, Dion Weisler, avisó que una de las claves de su estrategia sería apostar fuerte por el segmento de impresión en formato A3, con su línea de impresoras PageWide, en el que muy rápidamente ha ganado cuota de mercado. Dicho y hecho. Al anunciar el acuerdo con Samsung, Weisler anticipó que próximamente se lanzarán 16 modelos de impresoras LaserJet y PageWide, cuyos precios oscilarán entre 2.000 y 28.000 dólares y cubrirán distintas necesidades de impresión de las empresas.
Enrique Lores, presidente de la división Imaging and Printing Business, se ocupó de detallar la lógica de la transacción. El mercado de copiadoras – cuyo valor total estimó en 55.000 millones de dólares – se caracteriza por la obsolescencia del parque instalado, uno de cuyos problemas es que tiene muchas partes mecánicas, con la frecuencia de incidencias técnicas que conlleva, y el mantenimiento se encarece.
Reemplazar esas máquinas por equipos multifunción es la solución más idónea; el rápido éxito que ha cosechado la línea PageWide indica un potencial por desarrollar. ¿Quién mejor que HP Inc, líder del mercado mundial de impresión, para desarrollarlo? vino a decir Lores. El entusiasmo merece un matiz. La tecnología láser que usan los equipos de la marca HP es suministrada por Canon, que es a la vez un fuerte competidor. Liberarse gradualmente de esa dependencia es otro de los objetivos de la compra de la división de Samsung.
La firma coreana tiene tecnología propia, y la adquisición incluye el traspaso de más de 6.000 patentes y la incorporación de 1.300 ingenieros, la mayor parte de los cuales trabajan en Corea [además, Samsung invierte algunos cientos de millones en acciones de HP Inc.]. Adicionalmente, HP Inc. estará en mejores condiciones de atacar los mercados de Asia y el Pacífico [que el australiano conoce bien desde sus tiempos como directivo de Lenovo].
HP Inc. controla el 40% del mercado mundial de impresión A4, pero menos del 5% del A3, en el que no entró hasta 2014. La integración duplicará a priori esa cuota de mercado, y la marca californiana estará en mejores condiciones de competir con Xerox – en franco descenso – y con las japonesas Canon y Ricoh.
Samsung aportaría a HP Inc. su tecnología de impresión cloud desde dispositivos móviles. «Otra de las cualidades que estamos llevando al mercado que hasta ahora cubrían las copiadoras es nuestra tecnología de seguridad – apunta Lores – y en la medida en que las copiadoras se conectan en red, se trata de un asunto capital. Cathy Lesjak, CFO de HP Inc. se sumó al anuncio para precisar que Samsung ha invertido mucho en su división de impresoras, lo que significa que la compra es en el fondo un ahorro en el parámetro COGS (cost per goods sold) e inversión en I+D.
La relación entre Canon y HP Inc. se mantendrá, respondió un directivo de la empresa japonesa a la prensa de su país. Los analistas familiarizados con la compradora discrepan: es muy probable que, apoyándose en la tecnología adquirida a Samsung, esté pronto en condiciones de extenderla a sus equipos de impresión A4.
Los frutos de la operación no llegarán a tiempo para corregir la tendencia declinante del negocio de impresión de HP Inc, que en el trimestre más reciente ingresó 4.400 millones de dólares, un 14% menos que en el mismo período del año anterior. Incluso las ventas de consumibles, que en otros tiempos fueron boyantes, están haciendo descender los ingresos y la rentabilidad de la división. El tránsito del modelo transaccional al contractual lleva tiempo, y todo el sector está metido de coz y hoz en esa transición.
En declaraciones recientes a Barron´s, Weisler desgranó su perspectiva del negocio de impresión. El mercado corporativo – cuyo valor total estimó en 110.000 millones de dólares – se divide a partes iguales entre A4 y A3, y el propósito de HP Inc. es conseguir en el segundo segmento el liderazgo de que disfruta en el primero: «si podemos alcanzar un 10% de cuota [aún no se había anunciado el acuerdo con Samsung] podremos añadir 5.000 millones a nuestro top line (ingresos brutos)». Hay 12 competidores en el mercado A3, pero no hay sitio para todos, y por esta razón algunos se están moviendo hacia el de A4. «Si conseguimos bajar el coste por página – actualmente en 6 ó 7 dólares por impresión a color – el canal podrá trasladar esa economía al cliente».
Otra área de desarrollo en la que se detuvo Weisler en la conversación, fue el de los flujos móviles: «no hablo ahora de smartphones, sino de la cantidad de tareas en ciertos mercados verticales, que en última instancia requieren una solución que, como especialistas, podemos aportar». Las artes gráficas representan otro buen pellizco de 35.000 millones de dólares – subrayó – y HP Inc. lleva varios años embarcada en el paso de las soluciones de impresión analógica a la digital en grandes formatos y en segmentos específicos como el packaging y la cartelería.
Por último, Weisler se refirió a la última criatura expansiva de la empresa, su tecnología propia de impresión 3D. «Lo que la mayoría conoce como impresión 3D no es un gran mercado, vale quizás unos 5.000 millones de dólares; lo que estamos haciendo es una auténtica disrupción, en el plazo de 3 a 10 años, de la industria de moldeado por inyección, que en su totalidad tiene un mercado enorme, casi 12 billones de dólares.
Cuántas cosas se aprenden buscando bajo una simple noticia de que A compró B, ¿verdad? Pero hay que currárselo, en lugar de regurjitar una nota de prensa. Un saludo (casi) otoñal.
Sin decirlo con rotundidad, procurando siempre dejar puertas abiertas, los operadores de telecomunicaciones están convencidos de que Google es y será su más tenaz enemigo, con el que no obstante hay que hablar cada día. La semana pasada, en el encuentro del sector en Santander, algún directivo se complacía (en privado) en apuntar las dificultades que vive la compañía californiana con su proyecto de despliegue de fibra en áreas urbanas de Estados Unidos: «para aguantar en este negocio, además de tener dinero, hay que ser del oficio». Cuenta el Wall Street Journal que a Google Fiber le ha llegado la hora de los recortes, ordenados por el CEO del holding Alphabet, Larry Page. Leer más
Hay fundamentos para sostener que Huawei es una empresa singular. No sólo por ser china, que eso ya no es un rasgo singular, ni por la peculiar presidencia colectiva (un triunvirato ejecutivo se turna cada seis meses) tutelada patriarcalmente por el fundador, Reng Zhengfei. Lo realmente distintivo de Huawei es que se trata de la única corporación de su tamaño [facturó 60.800 millones de dólares en 2015] que no cotiza en bolsa ni tiene intención de hacerlo. No lo necesita, aparentemente. Pero es pródiga en convocatorias espectaculares. Sólo en los últimos tres meses, reunió a 500 analistas en Shenzhen y a unos 10.000 clientes en Shanghai, para contarles su estrategia próxima. Leer más
Un consultor muy activo en los años 80 solía decir que España era un país más de bitios que de baudios, con lo que quería señalar la necesidad de dar más importancia a la trasmisión de datos. Quizás hoy Luis Arroyo Galán tendría motivos para invertir su chascarrillo. Es sólo una referencia anecdótica, a modo de percha para introducir ante los lectores un informe de Ernst & Young según el cual, conforme la medida del éxito de su negocio se traslada del minuto al byte, los operadores – las telecos – tendrán necesariamente que alejarse de sus estrategias centradas en la retención del cliente, que con los años han derivado en una comoditización del valor del tiempo y del ancho de banda. Leer más
Hoy se abre en Santander el encuentro de las telecomunicaciones, que organizan AMETIC y la Universidad Internacional Menéndez Pelayo. De la lectura preliminar del programa, deduzco que los ponentes se esforzarán un año más por no desentonar con la retórica habitual: agenda digital, oportunidad digital, transformación digital y múltiples variaciones del mismo género.
Me ha llamado la atención que este año no acuda una representación de las instituciones europeas. Con tres comisarios afines a la temática del encuentro, no hubiera estado mal escuchar a uno de ellos. Aunque, ahora que lo pienso, de 2015 aún recuerdo el rutinario mensaje en vídeo del comisario Gunther Ottinger y la pedestre lección que nos dejó la eurodiputada Pilar del Castillo del Castillo. En cualquier caso, la política europea de telecomunicaciones será la referencia obligada del encuentro. El debate tendrá previsiblemente un eje diferente al de años anteriores.
El plato fuerte de la sesión inicial será una mesa redonda de los CEO de tres grandes operadores europeos: José María Álvarez-Pallete (Telefónica), Vittorio Colao (Vodafone) y Stéphane Richard (Orange). A priori, debería ser una ocasión perfecta para conocer sus posiciones acerca de las recientes directrices comunitarias sobre la llamada neutralidad de red. Me atreveré a adelantar algunas observaciones de mi cosecha sobre este tema fundamental.
Creo que con la neutralidad pasa casi lo mismo que con la austeridad: son dos desiderata a los que parece impropio oponerse como principios ideales que son; otra cosa es juzgar los resultados de su aplicación en la economía real. Conocemos los efectos de las políticas de austeridad de los últimos años, y con esto no quiero prejuzgar sobre la neutralidad de las redes, concepto que sin duda goza de gran popularidad pero yo no lo veo tan claro.
Considerar Internet como un bien común es una premisa que hoy parece indiscutible: por su importancia en la vida cotidiana, en la economía global y en la innovación tecnológica. Nadie en su sano juicio discutiría que los costes de acceder a la web han bajado – wifi gratis, tarifas planas, paquetes de datos, etc – en mayor proporción que los de cualquier otro servicio o mercancía. Se da por sentado que la neutralidad de red profundizaría y extendería esos beneficios.
Ha caído en desuso la analogía, muy frecuente hace años, entre Internet y las autopistas, un argumento discutible y si me apuran falaz: las autopistas son infraestructuras financiadas con recursos públicos (o con sistemas de peaje por concesión) de las que no se espera rentabilidad directa, mientras que las redes se pagan con inversión privada, fuertemente condicionada por los mercados financieros, que esperan retorno.
Las recomendaciones del BEREC (Body of European Regulators) han sido avaladas con leves correcciones por la Comisión Europea, y con ello toman la forma de directrices a las que deberán ajustarse los reguladores nacionales. Por supuesto, están en juego múltiples intereses creados. De eso se trata. De los intereses de los operadores por un lado, y por otro los activistas de ´derechos digitales` que también representan intereses y son un lobby poderoso. Estos últimos han acogido la posición de la CE como una victoria, un paso adelante hacia una Internet abierta y libre, que esta es su meta. Empero, advierten lagunas y excepciones, por lo que reclaman una vigilancia estricta para impedir que los operadores tergiversen la interpretación de la normativa.
Según las directrices europeas, todas las categorías de tráfico por una red recibirán el mismo tratamiento, y los proveedores de servicios de Internet tendrán prohibido «bloquear o ralentizar el tráfico de Internet, excepto en casos de necesidad […], las excepciones se limitan a la gestión del tráfico para cumplir un imperativo legal, asegurar la integridad de las redes y su seguridad, o evitar su congestión». Está expresamente vetada la práctica de zero rating, considerada discriminatoria, aunque se reconoce que en ciertos casos podría estar justificada. Se admiten excepciones para ciertos servicios especializados, caso por caso, citándose tres ejemplos: las llamadas de voz de alta definición (VoLTE), los servicios IPTV y las sesiones de cirugía remota, que eventualmente podrían usar redes específicas. No se excluye que en el futuro otros servicios, relacionados con IoT, pudieran incluirse entre las excepciones.
Alguno de mis colegas ha interpretado – a mi juicio precipitadamente – las enmiendas de la CE a las propuestas del BEREC como concesiones a los operadores, con las que se evitaría (o postergaría) un conflicto. Es notorio que esas supuestas concesiones están muy lejos de las demandas que 17 operadores (con la complicidad de los suministradores de equipos de red) plasmaron en un llamado Manifiesto 5G. El argumento central de este documento es que la CE debería conciliar la necesidad de una Internet abierta con una normativa pragmática que sirva para promover la inversión y acelerar la innovación europea. Por el contrario – decían en julio – de seguirse la propuesta del BEREC, se crearían incertidumbres en torno al retorno de las inversiones en 5G, que podrían ralentizarse a menos que la regulación incentive su despliegue.
Las preocupaciones de los operadores – por una vez, no exclusivas de los ´incumbentes`- ya no tienen que ver con las polémicas recurrentes acerca de la consolidación. Pueden resumirse en tres puntos clave: 1) ¿cómo estar seguros del retorno de sus inversiones para dotarse de capacidades 5G cuando muchos de los ingresos por servicios irán a parar a los proveedores over-the-top?; 2) ¿acaso se pretende condenarles a un rol de transportistas de contenidos de Internet?; y 3) en todo caso, ¿cuál será su remuneración por conectar los datos generados en el nuevo mundo de IoT?
Esta posición pactada de los operadores europeos ha sido un tardío intento de negociación, que pone sobre la mesa el compromiso colectivo (hasta ahora inexistente) de lanzar un Plan de Acción 5G, que empezaría por cooperar en pruebas piloto en los 28 países miembros de la UE tan pronto como queden establecidos los estándares, entre 2017 y 2018, y que se completaría en 2020 con el despliegue de redes comerciales 5G en al menos una ciudad de cada país.
Lógicamente, el plan conlleva contrapartidas que, por el momento, la CE ha desoído. Una es la adopción de una nueva política común europea en materia de espectro, que se trasladaría a la próxima conferencia WRC en 2019. Otra, dar soporte financiero a las demostraciones de 5G, con las que se estimularía a las industrias verticales a sumarse a las pruebas (esta postura explica que Airbus, Siemens y Philips firmaran el documento), una actitud que tendría un impacto económico real. En concreto, el manifiesto sugiere que los mecanismos actuales de la UE sean usados para destinar entre 500 y 1.000 millones de euros a ese uso y, además, se constituya un fondo de inversión para apoyar las actividades de startups en el desarrollo de servicios sobre la base de 5G.
No consta que la CE haya prestado atención a estas peticiones, que llevan implícito un enfoque light de la regulación en asuntos tales como el espectro, el despliegue de fibra o de small cells. Por el contrario, Bruselas parece enquistada en su tradicional punto de vista: alentar la competición en los servicios minoristas, en lugar de relajar las normas que pudieran acelerar la inversión en redes y los acuerdos entre operadores. Estos se toman como amenazas el desembarco de Google en Europa con propuestas de roaming [mediante un acuerdo con el operador británico Three] o la iniciativa TIP (Telecom Infrastructure Project] alentada por Facebook. Estos movimientos de terceros podrían aliviar la carga de inversión de los operadores, pero con la consecuencia de perder el control de la cadena de suministro tal como lo han ejercido durante décadas.
Disculpen si me he extendido demasiado, incluso para lo que es habitual en este newsletter, pero confieso que siento una enorme curiosidad por escuchar las posiciones que van a exponer Álvarez-Pallete, Colao y Richard: ¿será más dura, más conciliadora o tirarán balones fuera?. Desde ya aviso que este blog tendrá durante la semana unos contenidos monográficos, dedicados a las telecos.
El foro de desarrolladores IDF, que Intel convocó a mediados de agosto en San Francisco, ha puesto en evidencia que el líder global de la industria de semiconductores busca en múltiples caminos la fórmula que contrarreste su menguante, pero muy principal, fuente de beneficio, los procesadores para PC. Una alternativa conspicua serían los procesadores Xeon y Xeon Phi para centros de datos, reforzados con algoritmos de inteligencia artificial, pero no lo son menos los chips programables de su ahora filial Altera y la decisión de enterrar el hacha de la guerra y llegar a un acuerdo limitado con su rival de los últimos años, la británica ARM. Otro camino pasa por la realidad ´fusionada` en alianza con Microsoft. Leer más