wp_head() ?>
La actualidad de estos días ha tenido varios ejes de interés, uno de ellos el fraude mediambiental de Volkswagen. ¿Por qué habría de ocuparse del asunto un blog como este? Un lector se sorprendía de que en los últimos meses he dedicado varias crónicas a la industria automovilística, pero habrá más en lo sucesivo: cualquier coche de hoy lleva más circuitos electrónicos y tanto o más software que la mayoría de los ordenadores y dispositivos de uso corriente. Y se acentuará, sin duda, con el auge del coche conectado y no digamos con la futura conducción autónoma. Lo que hoy me importa destacar es el protagonismo adquirido por un algoritmo nada inocente.
En el centro del escándalo se encuentra un dispositivo – Engine Control Unit – diseñado y fabricado por Robert Bosch GmbH. El propósito de esa ECU es someter al vehículo a un test de laboratorio, en el que se simulan maniobras prescritas por la EPA, agencia medioambiental de Estados Unidos, sobre un dinamómetro – físicamente, dos rodillos equipados con sensores – lo que permite medir la emisión de óxido de nitrógeno (NOx) producido por la combustión de su motor diesel. El test estándar pretende asegurar que ese vehículo cumple con los parámetros definidos por la EPA en cumplimiento de la Clean Air Act.
El problema, tal como descubrieron pruebas independientes hace un par de años [ocultadas desde entonces], es que el software del dispositivo incorpora un algoritmo que le permite distinguir automáticamente si está funcionando en «dyno mode» o en «road mode«. En el segundo caso, ya en circulación real, desactiva el control de emisiones, que pueden multiplicar entre 10 y 40 veces los parámetros aceptados. Un engaño en toda regla, con el agravante de que sirve de base a las subvenciones que suelen concederse a los coches equipados con sistemas supuestamente menos contaminantes.
La normativa americana – más rigurosa que la europea, contra lo que suele decirse – debió entrar en vigor en 2004, pero la industria negoció una moratoria hasta 2007, para desarrollar durante ese plazo un proceso llamado AdBlue, consistente en inyectar una cierta cantidad de urea en el catalizador, que reduce la generación del NOx. Todas las marcas usan esta técnica, e incluso la usa VW en varios de sus modelos, pero no en los más vendidos de la marca, que presuntamente resolvían el problema de otro modo, como quedaba demostrado al pasar el test. Un engaño en toda regla.
No creo que tengan asidero los pronósticos sobre una industria diezmada por las sospechas. No es la calidad de los productos Volkswagen lo que está en discusión, sólo la ética de sus directivos. Que se sepa, las consecuencias se limitan a este fabricante, que ha tenido que provisionar 6.500 millones de dólares para hacer frente a indemnizaciones. El monto se antoja corto, pero al final todo dependerá de los acuerdos extrajudiciales que alcance con las autoridades y otros litigantes. Si esa fuera la cifra final, dividiéndola entre los 11 millones de coches equipados por el dispositivo trucado, el coste para Volkswagen sería de unos 650 dólares por unidad, aproximadamente el 2% del precio medio de la marca. Suponiendo, claro está, que los usuarios reclamen, porque en la práctica es discutible que hayan sido perjudicados (a menos que se trate de conductores con arraigada conciencia ecológica).
Mi impresión es que el problema de fondo va más allá de la industria de automoción. Toda regulación necesita apoyarse en métricas creíbles y verificables, para evitar que, como escribe Jesús Mota en El País, se dedique «más tiempo a burlar las normas que a innovar y ganar productividad». Como era de esperar, ya han surgido fundamentalistas para sostener que el problema no ha estado en la voluntad de engaño sino en el exceso de regulación, que induciría a trampear.
Hace bien poco se ha demostrado que un coche conectado a Internet puede ser hackeado; por espectacular y hasta divertido que fuera el experimento, ha servido para poner de relieve que en un mundo en el que más y más y más ´objetos` inanimados son controlados por software, este puede servir para «mentir» a los humanos si está programado para ello. La supuesta inteligencia que se les atribuye [en nuestros días todo tiene que ser smart] puede consistir, como es el caso, en que un software embebido decida cuándo conviene someterse a un test y cuándo saltarse las normas. Es un motivo de reflexión, y como tal lo dejo ahí: lo que llamamos Internet de las Cosas es una extensión tan súbita de fronteras tecnológicas y sociales que ni siquiera tiene estándares ni regulaciones. Un problema cuyas dimensiones desconocemos todavía.
Estaba previsto y asumido que el mercado mundial de PC volvería a caer en el segundo trimestre, producto de dos fenómenos concurrentes: el alto número de unidades despachados a la misma altura del 2014, relacionado con el eclipse de Windows XP, y en segundo lugar el recorte de inventarios en el canal, debido a la expectativa de aparición de Windows 10. Por otra parte, el desajuste cambiario de los últimos meses imposibilitaba bajar los precios para sostener la demanda. El reflejo estadística de los tres factores conjugados se encuentra en el último informe publicado por IDC: 66,1 millones de unidades, un descenso del 11,8%, que debería corregirse levemente en el tercer trimestre, el actual. Leer más
Patrick Drahi tiene prisa. Al estar sus comprar apalancadas con deuda, tiene que aprovechar los bajos tipos de interés. Y tras la compra, aplicará su maestría en el recorte de costes para mejorar sustancialmente el flujo de caja, con lo que estará habilitado para contraer nueva deuda. Las agencias de calificación lo tienen en el punto de mira, pero el imperturbable empresario declaraba en mayo: “aquellos que se obsesionan con la reducción de su deuda, es porque no saben cómo crecer”.
Dicho y hecho. La semana pasada el grupo francoisraelí Altice, fundado por Drahi en 2002, anunció haber llegado a un acuerdo para comprar el operador de cable estadounidense Cablevision, por el que pagará 17.700 millones de dólares, la mayor parte financiado con deuda. En 2012, el endeudamiento de Altice era de 1.700 millones, pero cuando se consume la compra de Cablevisión habrá alcanzado los 48.500 millones.
En menos de dos años, Altice ha adquirido sucesivamente SFR, segundo operador móvil de Francia (17.000 millones de euros), Portugal Telecom (7.400 millones de euros) y el 70% de Suddenlink, séptimo operador de cable de Estados Unidos (9.100 millones de dólares). En medio, presentó una oferta de 10.000 millones de euros por Bouygues Telecom, que fue rechazada. Según ha dicho Drahi, la compra de Cablevision es otro peldaño en la escalada: “Francia es sólo el 3% del mercado mundial, tenemos el 97% restante como campo para seguir creciendo”.
Algunos analistas temen que con la compra de Cablevision, Drahi ha ido demasiado lejos. Se ha metido de cabeza en el proceso de consolidación que vive la industria del cable en Estados Unidos. AT&T ha pagado 48.500 millones de dólares por Direct TV, pero Comcast fue forzada a retirar su oferta por Time Warner Cable (TWC). Charter Communications espera que se apruebe su oferta para quedarse con TWC, mientras Dish (operador de satélite) prepara su eventual fusión con T-Mobile, filial americana de Deutsche Telekom. La suma de Cablevision y Suddenlink daría lugar al quinto del ranking, con 3,7 millones de abonados.
Patrick Drahi amaga con seguir apuntando a todo lo que se mueve, pero a partir de ahora – en Estados Unidos – sólo podría cobrar piezas menores, y además tendría que abordar la problemática integración de sus activos en Estados Unidos. Hay que añadir que Cablevision no es ningún chollo: sus propietarios la han vendido porque no podrían igualar las inversiones en fibra de Verizon, con quien su cobertura se solapa. La idea de Drahi sería – es lo que dice – desarrollar (o comprar) capacidades de banda ancha móvil para competir empaquetando servicios quad play, un modelo que aplica en Francia desde que procedió a fusionar Numericable y SFR.
A priori, el acuerdo de compra de Cablevision no plantearía problemas al regulador, pero aun así no estaría consumado antes de mediados de 2016. Drahi insiste en que su prioridad sigue siendo participar del movimiento – según él inexorable – de consolidación de las telecos europeas. Parece más plausible pensar que estará demasiado ocupado digiriendo su aventura transatlántica.
La moda de los contenedores parece imparable en los ambientes del cloud computing. Muchos desarrolladores de aplicaciones han apreciado las ventajas de un método light de empaquetamiento de código [ ya han surgido varias startups y así] y prestos, los peces gordos de la industria TI no quieren perderse la fiesta. RedHat saltó primero al ruedo, y Google a su manera; los últimos (por ahora) son Amazon Web Services, IBM, Microsoft y VMware. Los contenedores no son exactamente una tecnología nueva (se hablaba de ellos hace quince años), pero como si lo fueran: en un par de años, han acuñado metáforas descriptivas como «Lego o panal de aplicaciones distribuídas». Tan eficaces como discutibles. Leer más
Con el lanzamiento de iOS 9, Apple ha hurgado en una llaga crónica de Internet, y las consecuencias son de difícil pronóstico; de momento, ha provocado alarma en los medios online que, en ausencia de otro modelo de negocio, viven de la publicidad. El nuevo sistema operativo, aparte de otras características y mejoras, abre la posibilidad de bloquear mediante apps específicas los anuncios en dispositivos móviles de la marca. Lo había insinuado Tim Cook hace meses: «algunas de las compañías más exitosas de Internet basan su negocio en acosar a los usuarios con publicidad abusando de la información personal que estos le facilitan. Apple no quiere ser ese tipo de compañía». La alusión a Google no podría ser más clara.
En los primeros tiempos de Internet, exultantes gurús predicaban la ´economía de la atención` como rasgo de una nueva era y cuna de nuevos y brillantes negocios. No andaban desencaminados, pero los encargados de poner en práctica la tesis acabaron pasándose de la raya. Con el paso de los años, sobran razones para que millones de usuarios estén hartos de la ´personalización` y la ´localización`, atributos de la publicidad que llega incesante gracias a la popularidad de los smartphones.
Según las estadísticas, el 11% de los usuarios de Internet recurren a alguna forma de bloqueo de publicidad; en números absolutos, los que usan software con esa función han pasado en dos años de 54 a 181 millones de individuos. Visto desde otro ángulo, sólo el 8% de los anuncios son bloqueados por sus destinatarios, de modo que habría margen para corregir el rumbo si se supiera hacia dónde.
La coartada de la iniciativa de Apple no es otra que la de «mejorar la experiencia de navegación móvil». Puede hacerlo porque su modelo de negocio no depende de la publicidad: iAd es un actor marginal mientras para Google los usuarios de Apple son una gran fuente de ingresos. Lo cierto es que, en los días siguientes a la salida de iOS 9, tres aplicaciones de bloqueo (Peace, Purify y Crystal) se apuntaron en la App Store colocándose entre las cinco más descargadas de la tienda.
Google es el más obvio candidato a sufrir esta penalización: el 90,3% de los 66.000 millones de dólares que ingresó en 2014 fueron generados por publicidad supuestamente relevante para los usuarios en base al historial de sus búsquedas. Irónicamente, Chrome ha tenido mucho que ver con el problema, al integrar extensiones de bloqueo para acelerar la navegación. Pero no será Google la principal víctima, aunque dependa en demasía de la publicidad. En la práctica, los más afectados serán los editores de medios online, las agencias de publicidad y los creativos, que estos días debaten qué hacer. Se han hecho algunas cuentas: un estudio respaldado por Adobe estima que el bloqueo de anuncios puede costar a la industria publicitaria 21.800 millones de dólares en ingresos perdidos.
Si las cosas fueran tan graves como parece, tal vez los grupos editores y los anunciantes [¿por qué no también los propagandistas del todo vale en Internet?], deberían repensar el rol que la publicidad desempeña en nuestras sociedades conectadas. De poco vale el argumento abstracto de que los usuarios que limitan la publicidad «violan el contrato implícito por el cual acceden a los contenidos sin pagar» [muy pocos medios han conseguido monetizar su presencia en Internet en magnitud suficiente para sustituir otras fuentes].
También es inconducente reprochar falta de ética al programa más popular de este género, AdBlock Plus, que cobra dinero por incluir determinados sitios y anuncios en una ´lista blanca`. Una práctica que la industria califica de extorsión.
Como el problema no es nuevo, lleva tiempo hablándose de soluciones posibles. Advertising Age las enumera para llegar a la conclusión de que ninguna ofrece garantías. La persuasión para que sea el usuario quien inscriba sus sitios favoritos en la lista blanca, no funciona. Parece que tampoco sirve la coerción judicial: en Alemania, dos denuncias de editores contra Eyeo, la empresa que está detrás de AdBlock Plus, fueron desestimadas porque «no es anticompetitivo requerir un pago a cambio de la inclusión en una lista» y porque «no viola el copyright ayudar a los usuarios a eliminar anuncios que les disgustan».
Otra posibilidad, la inserción forzada de software antibloqueo, tendría corto recorrido y sería contraproducente. Los advertorials [o contenidos patrocinados] como supuesto atajo, a los usuarios les huele a carne podrida. El organismo sectorial IAB (Interactive Advertising Bureau) ha montado un grupo de trabajo que no ha ido más allá de recomendar la elaboración de estándares de aceptabilidad para que los anuncios retengan la atención de los usuarios.
Todas las partes implicadas han alimentado al monstruo: la publicidad interactiva lleva el problema en su apelativo: empieza pretendiendo que el usuario se quede absorto ante un pop up atractivo, se espera que pinche en un banner o en un vídeo y se acaba tratando a ese usuario como un target diagnosticado por las nuevas herramientas analíticas. Así, puede que algún día tengamos que lamentar aquello de «entre todos la mataron y ella sola se murió».
Desde que Oracle empezó a desglosar sus resultados para reflejar su adscripción al negocio cloud, cada trimestre se plantea el mismo dilema: ¿hay que dar más importancia al ritmo con el que suben los ingresos por cloud o al de bajada ¿correlativa? de los generados por la venta de licencias de software? Con la presentación de las cuentas del primer tramo del año fiscal 2016, cerrado en agosto, ha vuelto a plantearse. El vuelo de Oracle hacia la nube se acelera: la facturación de SaaS y PaaS creció un 34% y la de IaaS un 16%. La suma de ambas categorías arroja 616 millones de dólares, con lo que la contribución del cloud es del 7% sobre el total de 8.448 millones ingresados.
Nuevamente, había dudas de si esa contribución sería suficiente para compensar el descenso, lento pero firme, de los ingresos tradicionales. Estos, con un mayor peso relativo [un 69% del total] están condenados a seguir bajando. ¿A qué velocidad? Entre junio y agosto, las nuevas licencias retrocedieron un 16% y, unidas a las actualizaciones y soporte, el descenso fue del 4%. Parece sostenible, pero condicionará los resultados del año fiscal, que se prevén entre el 2% negativo y el 1% positivo.
Hasta aquí, mi resumen sería este: Oracle ha conseguido meterse tardíamente en la batalla por el mercado cloud, pero está lejos de ser un actor de primera línea en el segmento IaaS donde no puede igualar a Amazon y Microsoft. Al mismo tiempo, defiende razonablemente bien, dadas las circunstancias, su legacy business.
Larry Ellison ya no ejerce como CEO, pero volvió a llevar la voz cantante en la sesión. Lo primero que dijo fue que estos últimos años han sido para Oracle la «fase startup» del negocio cloud, y aun así se ha colocado como número dos del mercado SaaS/PaaS, acercándose rápidamente al número uno (Salesforce, su némesis favorita de los últimos tiempos).
Frederich Grieb, analista de Nomura Securities se quedó con una impresión positiva, pero no dejó de consignar que «los resultados del Q1 pueden haber decepcionado a los inversores escépticos sobre cómo se está ejecutando la transición». Distingue Grieb tres razones para esa inquietud de sus clientes: 1) los márgenes del negocio cloud tienden inexorablemente a bajar, 2) no está claro en qué medida el crecimiento del cloud se consigue canibalizando ingresos por licencias ni a qué presión competitiva están expuestos y 3) el cash flow podría sufrir por las inversiones en infraestructura para atender las necesidades del cloud«.
El argumento de los márgenes fue respondido por la co-CEO, Safra Catz, quien pronosticó que el margen de beneficio operativo generado por cloud subirá este año del 40% al 60% y alcanzará el 80% en 2017. Para marcar la línea de rentabilidad, recordó que los contratos de cloud implican ingresos recurrentes por suscripción, por tanto diferidos, mientras las licencias on-premise se contabilizan de una vez. «Las dos partes hay que verlas por separado, pero el software on-premise, con un crecimiento modesto, es una base preciosa para mantener la lealtad de nuestros clientes».
A la segunda objeción pareció responder Ellison cuando destacó – el estilo es el hombre – que entre los grandes clientes que usan productos de Oracle en sus centros de datos se encuentran algunos de sus competidores: «SAP usa Oracle para Ariba, usa Oracle para SuccessFactors y usa Oracle para Concur; NetSuite usa Oracle y, como todo el mundo sabe, Salesforce es uno de los mayores usuarios de Oracle».
En cuanto al impacto del capex, tocó a Mark Hurd, el otro CEO, precisar que la infraestructura cloud de Oracle ya está instalada, por lo que la inversión se estabilizará ajustándose al negocio: «hemos desplegado 19 datacenter en 14 países, multiplicando 90 veces nuestra capacidad de entrega […] con más de 40.000 dispositivos físicos, más de 100.000 máquinas virtuales y más de 8 petabytes de almacenamiento».
Por supuesto, el dilema inicial no estará resuelto durante bastante tiempo. El modelo cloud es visto generalmente como el futuro de los servicios TI, pero no todas las compañías de software han sido igual de rápidas en sumarse a él. Oracle ha tenido motivos para llegar tarde, pero ahora está irremediablemente jugada a esa carta.
La profusa e interesante documentación preparada para el Analyst Day de HP [puede consultarse en] era el pastel, pero los comensales se lanzaron a por la guinda. Del briefing de Meg Whitman, lo que saltó a los titulares fue el anuncio, a mes y medio de la segregación de la compañía, de que serán necesarios entre 25.000 y 30.000 despidos adicionales, que «eliminarán la necesidad de futuras reestructuraciones». Lo que sin duda eliminarán será el 10% de una plantilla que a finales del 2014 contaba con 302.000 empleados. El ahorro se estima en 2.700 millones de dólares anuales, pero lo concreto e inmediato serán unos costes de reestructuración de – curiosamente – 2.700 millones de dólares a provisionar de los resultados de este año.
Desde que en septiembre del 2011 asumió el puesto de CEO, con la compañía desquiciada, Meg Whitman habrá eliminado en total 88.000 empleos. La secuencia ha sido consistente con la trayectoria que han seguido los ingresos [pasaron de 127.200 millones en 2011 a 111.400 millones en 2014] y los beneficios [de 7.074 millones a 5.013 millones, respectivamente].
Con esta nueva ronda de despidos se pretende que HP Enterprise (HPE) nazca el 1 de noviembre con una estructura de costes sin rémoras, valora Crawford del Prete, consultor senior de IDC, quien apostilla que Meg Whitman será la CEO de la compañía segregada. En lo fundamental, se aplicará a la rama Enterprise Services, el negocio más vulnerable de la compañía. En una entrevista al programa Squawk on the Street, de la CNBC, Whitman explicó que el cambio tecnológico, al ser más rápido de lo que nadie esperaba, obliga a desplazar actividades intensivas en mano de obra a países de bajos costes, «con mucha más automatización de la que hoy tenemos». Se espera que la proporción de empleados en la prestación de servicios en países low cost pase del 42% actual al 60%
También la otra mitad de la histórica compañía, HP Inc (HPQ), tendrá que sacrificar empleos, pero en menor medida. Según Cathy Lesjak, CFO designada, el año próximo se eliminarán 1.200 puestos de trabajo, y así hasta un total de 3.300 al llegar 2018.
Tras haber hecho de la promesa de turnaround su caballo de batalla durante cuatro años, Meg Whitman el martes dijo a los analistas que la compañía está viviendo un cambio ´from turnaround mode to growth mode` y predijo que la tasa de crecimiento anual de HPE será del 4,4% en los próximos tres años. Se curó en salud precisando que en gran medida va a depender de la economía mundial. En primera instancia, cosechó escepticismo: «¿es una previsión realista, cuando la mitad del portfolio está condenada a no crecer?», le preguntó el respetado analista Toni Sacconaghi. A lo que la CEO respondió: «es realista, siempre y cuando cortemos el achicamiento de los servicios».
Esta cadena de acontecimientos sería contraproducente si algún día Meg Whitman pensara en volver a la política [que se lo digan estos días a la precandidata Carly Fiorina, a quien sus rivales le reprochan los despidos de los años en que dirigió HP]. Pero, a lo que importa: la noticia de los despidos ha tenido el efecto más apreciado, una subida del 4% de la acción en Wall Street.
El anuncio conjunto de la futura memoria no volátil, que a priori sería revolucionaria, no es una noticia para enterados. O no debería serlo, por cuanto implicaría una gran mejora en el almacenamiento de datos, crucial para la industria y los usuarios. Intel y Micron, socios del proyecto, están comprometidos a que sus productos salgan al mercado a mediados del año que viene. Sin embargo, no serán el mismo producto: se han puesto de relieve discrepancias entre ambos. Con ocasión del IDF, convocado por Intel en agosto, se ha confirmado que el sistema de entrada y salida que cada compañía propone es diferente, y por consiguiente las memorias no serían intercambiables. Un problema muy serio. Leer más
De pronto, la adquisición de O2, filial británica de Telefónica, por el grupo grupo Hutchinson, que se creía despejada, aparece ensombrecida por lo que está ocurriendo… en Dinamarca. En Bruselas circula la especie de que Margrethe Vestager, comisaria europea a cargo de la cartera de Competencia, es más dura que su antecesor Joaquín Almunia. Un juicio elemental – y pelín sexista – que se esgrime ante las primeras decisiones de Vestagher en relación con el sector de las telecomunicaciones: las restricciones impuestas a la compra de Jazztel por Orange y las objeciones a la fusión de las filiales de Telia Sonera y Telenor en Dinamarca, cuyo resultado ha sido que las compañías renunciaran al intento.
«Las discusiones con la Comisión Europea han alcanzado un punto en el que no es posible para nosotros seguir adelante con la operación», dice el comunicado de las operadoras sueca y noruega difundido el viernes 11. Por su lado, un portavoz de Vestagher ha dicho que «es obligación de la DG Comp asegurarse de que ninguna fusión reduzca la innovación ni eleve los precios al limitar las opciones de los consumidores […] En este caso concreto, basándonos en los análisis de nuestros servicios técnicos, estamos convencidos de que la operación sólo podría autorizarse con significativas correcciones».
El contratiempo desbarata las esperanzas de que la nueva Comisión Juncker fuera más comprensiva hacia la consolidación de operadores, y tiende una nube sobre dos transacciones pendientes de aprobación: la antes mencionada en Reino Unido, y la fusión en Italia de 3 (Hutchinson) y Wind (controlado por la rusa Vimpelcom). Mientras este enredo no se aclare, es improbable que se planteen otros movimientos de concentración entre telecos europeas, que muchos consideran imprescindible para estimular la inversión en el sector.
La comisaria Vestagher, de nacionalidad danesa, ha declarado que el número idóneo de operadores en Dinamarca debería ser cuatro. Un argumento discutible porque las filiales de Telia Sonera y Telenor – segundo y tercera en ese mercado – comparten la misma red bajo una sociedad conjunta y comercializan sus servicios con marcas separadas. Lo que significa que la fusión no se hubiera reducido de cuatro a tres el número de redes: en Dinamarca hay tres redes, cuatro operadores – los otros son el incumbente TDC y el pequeño HI3G, participado por Hutchinson – además de cuarenta virtuales. Esto, en un mercado de 5,5 millones de usuarios [no mayor que el de una metrópolis europea] a repartir entre 4 concesionarias de espectro y 40 virtuales. El precio medio al usuario final es de los más bajos del continente.
Ninguno de los operadores que han entrado al mercado danés tras la liberalización ha conseguido ser rentable: Orange tiró la toalla al vender sus activos a Telia Sonera, y HI3G tardó una década en tener cash flow positivo. La semana pasada, Telia Sonera y Telenor han avisado que a la vista de los obstáculos, van a cancelar proyectos de inversión en el país.
Según el consultor John Strand (que vive en Copenhague, por cierto), «irónicamente, lo que está a punto de ocurrir en Dinamarca es lo contrario de lo que teme Vestager: los precios subirán, no por culpa de una fusión sino por la falta de fusión».
Una interpretación que conecta con la primera frase de este texto apunta a que Vestager – ex ministra de casi todo en Dinamarca – quiere evitar que sus compatriotas la vean como «blanda» ante los intereses suecos y noruegos. Sin hilar tan fino en los patriotismos nórdicos, su postura puede entenderse como un aviso a la industria a la vez que un anticipo de los problemas que esperan a Google , el expediente más engorroso que ha heredado de Almunia.
Hay otra derivada interesante: la aparente falta de sintonía dentro de la CE entre Vestager y sus colegas Andrus Ansip (Mercado Único Digital) y Gunther Oettinger (Economía y Sociedad Digital). Ansip es de jure responsable del mercado de telecomunicaciones, pero Vestager ejerce de facto una influencia decisiva como vigilante de las reglas de competencia. Esta especie de esquizofrenia normativa fue un tema de conversación durante el reciente encuentro de las telecos en Santander, pero algún falso pudor hizo que no aflorara en público.