wp_head() ?>
En pocos meses, los tres mayores bancos de la economía española – Santander, BBVA y Caixabank – han cambiado sorpresivamente sus consejeros delegados. El trasfondo común es la drástica revolución regulatoria, que se traduce en cambios operativos. En cada una de las tres entidades han pesado circunstancias específicas que ahora no vienen al caso, pero la concidencia no es una casualidad, ni mucho menos. En el caso de la sustitución de Ángel Cano por Carlos Torres en el BBVA, ha sido consumada con una auténtica cascada en la estructura, que la prensa ha interpretado dócilmente como un signo de transformación digital. De hecho, se nos dice, Torres viene de dirigir la banca digital de la entidad, y el adjetivo aparece en varios puestos del nuevo organigrama. ¿Eso es todo lo que pasa dentro del BBVA?
La interpretación difundida conecta con la prédica del presidente del BBVA, Francisco González – el único banquero de su generación con pedigrí binario, a quien recuerdo haber conocido en los 80 como directivo de Nixdorf – que con insistencia advierte sobre la urgencia de adaptar las prácticas bancarias a la irrupción de nuevos actores que no vendrán de las entrañas del sistema financiero sino que se apoyan en un dominio sobre las tecnologías online y usan ese dominio para invadir otros terrenos.
No se trata – o no sólo – de vaticinar que Google y Facebook (o Amazon y Alibaba, por cierto) son adversarios emboscados, que es lo que vino a decir González en su discurso ante el Mobile World Congress de marzo [tuvo menos repercusión que Zuckerberg, qué pena].
Ciertamente, esos y otros gigantes de Internet han acumulado un volumen de liquidez tal y una capacidad de endeudamiento sobrevenida, además de un ingente volumen de datos ante los cuales palidece la mayoría de la banca. Por sí mismos, son susceptibles de generar mecanismos de intermediación al margen de las estructuras bancarias, y esto no ha hecho más que empezar. No necesitan a los bancos y, en la práctica, se adscriben potencialmente al fenómeno llamado shadow banking, que trae de cabeza a los reguladores del mundo entero, preocupados por otra eventual fuente de riesgo sistémico, justo cuando con la secuencia de Basilea II y III creían haber embotellado al genio de la banca.
El tema excede el espacio posible en este newsletter, y hasta puede considerarse excéntrico a los habituales de este blog. Pero las últimas noticias del BBVA me sugieren adelantar elementos de un análisis que dejo para otro día. Desde luego, hay otros componentes, como la divergencia de comportamiento económico entre bloques – y, por tanto, en el flujo de recursos monetarios – o los tipos de interés negativos en Europa que contrastan con la certeza de que Estados Unidos volverá a subirlos antes de un año.
Gracias por la atención, pero tengo que ir al grano: ¿en qué rasgos radica la condición digital de la banca que se anuncia como un crecepelos? En primer lugar, en que su núcleo está regido por redes IP . Obvio, ¿no? Pues no tanto, porque los bancos cargan con una historia, un legado tecnológico y un modelo de relación con sus clientes, que no se pueden cambiar a voluntad. Los clientes sí pueden cambiar de banco y su modo de relacionarse con él.
Un punto clave de la banca digital debería ser la universalidad del acceso, que no se resuelve rediseñando oficinas ni combinando canales on y off. Tampoco es suficiente con estar atentos y activos en las redes sociales. Captación y retención podrían ser pronto conceptos permidos, si los bancos no consiguieran sumergirse en la «vida digital» de sus clientes. El quid de la cuestión es que los usuarios reclaman de los bancos más libertad [y menos comisiones, claro] pero no se inmutan por estar atrapados en un buscador o una red social que saben de ellos lo que ningún banco ha sabido nunca. Por favor, no me tomen por un evangelista de big data.
Tengo la suerte de contar con algunos miles de lectores inteligentes. Y como este blog no acepta comentarios ni anónimos, me ahorro disgustos con ese género de espontáneos de lengua sucia. Quienes quieren comunicarse conmigo, tienen como hacerlo. Lo digo a rebufo de mi crónica del lunes sobre las versiones de venta eventual de Salesforce, que ha despertado mucha correspondencia, en general preguntas que he respondido por vía privada. Entre esa correspondencia quiero destacar una reflexión que me envía Alfonso R, de quien me consta su fidelidad como lector. Me permitiré reproducir lo fundamental, porque puede ser útil a otros interesados en el asunto.
«No estaba en mi cabeza que Salesforce pudiera ser objetivo de compra – arranca Alfonso – por dos motivos: sus 48.000 millones de capitalización y porque no veía quien pudiera digerirla». Lo mismo pensaba yo, pero veo que, objetivamente, no faltan motivos para que Marc Benioff busque salidas a una situación que, de seguir como hasta ahora, podría ser insostenible dentro de un año o dos. Desde que salió a bolsa en 2004, sólo en dos años el crecimiento de sus ingresos se quedó debajo del 30%, y este ha sido el baremo por el que la juzgaban – la juzgan – los inversores.
Sin embargo, ese ritmo se va asfixiando en el plano orgánico, pero se enmascara por sucesivas adquisiciones que añaden portfolio pero no ganancias. Su acción ha alcanzado niveles difícilmente justificables si en lugar de mirar la curva de ingresos se mira la de pérdidas. Salesforce está mostrando síntomas de transformación, no necesariamente favorable: de compañía de alto crecimiento – y por tanto especulativa para los inversores – a compañía madura a la que se le piden cuentas.
El amigo Alfonso aporta un gráfico elocuente que relaciona ambas variables, pero lo que me parece que debo reproducir es su texto: «las compañías SaaS tienen una peculiaridad que las compañías tradicionales [de software] no tienen, y es que pueden hacer crecer sus ingresos perdiendo dinero de forma consistente, sin por ello penalizar el valor de la acción».
Salesforce es el más claro exponente de esas «compañías SaaS», e incluso se puede sostener que Benioff fue el inventor (o el que mejor lo explotó) de ese modelo de negocio. Pero la competencia aprieta, y el crecimiento tiene un techo. Como dice este lector, «compañías como Oracle ligan el precio de su acción directamente al beneficio y su evolución. Actualmente, Oracle tiene una capitalización de 193.000 millones de dólares y un beneficio de 10.830 millones, que da un PER en torno a 19, la varita mágica que liga beneficio y precio de la acción».
No podría explicarlo mejor. «[suponiendo que Oracle acabara comprando Salesforce] un ejercicio simplista indica que sus beneficios serían inferiores. Manteniendo ese PER de 19, se volatilizarían 46.000 millones de los 240.000 millones actuales de la suma de ambas compañías. Esto es, una caída cercana al 20% en las acciones de Oracle». Se puede pensar que Oracle, tras absorber Salesforce, dejaría de ser una compañía de software madura para ser una compañía SaaS en crecimiento. Pero, como otras cuyo modelo de negocio se ha apoyado en la venta de licencias y que han intentado la transición al modelo SaaS, tendría muy complicado justificar una bajada simultánea de ingresos y de beneficio.
Suponiendo que la versión publicada por Bloomberg fuera cierta – no sería la primera vez que un cronista se columpia tras recibir un soplo; Larry Ellison se pensará muy bien si es la mejor opción para Oracle. La pregunta retórica que está en el aire es esta: aparte de su evidente capacidad financiera, ¿tiene Oracle estómago para digerir el atracón?
Charles H. Robbins, más conocido como Chuck Robbins, será el sucesor de John Chambers como CEO de Cisco. Su nombre no era la primera opción en las quinielas internas, pero formaba parte de una terna que el propio Chambers confeccionó hace año y medio, junto con otros dos Senior VP: Rob Lloyd – a priori el favorito – y Edzard Overbeek. Fuera de toda cábala quedaba Gary Moore, teórico número dos pero sexagenario como Chambers. A sus 49 años, Robbins representa el necesario cambio generacional, que se ejecutará bajo la tutela del CEO saliente, que el 26 de julio pasará de Chairman and CEO a Executive Chairman, un matiz articulado para tranquilizar a los inversores.
Con esta apariencia de orden y suavidad, se cierra un ciclo que ha durado dos décadas, desde que Chambers, entonces de 46 años, fue designado CEO en 1995. Cisco facturaba entonces 1.200 millones de dólares; veinte años después, cerrará el actual ejercicio con 48.000 millones de ingresos. Al calor del auge de Internet, que disparó la demanda de sus routers y switchers, Cisco llegó a ser brevemente la empresa con más alta capitalización de Wall Street (550.000 millones de entonces), pero sobrevino la crisis de las puntocom y …
Robbins ha pasado por casi todas las experiencias posibles dentro de la compañía, hasta llegar a su puesto actual de vicepresidente mundial de ventas. En su biografía corporativa se ha querido destacar el papel jugado en dos adquisiciones, Sourcefire y Meraki, consideradas fundamentales para el nuevo rumbo que ha tomado la compañía.
Salvo el caso de ciertos fundadores afectos a seguir al pie del cañón – como Larry Ellison en Oracle – la vigencia de un CEO en esta industria raramente excede los ocho años; Chambers ha sido una excepción a la regla. Su jubilación ha sido descrita como ´inminente` tantas veces, que varios de sus epígonos equivocaron el paso y asomaron la nariz prematuramente, por lo que dejaron la compañía. Si se atuvieran a los usos y costumbres, se me hace difícil suponer que Lloyd y Overbeek seguirán en Cisco el año que viene.
El legado que deja Chambers es complejo. El networking, que históricamente ha sido el core business de Cisco, ha entrado en una época de brutal competición y, como otros segmentos del mercado, vive bajo la presión del concepto software-defined, lo que la ha obligado a acelerar un giro en su modelo de negocio. No por ello ha abandonado el hardware, como prueba su exitosa entrada en los servidores x86. Chambers lo ha intentado casi todo para transformar Cisco, desde una apuesta fallida por el consumo hasta el esfuerzo actual para auparla a la escena del cloud. La seguridad es otro de sus ejes de actividad en los dos últimos años.
Christian Renaud, consultor que trabajó en Cisco en la década pasada, ha escrito que «bajo su liderazgo [el de Chambers] ha atravesado transiciones dolorosas y no sólo ha sobrevivido sino que ha prosperado». Tras una fase de desconfianza bursátil, en cuatro años consiguió duplicar la cotización, y lo hizo sin apenas recurrir al truco de compañías que recompran acciones propias y premian a los accionistas con dividendos para mantener la acción, explican otros admiradores.
El testimonio más elogioso que he leído está firmado por Jayshree Ullal, antigua empleada de Cisco y hoy CEO de Arista, empresa con la que mantiene un duro litigio sobre propiedad intelectual: «respeto mucho a John por haber tenido el coraje y el pulso necesarios para llevar el timón de una empresa como Cisco en las buenas y en las malas». Y después dicen que veinte años no es nada.
Todo lo que esta semana se ha escrito sobre los sensacionales resultados de Apple durante el primer trimestre (segundo de su año fiscal) se puede condensaren una palabra, China, para después tirar del hilo argumental. Esa unidad geopolítica que Apple etiqueta como Gran China – que incluye Hong Kong y Taiwan, lo que no es del todo descabellado – representa el 29% de las ventas totales de la compañía, exactamente 16.823 millones de dólares sobre un total de 58.010 millones. Y como en esa geografía las ventas crecieron un 71%, se acerca el momento en que inevitablemente superará al continente americano (21.316 millones). ). ¿Europa? Un 12%.
Las cifras globales no son lo más interesante, a mi juicio. «Todo lo que ocurre en China es muy bueno para Apple. Nunca he visto una clase media tan numerosa y ansiosa, a la que debemos la mayor parte de nuestras ventas allí», resumió Tim Cook, quien ha dedicado personalmente mucho tiempo a una diplomacia de equilibrista para desactivar todo posible conflicto con las autoridades chinas.
El analista Gene Munster, un auténtico especialista en Apple, considera que «esta historia de crecimiento en China va a continuar», pero advierte que no debería confiarse demasiado, porque el contexto legal y político es volátil e impredecible. De esto han tenido suficientes pruebas otras empresas estadounidenses de tecnología.
El iPhone es, por supuesto, primer actor de esta celebración. Sus ventas en China [vale, en Greater China] crecieron de enero a marzo un 72% en unidades, mientras el mercado chino de smartphones crecía un 5%. Ya es el primer mercado para el iPhone y, viceversa, se discute si fue el primero (IDC) o el segundo (Kantar) en ventas, en disputa con Xiaomi y desalojando a Samsung que era líder hasta el año pasado y confía en recuperarse con sus nuevos Galaxy S6 y S6 Edge, rivales directos de los iPhone lanzados en setiembre. Entretanto, la marca coreana ha vuelto a ocupar la cima del podio del mercado mundial, con 82,4 millones de smartphones despachados frente a los 61,2 millones de Apple.
Como síntoma del apetito de la clase media de la que hablaba Cook, el iPad, que ha declinado en el resto del mundo (-23% en unidades, -29% en ingresos) sigue en alza en el mercado chino. E incluso las ventas de Mac crecen un 31%, frente al modesto 5% del resto de los PC.
En parte, estos fantásticos números se deben a la red de tiendas de Apple en el país, que serán 40 antes de finales de año pero ya atienden pedidos de 350 ciudades chinas.
El analista Munster cree que los productos de Apple se beneficiarán de la lealtad de los consumidores chinos: «no creo que sean muchos los propietarios de un iPhone que se cambien a una marca local como Xiaomi o Lenovo, que pescan en gamas de precio más bajo», escribe en un informe para Piper Jaffray.
Este asunto de la lealtad tiene mucho que ver con el consumo de contenidos y aplicaciones. Según datos no oficiales, China ya es el país con mayor número de descargas que cualquier otro, incluyendo Estados Unidos. Para hacerse una idea de lo que esto significa, recurramos una vez más a un pletórico Tim Cook: en el trimestre, Apple pagó a desarrolladores chinos 5.000 millones de dólares, más de la mitad que en los doce meses anteriores.
El asalto a este mercado «aspiracional» se centra ahora en el Watch, con un énfasis especial en los modelos de lujo, que los nuevos ricos esperan con ansiedad. Más complicado será convencer a los bancos chinos para que se sumen a la iniciativa Apple Pay en condiciones que consideran abusivas. Para esta tarea, Cook ya debería tener preparado el avión, listo para volar a China por enésima vez. Quizás un día tengamos que escribir sobre el exceso de dependencia de Apple respecto de un mercado con demasiadas trampas.
Había fundada curiosidad por conocer y analizar los resultados de la primera earnings season del año en las empresas tecnológicas. Aparte de la conmoción causada por Apple, que va por libre, había un factor que condicionaba las comparaciones con el primer trimestre de 2014: la apreciación del dólar influye sobre esta industria tan globalizada. Tiempo habrá de comentar el fenómeno cuando acabe la estación. Entretanto, he mirado con detenimiento los resultados de VMware, que no es una empresa más, sino que une al mencionado factor otro específico, ha acelerado en este periodo la reconversión de su modelo de negocio.
A priori, los resultados de VMware tienen fácil resumen: 1.510 millones de dólares de ingresos, 11% de incremento [que hubiera sido del 13% en moneda constante, he ahí el efecto dólar] y 196 millones de beneficio neto [decepcionante 1% de aumento] comparados con el primer trimestre de 2014. Satisfactorios para los inversores, que inmediatamente hicieron subir la acción un 5%. Una razón de la acogida es la comprensión de que los números de VMware no suelen destacar al comenzar el año, momento en que las empresas se toman un respiro tras haber gastado sus presupuestos de TI del anterior.
Que en 2015 no ocurriera así, debería demostrar que con el aluvión de productos lanzados a lo largo del año pasado, VMware se está quitando de encima el sambenito de «campeón de la virtualización» y ha aprendido a moverse con soltura en un mercado en el que todos – vendan lo que vendan – están bajo el poderoso influjo del cloud computing. En la conferencia con analistas, Pat Gelsinger, CEO de la compañía, pronunció esta frase que tendrá que demostrar a lo largo del año: «nos hemos situado en el centro de la transformación que está experimentando la industria TI, gracias al portfolio más completo en la historia de la compañía».
Si Amazon, Microsoft o IBM pueden presumir y presumen – con mayor o menor detalle – de los buenos resultados de sus negocios cloud, ¿qué espacio ocuparía VMware, durante décadas actor imprescindible en el datacenter? Con ese precedente, ¿cómo seguir siendo relevante en la era de la nube ? Son preguntas pertinentes. Porque el nuevo modelo de negocio de la compañía californiana pasa por un conjunto de soluciones de lanzamiento reciente, cuya adopción explica el cambio de perfil del trimestre. Y del próximo, según dijo Gelsinger.
VSAN – presentada en 2014 – es una solución de almacenamiento definido por software, que ha permitido a VMware ganar autonomía con respecto a EMC, su principal accionista. También es novedosa la integración de otros productos de su cartera con NSX, networking definido por software que compite cara a cara con Cisco, aliada hasta no hace mucho. Destaca también la gradual progresión de AirWatch, hoy una división especializada en EMM (enterprise mobile management).
En lo que va del 2015, VMware ha presentado con cierto ruido vSphere 6, nueva versión de un producto histórico en su cartera, con la finalidad de crear entornos coherentes de mediación entre nubes públicas y privadas, así como la firma de un acuerdo – aún no puesto en marcha – con Google por el que los clientes de esta puedan acceder a las nubes públicas a través de vCloud Air. Por cierto, vCloud Air ya está disponible en Europa como estandarte de la estrategia de nube híbrida que proclama VMware. Por último, la semana pasada, la compañía cruzó otra frontera al presentar dos proyectos open source, con los que pretende despejar las dudas de quienes sostienen que VMware mantiene una actitud reticente ante Openstack y desconfiada hacia Docker, que muchos ven como amenazas a su posición históricamente adquirida.
Intensa actividad, pues, en un trimestre pletórico que lleva a Gelsinger a confiar en que el año puede acabar con 6.690 millones de ingresos, que equivaldrían a un incremento del 11%. O del 14% si no existiera el ´efecto dólar`. Este será un tema recurrente en 2015.
Difícil resistirse a la rutina de comentar otro trimestre de IBM. Porque ya va siendo rutina repetir que los ingresos de la compañía han vuelto a achicarse, por duodécimo trimestre consecutivo: en 2011, facturaba 105.000 millones de dólares, que tres años después se han recortado a 92.800 millones. Parece inevitable que vuelva a achicarse más este año. Hay una explicación inmediata y razonable. O dos. Una es la desaparición del negocio de servidores de gama baja, vendido a Lenovo: los 2.400 millones que hace un año generaba el hardware, se han reducido a 1.700 millones. Igualando las bases respectivas, la facturación de hardware habría crecido un 30%, razonó el CFO de la compañía, Martin Schroeter. Y esto, gracias a que los mainframes más que duplicaron sus ventas.
La explicación anterior no alcanza a justificar del todo que los ingresos totales de IBM bajaran en doce meses de 22.240 millones a 19.590 millones, por lo que Schroeter echó mano de otra complementaria: la fortaleza del dólar afecta a una empresa cuyas operaciones en Estados Unidos son minoritarias, y que en ciertas regiones está pasando por una desaceleración de la demanda.
Valen como explicaciones, pero más interesante resulta otro asunto suscitado en la conferencia con analistas. Descaró Schroeter que la desinversión en los servidores x86 tenga un efecto depresor sobre las ventas de software, pero sí que comprime el margen, ya que IBM ha pasado a ser contratista de Lenovo para suministrarle software y servicios relacionados con esa línea de productos. Este tipo de acuerdos son de manual para las desinversiones de IBM: lo aplicó tras vender – también a Lenovo, en 2005 – su división de PC, y una cláusula de corte similar figura en la enajenación de sus fábricas de semiconductores a GlobalFoundries, que sólo se materializará este año.
Lo que ha dado en llamarse «reinvención» de IBM es en la práctica una transición que mueve el eje de gravedad de una empresa que durante décadas giró en torno al hardware: en 2011, esta actividad representaba el 16% de la cifra de negocios, y en 2014 se ha quedado en un 11% que seguirá bajando.
Las esperanzas puestas en nuevas áreas de negocio se manifiestan lentamente en resultados, pero Virginia Rometty se ha fijado – y ha fijado a toda la compañía – que las actividades de alto valor (cloud y analytics, a las que habrá que añadir los frutos del acuerdo con Apple y una nueva división de Internet de las Cosas) lleguen a representar el 40% de los ingresos en 2018.
El beneficio neto del trimestre sufrió un 5% de retroceso, pero el beneficio operativo subió un 4%, desfase que recoge los costes de reestructurar la compañía. Los analistas están obligados a una suerte de estrabismo, consecuencia de mirar a la vez la evolución del negocio y el comportamiento de la acción. Rometty ha tenido el coraje de abandonar la poco sensata política de cortejar a los inversores comprando acciones en bolsa para sostener la cotización: cierto es que una compañía con 13.000 millones de dólares en free cash flow no puede permitirse pagar 4.000 millones de dividendos, dedicar 18.000 millones a recomprar sus propias acciones y, además, invertir lo necesario para salir del apuro.
Desde que Rometty ocupa su puesto, en enero de 2013, la acción de IBM ha perdido un 9% de su valor y la plantilla ha bajado un 12%, malas noticias, pero en el mismo tiempo ha desembolsado más de 8.000 millones para comprar 30 empresas. Según el analista Toni Sacconaghi, IBM debería invertir unos 4.000 millones anuales para que sea realidad la promesa de que las actividades ´de crecimiento` aporten 40.000 millones de dólares en 2018 (en 2014 fueron 25.000 millones raspados). Cuenta Sacconaghi que en julio pasado, la CEO de IBM convocó a los altos directivos a un retiro discreto y les puso una tarea, sólo una: describir en una frase cómo debería ser IBM dentro de diez años. «Sin vacas sagradas», les insistió.
Los comentarios sobre el acuerdo por el cual Nokia pagará 15.600 millones para absorber Alcatel Lucent, han oscurecido otro asunto, este de signo contrario, relacionado con la compañía finlandesa: su declarada intención de vender su división HERE, de cartografía digital y servicios basados en localización (LBS), que se ha quedado descolgada, sin sinergias explotables con el negocio principal de infraestructura de redes. En su origen, esta división debe su existencia a la compra de Navteq, por la que Nokia pagó la astronómica cifra de 8.100 millones de dólares en 2007.
Por aquella época, el negocio de los mapas parecía tener un futuro brillante y la compra de Navteq coincidió en el tiempo con la de TeleAtlas por TomTom. Pero el futuro no llegó, o no fue tan bueno como se esperaba: aquella costosa compra vale actualmente – incluso tras haberla arropado con otras adquisiciones menores – unos 2.000 millones de euros, según estimaba Nokia a finales del año pasado. Los analistas consideran que podría venderla por el doble, dependiendo de quién sea el comprador y para qué quiera comprarla.
Los ingresos de HERE, 959 millones de euros en 2014 se deben, en un 55% (503 millones) a la venta de licencias, principalmente a la industria de automoción, unos 13 millones de licencias. Por otro lado, sus mapas son contratados por Yahoo, Microsoft y Amazon (competidores de Google), y su plataforma LBS la usan compañías como FedEx y UPS. Pero el futuro de HERE está íntimamente asociado al auge del ´coche conectado`. En su última presentación a inversores, vaticinó que los sistemas de navegación van a pasar de una penetración del 26% en los coches nuevos de este año al 36% en 2020, lo que representaría subir de 23,4 millones de sistemas ´embebidos` a 37,4 millones.
Estas hipótesis de crecimiento linear son discutidas por los partidarios de sistemas integrados en tecnologías como CarPlay (Apple) y Android Auto (Google). En la práctica, estas replican en un cuadro de mando las funciones propias de aplicaciones de un smartphone: en ambos casos, aúnan música, mensajería y reconocimiento de voz (Siri, Google Now). El hardware tiene importancia: el procesador de un smartphone es mucho más potente que el que llevan la mayoría de los navegadores de las marcas de coches, lo que influye sobre el tiempo que emplea en recalcular una ruta.
En definitiva, la cartografía y los sistemas de localización son sólo una parte, quizá menor, de la cuestión. Los fabricantes de coches no las tienen todas consigo al respecto: temen quedar cautivos de Apple o Google, pero tienen dudas acerca de la perdurabilidad de sus inversiones en sistemas propios. De momento, HERE es la opción preferida por el 80% de las marcas, gracias a que sus mapas son muy superiores a los gratuitos de proveedores como Google.
Con esta perspectiva de mercado, ¿a quién podría interesar comprar HERE? Nada más desvelarse la intención de venta, saltó un nombre: Uber, cuyas operaciones están ligadas a la información basada en sistemas de localización. Pero podría haber muchos otros candidatos interesados en ocupar ese espacio. Incluso Apple, aunque en cierto modo sería sacrificar las inversiones que tuvo que hacer a marchas forzadas para desarrollar su propio sistema de mapas tras un sonado fracaso en 2012.
Entretanto, Nokia ha invertido en la compra de dos pequeñas empresas relacionadas con la conducción asistida, pero esta empieza a parecer algo limitado al lado de los coches autónomos, una idea de Google que empieza a ser tomada en serio. No está claro si HERE ha hecho suficiente trabajo de I+D para estar a la altura de esa circunstancia. Porque un coche automático, para ser viable en el mercado, necesitaría una precisión y una fiabilidad que hoy no existen. Por esto ha llegado a mencionarse la posibilidad de que sea Google – que tiene sus propios mapas e infraestructura para producirlos – quien acabe comprando HERE aunque sólo fuera para evitar que otro la compre.
Google tiene diez días para responder a la «declaración de objeciones» que le ha enviado la Comisión Europea en relación con el resurrecto caso de presunta infracción a las reglas de la competencia, iniciado en 2010, que el comisario Joaquín Almunia intentó zanjar mediante un compromiso – tres veces, en realidad – y su sucesora en el cargo, Margrethe Vestager, ha reactivado con la implícita amenaza de sanciones. Yo, modestamente, me tomaré diez días, o más, para tratar de entender el asunto y escribir una crónica con fundamento. Entretanto, como la actualidad apremia, me permitiré anticipar algunos apuntes breves, para abrir boca.
1. El origen del litigio se remonta a la denuncia de una treintena de compañías online que acusaron a Google de discriminar contra ellas al dar preferencia a su servicio Shopping en los resultados del buscador. No es un misterio que el pegamento de esas compañías es el lobby i-Comp, financiado por Microsoft, aunque esta no es directa en la batalla legal.
2. Cuando se inició el procedimiento contra Google, los ingresos de esta ascendían a 17.500 millones de dólares, cinco años después, han trepado hasta 65.000 millones. No es sólo un salto cuantitativo sino una evidencia de que el punto de vista de la CE sigue atascado en las denuncias pasadas, mientras el mercado ha dado varias vueltas [por citar un ejemplo: Facebook ha pasado de 200 a 1.400 millones de usuarios, y de perder dinero a ganarlo a espuertas].
3. Aunque han tenido mucho trabajo, los sucesivos comisarios a cargo de Competencia han tendido a buscar acuerdos con los presuntos infractores. Entre 2010 Y 2014, Joaquín Almunia cerró por las buenas el 90% de sus expedientes, pero encalló en el intento de convencer a sus colegas de Comisión de aceptar el trato. Ese fracaso habrá empañado para siempre la acción de un excelente comisario europeo.
3. Quiero decir algo sobre la insistencia de estos días en señalar el paralelo con el empeño de Microsoft durante diez años contra lo que Steve Ballmer llamaba ´persecución` de la CE [recuérdese: por empaquetar su media player como parte de Windows, seguido de otro sobre Internet Explorer]. No estará de más subrayar que acabó perdiendo la partida, pagando una multa y – digamos que por coincidencia – fue por aquellas fechas cuando empezó su decadencia.
4. Al respecto, se menciona la posibilidad de una multa que podría llegar hasta el 10% de la facturación de Google, unos 6.000 millones de dólares en números redondos. Speculatio precox, lo llamo yo: abundan los casos en los que la sanción ha sido compulsiva pero no monetaria, por abuso de posición dominante. Esas experiencias, y la sinuosa táctica negociadora que los pupilos de Eric Schmidt han seguido hasta ahora, alegarían contra una resistencia que podría ser estéril, además de costosa. Claro que, en todo caso, sus arcas podrían soportar la carga, pero esto no sería lo peor.
5. Google tiene problemas mayores que atender. Sus ingresos pierden gas: en lugar del 13%, crecerán previsiblemente un 8% este año, según un informe de Morgan Stanley. Sería, de todos modos, un buen crecimiento, pero a los accionistas empiezan a disgustarles que su dinero se emplee en ciertas inversiones que ven como una distracción. En su mercado natural, los usuarios recurren cada vez menos al motor de búsqueda generalista y cada vez más a los de información local, en los que Facebook mueve sus fichas. Esto se traduce lógicamente en descenso de influencia y, por tanto, de ingresos publicitarios.
6. Es innegable el trasfondo político del caso. No, como se quiere hacer ver, por una dicotomía ideológica entre free riders y reguladores obtusos. El problema de fondo es el temor en Bruselas a que «la infraestructura digital sea controlada por un puñado de compañías americanas que pueden llegar a dominar la vida del siglo XXI» [la frase es de Sigmar Gabriel, actual vicecanciller en el gobierno de coalición de Alemania]. Mientras esto ocurre, no ha aflorado en Europa ninguna alternativa creíble a Google en ninguno de sus campos de actuación: los auténticos rivales prosperan a pocos kilómetros de Mountain View o más lejos, en China.
7. Pasada la inevitable rabieta, y el recurso consiguiente, es posible que Google se allane a alguna fórmula que Almunia no fue capaz de encontrar. Pero, aunque así ocurriera, habida cuenta del poder que acumula, y de la variedad de servicios que presta, las fuentes potenciales de litigio no faltarán. Si se han gastado cinco años en llegar a este punto, podemos imaginar cuanto puede tardarse en dilucidar el otro frente que acaba de inaugurar la comisaria Vestager: una estrenada investigación acerca de las implicaciones del control de Google sobre Android y, por extensión, de todo su ´ecosistema´.
Por último, será anecdótico, pero me ha divertido mucho un reportaje del New York Times que explora un (verosímil) paralelismo entre Margrethe Vestager y la protagonista de la serie danesa Borgen, que tanto me ha gustado y que es definida como la réplica europea a El Ala Oeste de la Casa Blanca. Tal vez sea un efecto lateral de la candidatura de Hillaty Clinton, pero el periódico subraya el hecho de que la primera ministra de Dinamarca y su antigua ministra y hoy comisaria europea son mujeres. Hilan muy fino.
Asombrosa concisión: «Alcatel-Lucent $ALU & Nokia $NOK deal simply value destructive to Nokia shareholders» tuiteó el consultor Juha-Pekka Helminen, ex director de estrategia de Nokia. La reacción de los inversores ante la noticia de la compra de Alcatel-Lucent por Nokia ha sido negativa: la acción de la compañía finlandesa cayó brutalmente antes de que se suspendiera la cotización en la mañana de ayer al anunciarse el acuerdo por valor de 15.600 millones de euros, pagadero en acciones.
Muchos analistas han retuiteado la drástica opinión de Helminen. La idea de que concentrar en un solo polo europeo [con una dosis de lo que resta de Lucent] para contrarrestar la avasalladora competencia china, despierta escepticismo. Hay quien sostiene que los dos años estimados para alcanzar una integración eficaz – que empezaría por despidos en masa – serán una pérdida de tiempo. Más les hubiera valido – dice esta tesis – dar la batalla especializándose en los segmentos en los que cada uno tiene mejores capacidades competitivas. De ahí que durante las últimas semanas se hablara de una transacción limitada, en la que Nokia se quedaría con los activos de Alcatel-Lucent para redes celulares. Al final, la complementariedad resultó más atractiva que la especialización.
No puede decirse que fuera una sorpresa. Los rumores arreciaban en los últimos meses, y sólo faltaba que se cumpliera un requisito: que se vieran los primeros frutos del plan Shift, elaborado meticulosamente por Michel Combes, CEO de Alcatel-Lucent. Los ingresos descendieron un 3% pero los márgenes mejoraron gracias a los sistemáticos recortes de costes, y a un incremento del negocio de routers IP, el más rentable y que representa una quinta parte del total. El negocio wireless – un tercio de las ventas – dio un incremento del 4%. Estos datos, los mejores desde la fusión entre Alcatel y Lucent, fueron suficientes para que la novia estuviera vestida de manera presentable.
El origen de la operación se puede rastrear más atrás. Cuando vendió su división de móviles a Microsoft, Nokia recibió un buen dinero que, junto con la capacidad de endeudarse, empleó para reiventarse nuevamente, y para ello adquirió a Siemens su participación en la empresa común NSN. En este nuevo rol, como suministrador de equipos de red para operadores, Nokia empezó a pensar en una consolidación europea para resistir la ofensiva de sus competidores chinos, particularmente Huawei. Para Rajeev Suri, CEO de Nokia, el futuro siempre ha estado claro: pronto acabará habiendo sólo tres competidores.
Una posibilidad teórica, que alguien ha llamado la «opción nórdica», una fusión con Ericsson, resultó imposible, porque Hans Vestberg, CEO de la compañía sueca, rechazó la invitación. Y si el más rico no quiere, de poco sirve que los pobres insistan. Una vez desechada la unión del primer y el tercero del mercado, no quedaba más que unir al tercero y el cuarto, con lo que la cifra de negocios del nuevo conglomerado igualaría la de Ericsson, cuyo liderazgo está siempre amenazado por el avance de Huawei . El mercado mundial quedará configurado como una proyección de las cifras que ofrece este gráfico del Financial Times.
El precio acordado parece demostrar dos cosas: 1) la precaria estabilidad de Alcatel-Lucent, cuyo valor en bolsa era de 12.000 millones de euros antes de subir con los rumores, de modo que la prima puede considerarse inexistente, y 2) la posición dominante que en las negociaciones ha tenido Nokia, quizá motivada porque los resultados de Alcatel-Lucent en el primer trimestre hayan sido mediocres, y cuando antes se cerrara el trato, mejor. Para Combes porque puede presentar la venta como un buen desenlace de su breve gestión, y para Suri porque Nokia se elevará – en principio – a unos 40.000 millones de euros de capitalización y 26.000 millones de ingresos anuales, y lo ha logrado sin desembolso, pagando con acciones según una ecuación de 0,55 de Nokia por cada una de AlcaLu.
Un análisis sereno de la operación debería incluir el coste de la reestructuración en dos empresas que ya han vivido [más AlcaLu que Nokia] la dureza de los recortes de plantilla. La geografía de la industria va a cambiar, y puede que la actitud de los operadores también cambie. El ranking del sector se alterará, como es obvio, de modo que en teoría para finales del 2016 habrá un triple ´empate técnico`. ¿Y si tres fueran demasiados?
Bill Hift, VP de HP responsable máximo de los negocios cloud, metió el dedo en el ventilador al dejar caer ante un cronista del New York Times una frase que originó el titular «HP capitula ante la nube». Desde luego, el periodista no matiza. Literalmente, la frase en cuestión [la transcribo en inglés, para que no se diga que yo también la he interpretado mal] fue esta: «We thought people would rent or buy computing from us. It turns out that it makes no sense for us to go head-to-head«. Hift respondía a una pregunta acerca de la capacidad de HP para competir con Amazon, Google y Microsoft como proveedor de cloud pública.
¿Derrota o retirada estratégica? Ni una cosa ni la otra, puntualizan los portavoces de la compañía, con evidente incomodidad por tener que aclararlo. No es fácil apreciar, realmente, si Hift se salió del guión o lo que dijo fue un aviso para navegantes acerca de lo que se puede esperar, y lo que no, del negocio a su cargo, con vistas a la segregación de HP a partir de noviembre. Es previsible que será un asunto sobre el que los analistas preguntarán a Meg Whitman cuando, el mes próximo, la CEO de HP presente los resultados trimestrales. Tal vez Hift sólo ha anticipado el mensaje, aliviando la tarea de su superior.
La tesis oficial es que HP nunca anunció una estrategia de cloud pública, por lo que mal podría renunciar a ella. «Creemos que una solución híbrida ofrece las mejores herramientas para responder a las necesidades de nuestros clientes», precisa un documento distribuído a partners. HP cree que la compatibilidad con los proveedores más importantes de nube pública es una parte fundamental de su cartera y, por tanto, concentra en ella su estrategia de cloud, en lugar de intentar competir con ellos.
Este es, pues, el mensaje: la nube pública no figurará entre los segmentos de actividad de la futura Hewlett-Packard Enterprise, y quien diga lo contrario, no se ha enterado. En cambio, dirá Whitman a los analistas, en la nube híbrida el crecimiento hasta marzo ha sido del 24%. Y el reciente anuncio de los servidores CloudLine – subrayará, casi con certeza – sitúa a HP en primer plano del suministro de infraestructura para los proveedores de cloud pública. Amazon Web Services (AWS) y Microsoft Azure no son rivales sino muy buenos clientes. Ahí queda eso.
No todos los analistas son benévolos al interpretar la cuestión. Por ejemplo, Lydia Leong, de Gartner, machaca sobre este argumento: «HP ha tenido una historia tortuosa en relación con la nube […] ha rebautizado y relanzado su oferta varias veces. Su producto actual, Helion, sólo ha conseguido una modesta penetración, y en septiembre pasado, HP redobló su apuesta al comprar Eucalyptus, proveedor de software open source cuya principal carta de presentación era la compatibilidad con AWS partiendo de OpenStack». Este papel de puente, precisamente, era el valor que para HP tenía la adquisición.
La mención de Eucalyptus tiene interés anecdótico. Marten Mickos, su fundador y CEO, se incorporó a HP como cabeza visible de las actividades relacionadas con cloud, pero cinco meses después, en febrero, abandonó la compañía. Se interpretó en ese momento que el estilo abrasivo de Mickos, más propio de una startup que de una organización estructurada, llevó a un «choque cultural» con quien a la postre habría de hacerse cargo de sus funciones, precisamente Bill Hift.
No es todavía el momento para sacar conclusiones sobre el estado del mercado cloud, en sus diversas acepciones. Pero empieza a parecer como si el entusiasmo – forzado, en muchos casos – con el que fue abrazado el nuevo concepto, está dejando paso a una consolidación a la vista del hecho de que no hay asientos para todos. El tiempo dirá.
Pudo haber sido peor, vienen a decir los analistas de IDC. No tiene por qué ser un signo de decadencia a largo plazo, se consuelan los de Gartner. Las dos consultoras han publicado sus informes sobre el mercado mundial de PC y su conclusión es que, en el primer trimestre, los despachos han caído: un 6,7% según IDC, un 5,2% según Gartner. Pero la forma más objetiva de verlo es que ha sido el peor primer trimestre de los últimos seis años.
Ya lo había avisado Intel al publicar sus previsiones de venta de microprocesadores. Después de una segunda mitad de 2014 en la que la demanda de PC tuvo a su favor el eclipse de Windows XP, en el primer trimestre de 2015 ha desaparecido ese factor y, en cambio, han pesado negativamente otros dos: los inventarios acumulados por mor de la oferta Windows/Bing inventada por Microsoft para contrarrestar la gratuidad de Chrome, y la dislocación de los tipos de cambio, unida a unas condiciones macroeconómicas más desfavorables de lo que la propaganda quiere hacer creer.
Jay Chou, analista de IDC, cree que la demanda ´desafortunadamente` es demasiado dependiente del precio como motor principal, y los volúmenes enmascaran un descenso más acusado en los PC de alta gama. Una de las consecuencias es que muchas marcas lo tienen más difícil para competir, por lo que esperamos una consolidación adicional del mercado. En este primer cuarto del año, las dos marcas líderes – Lenovo y HP – han ganado cuatro puntos porcentuales a sus rivales. Salvo el caso de Asus (Gartner lo ve perdiendo cuota), los dos fabricantes punteros fueron los únicos que crecieron con respecto a igual período de 2014, y ya suman el 38,6% del total mundial. Las marcas secundarias – más allá del sexto puesto – han perdido cinco puntos de cuota en doce meses.
Lenovo ha mantenido su primera posición [19,6% del total] y continúa su expansión fuera de Asia; en Estados Unidos todavía está lejos de HP, pero se le está acercando en Europa, arrebatando terreno a otras marcas. Por su parte, el contrario, HP ha aumentado hasta el 28,2% su cuota en EEUU y resiste bien en Europa. La tercera posición de Dell no corre peligro, pero ha vuelto a números rojos que no veía desde mediados del 2013. También Acer ha perdido el ímpetu que tuvo en buena parte de 2014. Asus vuelve a cerrar el pelotón, descabalgando a Apple.
El desglose por categorías revela que los desktop han sufrido un batacazo, mientras los portátiles, híbridos y convertibles han adelantado casillas. Esto lo han entendido Lenovo y HP, que no cesan de presentar nuevos modelos para atender esa demanda. Durante el resto del año, conjetura la analista Mikako Kitagawa, de Gartner, «el reemplazo de la base instalada será propulsado por portátiles ligeros, preferentemente con funciones propias de las tabletas».
Según Gartner, en 2015 el mercado mundial vivirá un moderado declive, que podría preludiar un lento pero consistente crecimiento durante los siguientes cinco años. IDC también cree que el año será flojo, porque – tras la adopción masiva de Windows 7 y Windows 8 – sólo una parte de la base instalada necesita ser reemplazada con urgencia, por lo que no ve un crecimiento positivo.
Queda pendiente la incógnita de la acogida que recibirá Windows 10, y cómo se va a traducir en ventas de nuevos PC, una vez que Microsoft ha dicho que la actualización desde los sistemas operativos anteriores será gratuita durante un año. No se ha informado una fecha precisa para el lanzamiento, pero los fabricantes se preparan para salir al mercado con nuevos laptops (y tabletas) con Windows 10 para el mes de septiembre.
Intento cada día evitar el empleo de ciertas palabras que se nos han adherido como lapas al lenguaje de muchos profesionales de las TI y del periodismo, pero siempre se cuela alguna. Tópicos y expresiones como innovación, transformación, ecosistema, experiencia de usuario, etc. Hay una que últimamente comparece con demasiada frecuencia: omnicanal. El amigo Marcos, que conoce mis manías, amablemente me ha hecho llegar un enlace con el blog de consultor especializado en retail, Steve Dennis, que cuestiona el valor y el sentido de esta palabreja.
Todos sabemos lo que significa multicanal, pero ¿por qué omnicanal, en la que la raíz omni denota ´todos` y no simplemente ´varios`? No les diré mi opinión sino la de Marcos, que es un profesional de la distribución: «desde la irrupción del e-commerce, hemos pasado de la prédica del apocalipsis del canal físico, corriente hace dos años, a conceptos como omnicanal, o webrooming, que al menos dejan un espacio a la tienda de toda la vida». La reflexión me ha venido al pelo para entender dos experiencias que he conocido estos días, las de Decathlon y Telepizza, de las que les hablaré otro día.
Empieza Dennis dando caña: «Una legión de analistas, sabiondos, consultores y vendedores de software frivolizan acerca de algo que, según ellos, debería conducir a un nirvana del comercio centrado en el consumidor. En muchos casos, no hacen más que seguir una moda, en otros simplemente dicen o repiten tonterías». ¡Vaya, Steve, la que nos ha caído! La mayor parte de las empresas que, siguiendo la corriente, se han sumado a la «omnicanalidad» – prosigue – no han obtenido los resultados que esperaban. Las razones son múltiples, según este consultor: «normalmente, puede deberse a que su marca es débil, y de poco vale dispersarla en un sinfín de sitios donde los consumidores puedan encontrarla (si la buscan) y comprar sus productos; antes, deberán haber arreglado ese problema fundamental».
Como es sabido, muchos consumidores compran en distintos canales, según las circunstancia, sobre todo con el crecimiento de los dispositivos móviles, que tienden a diluir las diferencias entre los dos modelos de retailer. No hay un comprador que sólo compre online, pero hay muchos que sólo compran en tiendas. Por esto, apunta, «es difícil imaginar que muchos minoristas sobrevivan si no dan pasos hacia la integración de capacidades web y móviles. Pero muchas marcas piensan que basta con añadirlas sin hacer nada más […] lo cierto es que así no conseguirán diferenciarse, que es de lo que se trata».
Comenta Dennis que muchos ingenuos creen que las tiendas físicas (brick & mortar) van a desaparecer, y el comercio electrónico seguirá creciendo al 15% anual por el resto de los tiempos. Pero…»hay muchas y poderosas razones por las que las tiendas físicas seguirán existiendo; en la práctica, estamos siendo testigos de los límites del modelo online puro; muchos de sus pioneros, entre ellos Amazon, están abriendo locales al público [para determinadas funciones logísticas y comerciales], pero todavía es pronto para evaluar esas experiencias».
Las tiendas ofrecen, o deberían ofrecer, una experiencia social que no puede replicarse en una web o en un smartphone […] Es evidente que los modelos digitales están alterando cada una de las ventajas históricas de las tiendas: un sitio web ofrece más y mejor información que la que se puede esperar de un vendedor a pie de calle; los surtidos son más extensos y los precios suelen (no siempre) ser más bajos.
Sin embargo, afirma rotundamente Dennis, cuyo blog luce el lema Art & Science of Customer Centricity, «pese a toda la explosión del shopping online [en Estados Unidos] el 95% de las transacciones todavía se hacen en tiendas tradicionales.
Llegan las conclusiones. Saldrán ganando los minoristas que acierten en la mezcla de su oferta física y digital, que comprendan mejor los deseos de sus clientes y sean capaces de construir modelos híbridos en los que cada tipo de consumidor sea tratado de manera diferente; esto salvará, en lugar de eliminar, al comercio tradicional. En cuanto a los perdedores… serán aquellos que no comprendan la interacción entre los dos canales, los que insistan con sus tiendas aburridas y sin diferenciarse, los que crean que una estrategia de marketing vale para todo y para siempre.
Internet será todo lo global que se quiera, pero la seguridad en Internet es un problema con nacionalidades y pasaportes. Esto podría explicar, creo yo, la llamativa fragmentación de una industria de la que sería lógico esperar una consolidación transfronteriza, pero está aferrada a líneas de choque estratégicas. En la práctica, son muy pocas las empresas de este sector ´puras` [es decir, aquellas que sólo se dedican a esta actividad] que recaudan más del 40% de los ingresos fuera de sus países de origen. Lo que, a su vez, parece estar relacionado con tres factores conectados entre sí: a) la proliferación de ataques contra infraestructuras de valor estratégico, b) el peso creciente que para muchas de esas compañías han adquirido los contratos gubernamentales y c) la necesidad, nunca confesada, de compartir información con organismos de inteligencia.
Esta digresión inicial viene a cuento de las tensiones geopolíticas que en los últimos tiempos están agitando el mercado de la ciberseguridad. Esto, en una industria que factura unos 70.000 millones de dólares al año, no puede menos que tener consecuencias económicas e impacto objetivo.
Dave DeWalt, CEO de FireEye, una estrella ascendente en este firmamento, ha dicho que no tiene nada de extraño que cada superpotencia cuente con una o más compañías nativas de seguridad, a las que lógicamente otorga preferencia implícita. DeWalt sabe de qué habla: en sus inicios, FireEye recibió una inversión de Q-Tel, vehículo de venture capital de la CIA. Once años después, su negocio es rentable desde que adquirió Mandiant, empresa de seguridad fundada por antiguos especialistas de inteligencia. Según el Wall Street Journal, De Walt ha admitido que «antes de publicar alguno de nuestros hallazgos, nos pensamos muy bien qué consecuencias podría tener».
De manera que la ciberseguridad está íntimamente ligada a la situación geopolítica. El estado calamitoso de las relaciones de la administración Obama con la Rusia de Vladimir Putin, ha creado las condiciones para un incidente, hace un par de semanas. El semanario Bloomberg Business [antes Business Week] publicó un reportaje en el que afirma que Kaspersky Lab tiene «estrechos vínculos» con el espionaje ruso. Las dos pruebas que presenta son muy flojas: 1) que en sus informes periódicos analiza casos de espionaje de Estados Unidos, Reino Unido e Israel, pero no de Rusia y 2) que Eugene Kaspersky, fundador y CEO de la compañía suele compartir noches de sauna en Moscú con notorios miembros del servicio de inteligencia FSB.
El primer argumento chocaría con el hecho de que dos días antes de salir el reportaje, Kaspersky publicó un informe sobre Crouching Yeti, que afectó a numerosos países pero sospechosamente no a Rusia. En cuanto al asunto de las sesiones de sauna más parece indicar una fijación subliminal con secuencias de la serie Soprano.
La cuestión central es esta: ¿tiene Kaspersky relación con la inteligencia rusa? Probablemente sí. He hablado con Eugene Kaspersky cuatro o cinco veces, y recuerdo haberle preguntado por el rumor que entonces ya circulaba (creo que estábamos en 2008). Eludió responder directamente, pero comentó que la desconfianza podría dañar sus planes de internacionalización. Las actividades de Kaspersky fuera de Rusia se centralizan en una subsidiaria británica, y hace cuatro años, montó una filial en Estados Unidos, que al parecer no ha conseguido los contratos a que aspiraba. Supongo que en el ambiente actual, volveremos a oír hablar de ello.
Microsoft cumplió 40 años el sábado pasado, y de no haber sido por un mail colectivo de Bill Gates a sus empleados, pocos habrían recordado el aniversario. Ninguna celebración, ni una mención a Steve Ballmer, que dirigió la empresa durante la mitad de esas cuatro décadas. Todos los parabienes recaen sobre Satya Nadella, CEO desde el año pasado: «bajo el liderazgo de Satya, Microsoft está en mejor posición que nunca […] y cuenta con los recursos para resolver los problemas más arduos de la próxima fase». Una ironía del destino ha inducido este titular de Redmond Magazine: «Microsoft turns 40 as stock drops to 40«: la cotización del viernes 3 (40,29) es muy superior a los 35 dólares con la que la bolsa acogió a Nadella, pero lo cierto es que ha bajado un 20% desde noviembre. Es sólo un detalle.
Lo que en realidad inquieta a analistas (y, por extensión, a los inversores impacientes) es cómo conseguirá Nadella mantener la rentabilidad con la inminente ola de productos y servicios, algunos de los cuales implican introducir la noción de gratuidad. En concreto, a muchos les cuesta entender una estrategia que conjuga dos ideas aparentemente contradictorias: Universal Apps y One Windows. ¿Será capaz Microsoft –se preguntan – de gestionar a la vez sus planes de plataforma cruzada y, al mismo tiempo, convencer a los usuarios de que vale la pena ser fieles a Windows?
Precisamente la semana pasada, Mark Russinovich, CTO de la división de Microsoft a cargo de Azure, dejó caer una frase que no puede haber sido inocente. En una mesa redonda, a la pregunta de si es posible que «alguna vez» Windows llegue a convertirse en open source, Russinovich – que durante años dirigió los proyectos de desarrollo de Windows – respondió en tres palabras: «es absolutamente posible». Una respuesta que puede significar mucho y nada: tal vez no fuera más que un sutil anticipo de algo que se discutirá en la conferencia Build, a finales de abril en San Francisco.
La interpretación más extrema de esas palabras, rápidamente extendida por blogueros afines al movimiento open source, sugiere que Microsoft ya trabaja en un proyecto para abrir Windows. Mary Jo Foley, que lleva 30 años escribiendo sobre Microsoft [«creia haberlo visto todo, pero no estoy tan segura»] sostiene como probable una mayor apertura del código de más piezas de Windows, como ya ha hecho con la plataforma de desarrollo .Net, pero no de todo el sistema operativo.
Que Microsoft dedica desde hace tiempo recursos a trabajar con software abierto en Azure – la responsabilidad directa de Russinovich – no es un misterio. Con Windows 10 se podrá intuir hasta dónde está dispuesto a llegar Nadella. Ha prometido que los desarrolladores tendrán la ocasión de escribir sus aplicaciones sobre un código único para distintas plataformas Windows, y los usuarios la posibilidad de compartir información a través de distintos dispositivos. Para Merv Adrian, analista de Gartner, sería un giro histórico: «lo que Microsoft necesita es ganarse la confianza de los desarrolladores, ser percibida como una compañía cuyas herramientas son útiles más allá de sus propias plataformas».
Mary Jo – me fío más de ella que de la estereotipada comunicación de Microsoft – cita opiniones escépticas, entre ellas esta: «siempre habrá desarrolladores a los que no interese escribir aplicaciones móviles para Windows 10, porque las que Microsoft necesita en su estrategia mobile first no existen en el entorno desktop«. Para vencer esas resistencias, sería necesario acentuar el agnosticismo de Windows, permitiendo que los desarrolladores en C y .Net puedan escribir aplicaciones que funcionen bajo Android: recordemos que Microsoft ha sorprendido a muchos al respaldar iniciativas abiertas como Xamarin o JUniversal, que apuntan en esa línea.
En tal caso, estaríamos ante una especie de plan B, del que se viene hablando desde hace meses como una pura conjetura: si Windows 10 – a pesar de la maniobra de actualización gratuita desde Windows 7 y posteriores y otras iniciativas – no tuviera la acogida que se espera, ¿por qué no aceptar que aplicaciones escritas para Android corran también sobre Windows? Para esto bastaría con alguna forma de emulación, sin llegar al extremo de «abrir» el sistema operativo, que es lo que algunos han entendido de las tres sugerentes palabras de Russinovich.
Lo he escrito hace poco: la industria de semiconductores vive en un clima de consolidación protagonizada no por recién llegados sino por compañías maduras, que necesitan reforzarse ante el devenir de un mercado que se diversifica. Otro factor es el incremento de los costes: diseñar un nuevo chip es cada vez más costoso, y requiere capacidades financieras que pocos tienen a su alcance. En lo que va de año – y estamos en marzo – se han anunciado acuerdos de compra por 21.000 millones de dólares en esta industria, un 122% más que en 2014 por estas fechas. La cifra no incluye la adquisición de Altera por Intel, que podría anunciarse esta misma semana, pero como Altera tiene un valor en bolsa de 13.400 millones, es obvio que el comprador tendrá que pagar una elevada prima.
No ha sido confirmada, pero la versión es consistente, y no quisiera tener que comentarla ex post la semana próxima. ¿Quién es Altera, de la que en estas latitudes pocos han oído hablar? Es uno de los dos mayores especialistas en FPGA (field-programmable gate arrays), un tipo de chips que, al ser programables, pueden ser configurados por los clientes después de su fabricación. Gracias a esa cualidad, Altera y su principal rival, Xilinx, han abierto unas áreas nuevas, que antes requerían productos fabricados a medida
Para Intel, la absorción de Altera se inscribiría en su estrategia de marcar distancia de su histórica dependencia del PC, a la vez que reforzaría su tecnología de procesadores para servidores, Internet de las Cosas e infraestructura de telecomunicaciones, aplicaciones militares y de control de procesos. Lo fundamental es que ampliará el rango de sus actividades hacia líneas de negocio con potencial de crecimiento superior a aquellas por las que Intel es más conocida. Combinar sus microprocesadores (MPU) con los PLD (programmable logic devices) daría enormes posibilidades al gigante californiano.
Microsoft, por ejemplo, es cliente de ambas: usa los FPGA de Altera junto con los MPU de Intel como coprocesador para acelerar el rendimiento de sus centros de datos. Por supuesto, la misma combinación podría hacerla Intel una vez integradas, y así mejorar el rendimiento de los servidores equipados con sus chips. Otro factor que puede tener importancia es que los productos de bajo consumo de Altera pueden integrarse con la arquitectura ARM [esto, como poco, cortaría la tentación de algún otro de competir con la x86 de Intel]. ¿Es necesario recordar que la división de productos para datacenter es la más rentable en sus cuentas?
Por cierto, la compra no resolvería el principal problema que sufre Intel, sus poco fructíferos esfuerzos por hacer pie en los procesadores para móviles. Sin embargo, indirectamente, se acercaría a ese negocio, puesto que los chips de Altera son universalmente usados en las estaciones base de los operadores de telecomunicaciones.
La diferencia de tamaño entre ambas es abismal: 50.000 millones ingresó Intel en 2014 – y los MPU representan el 80% – mientras Altera sólo llegó a facturar 2.000 millones. Pero los beneficios de esta crecieron el doble que los de Intel. Así que todo parecen ventajas. El precio tiene que ser por fuerza muy alto. La adquisición más cara de Intel en su historia ha sido la de McAfee (7.700 millones) en 2011. Este dato da una idea del interés que puede revestir para la compañía que dirige Brian Krzanich.
Sin embargo, no sería un hecho excepcional en esta peculiar industria. La operación más reciente fue la compra de Freescale por NXP (por 11.800 millones de dólares), pero meses antes se habían celebrado otras bodas: Cypress con Spansion (1.600 millones), Lattice con Silicon Image (606 millones), y Qualcomm con CSR (2.500 millones), en ámbitos diversos pero todas con un rasgo común, la necesidad de ganar escala para entrar en mercados adyacentes. Casi todas están radicadas en el Silicon Valley, lo que me lleva a pensar (mal) en quienes suponen que al sur de San Francisco sólo prosperan los inventores de redes sociales y aplicaciones. Este newsletter reaparecerá el lunes 6
Se ha puesto mucho énfasis, a mi entender demasiado, en la remuneración que cobrará la nueva CFO de Google, Ruth Porat, pero la noticia tiene otros matices de interés. Después de 30 años de carrera en Morgan Stanley, Porat será la nueva CFO de una empresa cuyo valor en bolsa es de 380.000 millones de dólares y que disfruta de una tesorería de 65.000 millones líquidos. Por ocuparse de tamaña responsabilidad, recibirá un salario anual de 650.000 dólares, más 5 millones de prima inicial y acciones por valor de 65 millones en dos tramos que podrá ejecutar entre 2016 y 2019. ¿Es mucho dinero? Desde luego que sí, pero no le envidio la faena.
Su antecesor, Patrick Pichette, ha dejado la compañía con una carta en la que declara «después de siete años, dejo Google para dedicar más tiempo a mi familia». Si uno toma en serio lo que se escribe en Twitter (yo, no), pocos creen que un tipo de 52 años, que ganaba un salario cien veces superior a la media estadounidense, tenga realmente ganas de gozar de la vida y de la fortuna que habrá amasado. Eso sí que es envidia. Y sexismo: ¿se burlarían igual si Porat, una mujer de mediana edad, dejara su puesto en Wall Street para buscar otro equilibrio en su vida privada?
Lo curioso es que en los últimos tiempos, varios directores financieros han cambiado de aires. Anthony Noto ha dejado Goldman Sachs para hacerse cargo de las finanzas de Twitter. El veterano Peter Oppenheimer se ha retirado de Apple y su puesto de CFO ha sido ocupado por Luca Maestri, hasta entonces controller de la compañía. ¿Tiene algún significado tanta coincidencia?
No hay duda alguna de que hay un factor económico. Todavía no se ha publicado cuánto ganó Porat en 2014, pero según el informe de Morgan Stanley a la SEC, su remuneración de 2013 fue de 10 millones de dólares. Además, acumula 10 millones en acciones que no ha vendido.
Pero, francamente, la tarea que espera a Porat no será menos estresante que la de llevar las finanzas de un banco de inversión. En los dos últimos años, la cotización de Google ha permanecido prácticamente plana, y algunos accionistas han empezado a criticar a Larry Page, cofundador y CEO de la compañía, por lo que consideran inversiones aventureras, en lugar de usar el rico botín para pagar dividendos y retirar acciones del mercado con el fin de elevar la cotización. Se supone (sic) que al proceder del corazón de Wall Street, la nueva CFO sería más sensible a esos argumentos. Un analista de RBC Capital Markets predice «un control más riguroso de los costes y una actitud más transparente hacia los accionistas».
En realidad, la estructura de capital de Google permitiría a Page [así como a Sergey Brin y Eric Schmidt] seguir haciendo oídos sordos a los impacientes. Aun así, el CEO ha explicado que las oportunidades son tan grandes, que lo mejor que puede hacer Google es destinar los ingresos generados por su core business a explotar los nuevos negocios, por exóticos que parezcan a quienes sólo piensan a corto plazo.
Poco se ha escrito sobre otro problema que encontrará la nueva CFO. Google genera fuera de Estados Unidos el 56% de sus ingresos, lo que redundará, mientras el dólar siga en su nivel actual, en no menos de 500 millones de dólares negativos en su cuenta de resultados de cada trimestre. El remedio a esa situación no está en sus manos; lo más que puede hacer Google es comprar empresas extranjeras.
Una interpretación de la mudanza de Ruth Porat predica que Wall Street va perdiendo importancia mientras la gana el Silicon Valley. Es verdad que la banca está sometida a nuevas regulaciones y que las remuneraciones de sus ejecutivos son objeto de escrutinio público. Un CFO de Wall Street vive pendiente de los riesgos, mientras en una compañía de la generación de Google su mayor problema sería el uso más adecuado de la desbordante liquidez. Tomo nota de que el analista de Morgan Stanley Benjamin Swinburne, que habitualmente escribe sobre Google, opina que la mayor contribución de Porat a su empleador puede ser la habilidad demostrada para moverse en los contextos regulatorios adversos.
Días atrás, Adobe anunció su «tercera nube». Después de Creative Cloud y Marketing Cloud, llega Document Cloud, que es en realidad una reinvención de Acrobat, su producto más popular [35 millones de usuarios registrados, 50.000 millones de documentos pdf abiertos cada año] pero no el más rentable. En su versión cloud, incorpora la tecnología de firma electrónica EchoSign, y pretende revolucionar los procesos de edición, distribución, almacenamiento y gestión de documentos. La expresión «tercera nube» merece una explicación.
No sé si habrá un caso equiparable de conversión de una empresa de software en empresa de servicios. Ni de transformación del modelo de licencia ´perpetua` al de suscripción. En dos años y medio, desde marzo del 2012, Adobe ha manejado admirablemente esa transición: pocos usuarios de Photoshop, In Design o Illustrator comprendieron entonces por qué, en lugar de seguir presentando periódicamente nuevas versiones – que ellos tendían a dejar pasar en espera de la siguiente – Adobe les proponía un régimen de pagos mensuales, cuyo inconveniente era que, si dejaban de pagar, se quedarían sin software. Desde la presentación de Creative Cloud hasta enero de 2015, el número de suscriptores ha pasado de cero a cuatro millones. En tres años, las ventas de software empaquetado no han bajado en la misma proporción.
Desde luego, Adobe es una compañía muy diferente a aquella que visité hace ocho años. Para el CEO, Shantanu Narayen, el riesgo era considerable: las ventas de licencias – sumados todos sus productos – ingresaban 3.400 millones de dólares en 2011, con un margen bruto del 97%; pero, a medio plazo, la curva de renovaciones descendería. No es muy distinto del problema que tendrían en los años siguientes Microsoft, Oracle, SAP y otras empresas de software, cuando decidieron adoptar el hoy generalizado modelo SaaS. En 2014 [su año fiscal cierra a finales de noviembre], Adobe ingresó en total 4.148 millones de dólares, y por primera vez las suscripciones superaron a la facturación por licencias. Su ingreso medio por usuario es alto: 451 dólares por año, o 37 dólares por mes.
Los productos creativos – licencias de Creative Suite más suscripciones a Creative Cloud – suman el 45% de los ingresos totales de Adobe. El segundo gran capítulo es la división Marketing Cloud, cuyo origen se remonta a la compra de Omniture. Hubo quien opinó que era una costosa distracción para una compañía de software, pero la apuesta salió bien: ha tenido una ratio de crecimiento del 83% anual, a favor del boom de social media. En 2014, esta división ingresó 1.200 millones de dólares, pero Narayen ha dicho que «es una oportunidad de 10.000 millones». Esta plataforma de marketing digital tiene competidores muy fuertes, y su especialidad son las herramientas de análisis y optimización, consumer targeting, etc.
A estas dos nubes, se suma ahora la tercera. La familia Acrobat es la tercera en volumen por ingresos, y los análisis contemplan que de 768 millones podría pasar a 1.200 millones a finales de la década, si se cumple el pronóstico de 8,8 millones de suscriptores.
No es mi propósito abrumar con más cifras, sólo poner de relieve un caso digno de reflexión: cuando se habla – a veces con ligereza – del auge de cloud computing, cualquiera sea su acepción, conviene saber que no es un cometa caído del cielo, sino una delicada reconversión en la que lo existente declina y lo nuevo emerge: la dificultad está en manejar con cuidado las dos curvas. Y hasta ahora, hay pocas experiencias que sean realmente rentables. Cuando Narayen tomó aquella decisión, podía intuir que Flash, banderín de enganche de Adobe, estaba condenado a una lenta extinción.
Al ritmo que van las cosas, en 2017, cuando se cumplan cinco años del nuevo modelo de negocio, sabremos si ha sido suficiente; pero con el anterior, difícilmente su acción habría pasado de 38 a 73 dólares.
Tirar del hilo de una noticia suele traer otras noticias, que se explican recíprocamente. Microsoft y Samsung han puesto fin a las hostilidades abiertas cuando la primera acusó a la segunda de resistirse a pagar el canon debido por las patentes de Microsoft que cubren componentes de Android. Pocos meses después, han firmado un pacto por el que el software de una se integrará en los dispositivos de la otra. Es una paradoja, que vale para sugerir que cada compañía tiene un plan B.
El de Microsoft se puede resumir así: ya que los consumidores no corren a comprar dispositivos con Windows Phone, ¿por qué no colocar nuestro software y nuestros servicios en las plataformas ajenas, sean de Apple o de Google? El de Samsung, aunque oficialmente lo niegue, consiste en tomar distancias con respecto a Android, y para ello no vacila en echar un cable al mayor enemigo de Google.
La primera manifestación fue el anuncio, en el Mobile World Congress, de que el Galaxy S6 incluirá software de Microsoft (OneNote, OneDrive y Skype) preinstalado y que Knox Workspace – contenedor de servicios para empresas en los dispositivos de Samsung – incluirá Office 365. Recuérdese que el año pasado Samsung y Google prometieron que la tecnología Knox correría en una versión de Android para el mercado empresarial; pasados los meses, esa versión – Android for Work – se ha anunciado sin rastros de Knox, que sin embargo abre la puerta a Office.
Una desagradable sorpresa para Google. Su modelo de negocio es ingenioso: entregar gratuitamente Android a los fabricantes, para luego ´monetizarlo` con sus propios servicios: el buscador, naturalmente, pero también su suite Google Apps.
La última noticia – por ahora – es que las tabletas (Android) de Samsung van a incorporar preinstaladas las aplicaciones básicas de Office 365. No se ha informado por cuánto tiempo, pero Chris Capossela, director de marketing de Microsoft, ha desvelado en una entrevista con Mary Jo Foley que la estrategia – la adopción del modelo freemium – consiste en captar la buena voluntad de los usuarios de otros sistemas operativos «dándoles un cierto nivel de servicio que les induzca a pagar posteriormente, una vez que los han probado». La idea subyacente es que Word, Excel y otras aplicaciones de Office, añaden valor intrínseco al dispositivo y ayudan a engrosar la base de usuarios de Microsoft, detrayéndola de los de Google Apps.
En la práctica, Samsung avisa que los usuarios podrán desactivar Office si no quieren conservarlo, pero también podrán desactivar las aplicaciones de Android que no les interesen. De hecho, pueden desactivar el buscador de Google. Para que no se malinterprete (sic) este paso, la marca coreana ha explicado que sólo trata de dar respuesta a los usuarios quejosos por no poder eliminar aplicaciones que vienen integradas por defecto y que para ellos son innecesarias.
Tirando del hilo, hay más. Microsoft ha anunciado que las bases del acuerdo con Samsung se extenderán a otros diez OEM para integrar su «servicio de productividad móvil para consumidores y usuarios profesionales» en productos con el sistema operativo Android. La lista incluye en primer lugar a Dell [aparentemente sólo para el mercado de Estados Unidos] y otros 9 en Europa, Asia y África. Entre ellos está la compañía portuguesa JP Sa Couto, pero también el fabricante por cuenta ajena Pegatron.
Es posible que sea más fácil negociar con estas marcas que con otras globales como Lenovo, para las que Android es un recurso secundario, y si los resultados fueran satisfactorios en esos mercados, el procedimiento podría extenderse. Es lo que sugiere la cadena de acontecimientos: el año pasado, Microsoft lanzó aplicaciones de edición de documentos bajo iOS y Android, antes disponibles sólo para suscriptores de Office 365. En enero, reveló que acumulaba 80 millones de descargas. O sea: es una estrategia, no una campaña transitoria.
Microsoft no renuncia, ni mucho menos, a vender sus Lumia y sus Surface, pero colocar su software en los dispositivos del líder del mercado, también es un negocio. Mary Jo ha dado en el clavo en su blog: «si alguien tenía dudas de que Microsoft pasaría de ser una compañía de «dispositivos y servicios» [legado de Steve Ballmer] a serlo de «productividad y plataformas» [lema de Satya Nadella], aquí tiene una prueba concluyente».
No ocurre todos los días que una empresa europea compre otra de Estados Unidos, y menos al bonito precio de 11.880 millones de dólares. En verdad, no hay que hacer mucho caso de las aparentes nacionalidades: no hay nada menos patriota que un fondo de private equity, y de esto se trata en este caso, de una transacción arreglada entre los cuatro fondos que mandan en la holandesa NXP, y otros cuatro que controlan Freescale, con sede en Austin (Texas). La fusión que se plantea es reveladora de los movimientos que se observan en un sector que se prepara para luchar por el dominio de dos nuevos segmentos de crecimiento: Internet de las Cosas y el Coche Conectado.
Se necesita tecnología, pero sobre todo escala, y de la fusión va a nacer el número ocho de la industria, con familias de productos complementarios y una valiosa cartera común de patentes. NXP, nacida en 2006 de la antigua división de semiconductores de Philips, ha acordado la compra de Freescale, segregada a su vez, en 2004, de la antigua Motorola. Las dos cotizan en bolsa, pero en la práctica deben su continuidad a sendos consorcios de inversores: KKR, Bain Capital, Silver Lake y Apax la primera, Blackstone, Carlyle, Permira y TPG la segunda.
No son empresas que se unan porque estén en crisis. Al cierre del año fiscal 2014, ambas tuvieron crecimientos de dos dígitos, en parte debidos a su negocio como proveedores de la industria de automoción, que representa más del 20% de sus ingresos.
Tanto NXP como Freescale ven abrirse una oportunidad en el mercado de IoT, otro filón en el que no son recién llegadas: acumulan años de experiencia en microcontroladores y según IHS la compañía resultante será el líder de este segmento sin discusión. Además, NXP tiene cierta fuerza en comunicaciones NFC, y su tecnología la usan Samsung y, recientemente, Apple en el iPhone 6. Freescale conserva un cierto volumen de negocio con el sector militar en Estados Unidos, único elemento que podría merecer objeciones a la fusión.
Pero la clave la señala un analista de la consultora IHS: «la competición más aguda que se avecina en la industria de semiconductores está relacionada con las soluciones de conectividad de bajo consumo; en particular, la compañía fusionada estará bien situada para atender los avances esperados en la interfaz hombre/máquina». Freescale tiene patentada una tecnología de visión para sistemas de conducción asistida, mientras NXP cuenta con larga experiencia en procesamiento de la voz. «La amalgama de ambas categorías asegura simetría estratégica como primer suministrador de semiconductores a la industria de automoción», según el analista.
Que los coches actuales llevan incorporados microprocesadores, no lo ignora nadie. Pero no hace falta esperar al coche sin conductor para saber que los vehículos de gama media incorporarán electrónica digital que hoy es patrimonio de los modelos más caros: infotainment, conexión a Internet, seguridad, navegación y asistencia basadas en reconocimiento de voz. Disponer de estas funciones a bordo exige procesadores más potentes y versátiles, lo que ha atraído a los fabricantes de procesadores con experiencia en PC y smartphones, como Intel, Nvidia y Qualcomm, a acercarse a la industria de automoción. El problema no del todo resuelto es asegurarse de que cumplen unos estándares de fiabilidad más rigurosos que los generalmente aceptados en la electrónica de consumo.
A propósito de la fusión y del papel jugado por los fondos de inversión, se podría hacer una reflexión acerca de la paciencia como virtud financiera. La adquisición de Freescale en 2006, por 17.600 millones, acabó mal y dos intentos de salida a bolsa produjeron magros frutos, de manera que los cuatro grupos quedaron atrapados en espera de mejores tiempos. Han llegado, al parecer, pero la fusión no borra el peso de una deuda que, combinada, sumará más de 10.000 millones, equivalente a una cuarta parte de la capitalización bursátil conjunta.
Quince años. En el trasiego de estas semanas, se me pasó comentar el aniversario del reventón de la burbuja de las puntocom, de marzo de 2000. Aniversario que, casualmente, ha coincidido con otro hito: el índice Nasdaq ha vuelto a los 5.000 puntos, el 10 de marzo, despertando aquella recurrente discusión acerca de si la burbuja podría repetirse. Claro que podría, pero no es lo que está ocurriendo, ni históricamente las burbujas repiten las pautas de las precedentes.
Una estampida de accionistas asustados por su propia insensatez provocó en marzo del 2000 que el índice cayera brutalmente, y para finales del año había perdido la mitad de su valor, siguió perdiendo gas durante los dos años siguientes. La cicatriz tardaría mucho en cerrarse, y el nivel máximo no se recuperó hasta este mes. Entretanto, muchas cosas han cambiado.
El ascenso de los últimos años no ha sido irracional, no se ha nutrido de expectativas huecas sino del incremento de beneficios y dividendos de las cotizadas en ese mercado, que ha ido atrayendo una mayor diversidad. Y, por cierto, se ha depurado de aventureros: en 2000, excedía en un 200% al mucho más representativo indice S&P; hoy está un 20% por encima. Ha ganado en sensatez: colectivamente, los beneficios de las compañías del Nasdaq ascendieron 120 veces en los meses anteriores al estallido; en 2014 el crecimiento ha sido del 21%.
Aquella burbuja fue provocada por una fiebre en torno a Internet. La audiencia online había llegado a 400 millones, que hoy son más de 3.000 millones sin que nadie pierda la cabeza por ello. La publicidad online, que ingresaba menos de 8.000 millones, ha subido a 50.000 millones en Estados Unidos en el mismo período. Pero hay un equívoco en quienes creen que el Nasdaq Composite es un índice de startups.
El cambio más importante es que los principales motores de este mercado no son estrellas fugaces como aquellas que se evaporaron tras la burbuja, sino grandes compañías tecnológicas, ricas y muy rentables, no expuestas a oscilaciones bruscas. Apple, la principal fuente del calentamiento actual, representa el 10% de la capitalización total; nos puede parecer poco o mucho, pero nadie dirá que es una empresa inestable [aunque su valor bursátil llegó a caer un 40% tras el poco feliz lanzamiento del iPhone 5 en 2012]. Además, Apple ejerce lo que ha dado en llamarse ´efecto halo`, empujando al alza a otros que giran en su órbita.
Lo que impulsa a los inversores de hoy no es la expectativa de una espiral de capitalización, ni tampoco los indicadores de Internet, sino algo tan clásico como el rendimiento: en tiempos de intereses planos o negativos, la bolsa ha vuelto a ser una buena opción; esta es la principal explicación de los 5.000 puntos actuales.
Dicen que se han moderado las prisas por salir a bolsa, pero que en la periferia del Nasdaq hay unas 80 empresas que han alcanzado un valor hipotético de 1.000 millones de dólares [y no todas los valen realmente] que esperan monetizar a través de una adquisición. En el auge de las puntocom, hubo quienes destinaron el dinero de los inversores de riesgo para comprar usuarios [paying for eyeballs, se llamaba esta práctica, hoy sospechosa] y eso las llevó a la ruina. Podría volver a ocurrir a quienes se tomen demasiado en serio la cifra de descargas de aplicaciones y juegos, para acumular usuarios que quizá nunca se moneticen. Y, por cierto, la industria del venture capital ha aprendido la lección.