wp_head() ?>
A estas alturas, millones de usuarios (o no) de Facebook conocen la noticia y se habrán formado opinión. La mía, por si a alguien le interesa, es que no veo motivo para extrañarse de que los científicos que trabajan para la empresa hayan investigado el «contagio emocional» en los feeds compartidos durante una semana por 689 millones de usuarios [no es una pequeña muestra sino más de la mitad del universo de la red social] y publicaran los resultados en los Proceedings de la National Academy of Science bajo el título Experimental evidence of massive-scale emotional contagion through social networks.
No ha sido un focus group para determinar qué sabor de yogur gusta más a un grupo representativo de consumidores. El formato del experimento confirma que los científicos de datos no son del todo conscientes de los límites de su disciplina. Reconfirma que la privacidad no es una prioridad para Mark Zuckerberg: su invento es un vehículo para que los usuarios expongan su intimidad bajo pretexto de compartirla con sus ´amigos`. Si los usuarios lo quieren así, no esperemos que Facebook les ponga cortapisas: todo lo más, les proveerá de instrumentos para acotar su visibilidad y, en ciertas circunstancias, hasta pueden arrepentirse.
Sheryl Sandberg, la cada vez más mediática COO de Facebook, se ha disculpado con aparente candor: «no queríamos molestar a nadie». La propia publicación donde aparece el paper lo hizo preceder de una advertencia: «estas prácticas no son del todo consistentes (sic) con el principio de consentimiento informado ni dejan a los participantes la posibilidad de no participar [del experimento]». Si cruzamos ambas reacciones – la disculpa mojigata y la crítica sociológica – encontramos una constante: cada vez que Facebook hace algo que a sus usuarios «no les gusta», se disculpa con la boca pequeña y da un paso atrás, pero con el tiempo vuelve a hacer lo mismo o algo parecido.
Al fin y al cabo, ya lo dijo el joven fundador: «a mi generación, la privacidad le preocupa muy poco». Me temo que, pese a las protestas, tenía razón: su generación seguirá ´compartiendo` cosas que la mía, originalmente analógica, se guarda para sí. Facebook almacena [ay, estas son las perversiones de Big Data] información suficiente para reconstruir la historia íntima de millones de personas. A diferencia de la sentencia europea contra Google en torno al llamado derecho al olvido, como Facebook no es un buscador, se supone que nadie ve ese caudal de datos – salvo con fines ´científicos` – que son la materia prima para unos algoritmos a los que creemos ciegos, sordos [y ojalá también mudos] como condición para que sean neutros. El objetivo es mejorar ´su` comprensión de ´nuestra` actitudes para así estimular ´nuestra´ actividad en la red y el crecimiento de ´su` empresa. ¿Aceptamos que las cosas sean así? Pues vale, sólo unos cuantos activistas se han quejado. Para no irme por las ramas: la opinión que he prometido en el primer párrafo tiene los dos elementos siguientes.
1) Me alarma que una empresa cuyo modelo de negocio se basa en la empatía, tenga en sí misma tan poca empatía hacia sus millones de usuarios como para manipular los datos que voluntariamente han puesto en sus servidores. Adam Kramer, que diseñó el experimento del Core Data Team de Facebook, ha explicado que sólo pretendían mejorar el servicio. El argumento oficial añade que los usuarios han aceptado los términos de uso mediante un clic. Edward Felten, catedrático de computer science en Princeton, califica esta práctica como «ficción legal de aprobación».
2) Veo el episodio como una excrecencia de las teorías circulantes sobre «la economía de la atención», que subyacen en todo modelo de negocio que, basado en la gratuidad de Internet, busca la maximización de la audiencia para su conversión en ingresos publicitarios. A la pregunta ¿qué producto venden las redes sociales?, la respuesta es que los usuarios somos el producto. Hay riesgo de alienación y cosificación [sociología antigua] pero en esto consiste el nuevo ´contrato social` en la era digital.
No puede ser casualidad, sino tendencia. En la misma semana, dos autores – el proteico Michael S. Malone y mi apreciado Richard Waters – han coincidido en plantear la misma cuestión: tres gigantes californianos que durante años han sido capaces de inventar productos y servicios revolucionarios, parecen haber consumido sus energías innovadoras y no encuentran otro modo de seguir creciendo que usar la riqueza acumulada para comprar compañías jóvenes que les aportan esa savia creativa que a ellas les está faltando. Los tres gigantes son Apple, Google y Facebook.
Los cito por orden de aparición en el mercado, pero el planteamiento de Malone empieza por el más joven de los tres. La adquisición de What´sApp no sería un golpe de locura de Mark Zuckerberg sino un método, que ya aplicó en la compra de Instagram, por la que pagó 1.000 millones en 2012. Desde entonces, el número de usuarios de Facebook creció un 4% [lo que ha dado pie a espabilados sociólogos para afirmar que los milennials se aburren y empiezan a desertar] pero los usuarios de Instagram crecieron un 29%, lo que asegura que el negocio inventado por Zuckerberg seguirá rodando. Al mismo método respondería la compra de What´s App: ya que no hay mucho más que pueda hacer con Facebook, ¿por qué no invertir en algo nuevo? De hecho, Facebook ha cambiado de naturaleza, pasando a ser un holding de marcas que requieren diferentes estilos de gestión, por lo que Zuckerberg ha optado por dejar que funcionen por separado.
Malone escribe que ha visto antes un fenómeno similar en la industria farmacéutica: las compañías jóvenes de biotecnología han desarrollado casi todo lo nuevo, han soportado el procedimiento de aprobación y, una vez que estaban a punto para comercializar sus innovaciones, han sido adquiridas por uno u otro de los colosos, siempre apremiados por ganar tamaño [luego dirán que el precio de los medicamentos se justifica por sus costes de I+D, pero muchas veces se trata de costes de adquisición].
En palabras de Waters, «aquí, en el Silicon Valley todos se llenan la boca con las palabras ´innovación` y ´disrupción`, pero la fuerza motriz de la expansión de estas tres empresas es la lógica del alcance, la escala y la diversificación, que sustituyen el dinamismo de los primeros años».
Apple, que en vida de Steve Jobs produjo tres hitos – iPod, iPhone, iPad – lleva cuatro años dando a entender que tiene algo igualmente ´disruptivo` en camino. Según especulaciones alentadas desde Cupertino, el próximo hito sería el iWatch, ya se verá. En estos cuatro años, Tim Cook ha comprado 30 empresas, la última de ellas, Beats, a un precio que habrá hecho temblar la tumba de Jobs . «Con iTunes, Apple hizo mucho más que ninguna otra compañía por inventar el negocio de la música digital, pero el servicio ha perdido la claridad de su marca para transformarse en [una especie de] supermercado del entretenimiento, y ha perdido su ímpetu a manos de servicios de streaming como Spotify«.
Google, que presumía de fomentar la inventiva de sus empleados, en la práctica se nutre de la adquisición de 150 compañías [algunas de ellas un sonoro fracaso] con la permanente obsesión de competir con… Apple y Facebook. Varias de sus compras son exóticas, y lo único que revelan es que, como estos rivales, Google es inmensamente rica, porque en la base sigue viviendo de las rentas de su modelo de negocio original.
Atendiendo a esta descripción, el papanatismo que suscita entre nosotros la aparente omnipotencia de estos tres gigantes, merecería ser revisado. O, como mínimo, leer a otro autor y emprendedor, Salim Ismail, citado por Malone, del que dice que describe una nueva generación de «corporaciones exponenciales»: empresas que crecen 10 veces más rápido que la media, pero que no están estructuralmente dotadas para esa velocidad, por lo que su alternativa es fagocitar otras compañías que todavía pueden innovar con rapidez.
Una conclusión implícita en este razonamiento es que bajo su pregonado dinamismo, los conglomerados tecnológicos están cayendo en un estatismo que pueden permitirse porque son ricos. Los precios que se están pagando por algunas startups sólo se justifican por la expectativa de los inversores que las respaldan de que, en algún momento y en un número suficiente de casos, serán premiados con una oferta que no van a rechazar de ninguna manera.
Me cuentan que la 50ª reunión del ICANN en Londres, la semana pasada, fue una de las más tranquilas que se recuerdan, pero un episodio menor ha saltado a los medios como si hubiera sido un escándalo: la oposición del gobierno de Francia a la aprobación del dominio .wine o su variante .vin. La industria vinícola francesa, y tras ella las autoridades, temen que el sufijo pueda servir de coladero para que productos de baja calidad aparezcan en el mismo plano que los protegidos por las denominaciones de origen, con la consiguiente confusión para los consumidores. En esta postura, han sido secundados por los productores californianos y los australianos, pero esto no ha impedido que ciertos comentaristas anglosajones y francofóbicos se valieran de la anécdota para clamar contra el riesgo de que la soberanía sobre Internet pase a manos de los estados y no, como ocurre desde 1998, en las de un organismo supranacional no lucrativo bajo supervisión estadounidense.
De ahí a sostener que la web podría caer bajo la influencia de regímenes totalitarios, hay un umbral que traspasa, entre otros, un análisis de la Heritage Foundation titulado Protecting Internet Freedom and American Interests. Esta sobreactuación ideológica es un efecto retardado del anuncio de la administración Obama, en marzo, de un plan por el que a más tardar en setiembre de 2015, la agencia gubernamental NTIA rescindiría el contrato por el que cede a ICANN el control sobre el funcionamiento de Internet [que, como todo el mundo sabe, fue en origen un desarrollo del departamento de Defensa] incluyendo la responsabilidad por el sistema de dominios. Para esa fecha, las partes representadas en el organismo – ni público ni privado, sino todo lo contrario – deberían encontrar una alternativa viable y aceptable.
Es curioso que el debate vuelva a aflorar ahora, cuando países como Brasil e India, que animaron la campaña para que la ONU se haga cargo de las funciones de ICANN, ya no presionan sobre ello, porque les inquieta mucho más el espionaje de la NSA desvelado por Edward Snowden. Dentro de EEUU, los think tank conservadores han descubierto otro flanco para acusar a Obama de blandura, y le reclaman que rectifique su decisión.
En los pasillos del hotel Metropol de Edgware Road, donde se celebró la reunión, a nadie parecía preocuparle el asunto, aunque se habrá tratado a puerta cerrada. La alternativa al modelo actual no se ha encontrado, y no es seguro que se encuentre, pero ICANN sigue haciendo su tarea. El debate recurrente en torno a la conveniencia de abrir la mano a los nuevos dominios genéricos sigue centrando los trabajos: hay 1.300 solicitudes aprobadas, pero menos de un centenar ya tienen luz verde para iniciar los procesos de registro y comercialización de dominios. No se puede decir que la idea haya sido un éxito hasta ahora, pero candidaturas no faltan. Y fracasos, tampoco: uno polémico es el sufijo .xyz, al que nadie encuentra sentido. Otro más cercano a nosotros, es .berlin., que pretendía ser el modelo sobre el cual se rigieran otras iniciativas para que cada ciudad europea dispusiera de su espacio en la web como vehículo de promoción de negocios, pero en la práctica se ha convertido en un mal ejemplo de autoregistro, con escaso impacto en las empresas alemanas, que se sienten cómodas asociado sus marcas a las terminaciones .de o .com.
La muy eventual privatización completa del sistema DNS – que también tiene defensores – conjuga matices ideológicos e intereses comerciales, pero en el paisaje sobrevuela el temor a que Google haga valer su condición de primer facilitador de la navegación por la Web para, cuando convenga a sus intereses económicos, convertirse en macroregistro global. Se trata de una hipótesis tan fantasiosa como cualquier otra, pero de ella sí se hablaba en los pasillos. Los partidarios del modelo vigente no descartan que pudiera ser una consecuencia indeseable de la batalla entre Google y Facebook por controlar el mayor número de usuarios. Visto lo visto, opinan, la continuidad de ICANN en su formato actual no sólo es necesaria sino que es la fórmula que da más garantías. Al fin y al cabo, así ha llegado la WWW hasta donde ha llegado.
La sombra del caso Snowden sigue perturbando las relaciones económicas entre Estados Unidos y el resto del mundo. La semana pasada, el gobierno alemán canceló un contrato de servicios con la filial local del operador alemán Verizon, y se lo adjudicó en cambio a Deutsche Telekom. Es un episodio más de las consecuencias de la revelación del espionaje americano sin distinción entre enemigos y aliados. Alemania es un aliado, sin duda. ¿Y China? Esto depende del punto de vista y de las circunstancias. Primera acreedora del gobierno de Estados Unidos y candidata a primera potencia económica del mundo, los recelos que despierta son más que evidentes.
En enero, cuando IBM y Lenovo pactaron en 2.300 millones de dólares la compraventa de la división de servidores x86 de la primera, las partes parecían seguras de que no encontrarían obstáculos. En abril, cuando este cronista fue invitado a una convención de directivos de Lenovo, pudo desayunar con directivos de IBM – también invitados, discretamente pero no en secreto – sin más reparos que los formales. Mas tarde, en la conversación con Gerry Smith, directivo de Lenovo encargado de desarrollar el negocio una vez se haya aprobado la operación, tampoco hubo dudas al respecto.
Desde entonces, las cosas se han complicado políticamente. Barack Obama tiene urgencia por contrarrestar las acusaciones de blandura en su política exterior. No soy quien para decir que China sea un chivo emisario, porque en materia de espionaje nadie puede tirar la primera piedra, pero parece que la administración Obama está atrapada: la derecha republicana le exige mano dura, la industria de las TI le hace responsable por la pérdida de un mercado en el que ponía expectativas de crecimiento. Del otro lado del Pacífico, el gobierno chino aprovecha la circunstancia para apretar las tuercas a empresas como IBM, Cisco, Microsoft y Oracle, a la vez que pone el grito en el cielo por las trabas que las compañías chinas encuentran en EEUU.
Este es el contexto de hipocresía mutua con el que tropiezan IBM y Lenovo para cerrar su contrato. El traspaso de los activos de la primera podría no producirse en agosto, como suponía Smith en la entrevista con este blog. Si así fuera, la cuenta de resultados de IBM seguiría a la baja, y sus competidores usarían en su favor el argumento de la incertidumbre.
A menos, claro está, que IBM y Lenovo puedan ofrecer contrapartidas que salven la cara a los burócratas de Washington. En realidad, la documentación adicional requerida por la CFIUS – órgano dependiente de la secretaría del Tesoro – es un pretexto como otro cualquiera. No tiene sentido sospechar que los servidores x86 puedan representar, en manos de Lenovo, una amenaza para la seguridad del gobierno y las empresas de EEUU hasta ahora son clientes de IBM. No hubo tal sospecha en 2005, cuando IBM vendió su división de PC a Lenovo, por la sencilla razón de que ninguna de las dos tecnologías tiene relevancia «estratégica». Hubo, es cierto, un desplazamiento de compras del gobierno federal en favor de HP y Dell, dos marcas americanas aunque su hardware se produce en China con componentes en su mayoría chinos. Lo mismo podría ocurrir ahora: al fin y al cabo, los servidores de IBM se fabrican en China, y no deja de ser curioso que los empleados de su planta en Shenzhen se hayan puesto en huelga porque prefieren trabajar para un empleador estadounidense que para nuevo patrón chino.
Las negociaciones continúan, y puede que al final la solución haya estado desde el primer día al alcance de la mano: Lenovo se comprometería a que el soporte y mantenimiento de sus servidores en Estados Unidos, tanto de la base instalada como de los que venda en lo sucesivo, sea prestado por IBM durante un período no menor de cinco años. Entretanto, no hay signos de que el gobierno chino esté dispuesto a ceder recíprocamente en su hostilidad hacia la actividad de las empresas estadounidenses en su país.
Escribí hace poco aquí sobre los trastornos nada inocentes que crea la difusión de las expectativas, provocadas por analistas bursátiles que, mediante la socorrida fórmula del ´consenso` condicionan por anticipado la reacción que tendrá la bolsa cuando una compañía presente sus resultados reales. No sé en qué medida esas expectativas han sido infladas por los susurros desde la dirección de las compañías, pero cuando a veces desembocan en una decepción – tampoco inocente – que es causa de oscilaciones en los días posteriores a conocerse los resultados. Esta semana ha ocurrido lo contrario: un ejemplo de enfriamiento oportuno de expectativas por parte de Samsung, con el transparente propósito de evitar que los datos del segundo trimestre precipiten una caída de la acción.
Si es como la cuentan, la secuencia ha sido ingeniosa. En el tránsito hacia una reunión interna, el CFO de la compañía coreana, Lee Sang Hoon, fue interceptado por un cronista que le preguntó cómo serán los resultados trimestrales, que presentará el 7 de julio. ´Not that good` fue la respuesta, inconcebible en un directivo de ese rango. La frase se publicó en la prensa local, fue reproducida por las agencias internacionales y, como consecuencia, el señor Lee ha conseguido que la acción baje gradualmente en los próximos días, en lugar del batacazo previsible. Nada más conocerse la indiscreción calculada, IBK Securities, importante broker de Seúl, ha estimado una nueva caída del beneficio operativo. Si en el primer trimestre fue del 3,3%, hasta 8.200 millones de won (5.900 millones de euros), la hipótesis para el segundo desciende a 7.800 millones (5.600 millones). Cada vez más lejos, pues, del máximo histórico de 10.200 millones (7.300 millones) alcanzado en el tercer trimestre de 2013.
Con estas tres o cuatro cifras a la vista, la cotización de Samsung ha empezado a bajar pero sin estropicio. Lo que merece analizarse es por qué se ha llegado a esta situación, y esto lo explica muy bien la prensa coreana en inglés. Se esperaba que el lanzamiento del Galaxy S5, en abril, iniciaría otro ciclo de recuperación de la división de Telecomunicaciones. Ante el desfallecimiento de la división de TV, y los altos costes en que ha incurrido la de semiconductores, a esa rama le toca aportar el 75% de los beneficios de la compañía. En el primer mes se vendieron 10 millones de unidades del nuevo Galaxy, pero luego parece haber perdido vigor: se deduce de las compensaciones que Samsung ha empezado a ofrecer prematuramente a quienes compren su modelo estrella.
El problema no es sólo el Galaxy S5, aunque todo indica que las ventas de smartphones de alta gama se han desacelerado, no sólo para Samsung sino también para Apple. El resto del catálogo está tropezando con la durísima competencia de las marcas chinas, Xiaomi en primer lugar, que hasta ahora eran consideradas de segundo rango, pero están consiguiendo buenos resultados de ventas, y no sólo en China. Entre uno y otro factor, calcula IBK Securities, los despachos totales de móviles Samsung habrán sumado 78 millones de unidades en el segundo trimestre, frente a los 87 millones del precedente [que no incluían el Galaxy S5]. Obviamente, cuando se cruza el umbral del 30% del mercado mundial, se hace difícil no sólo crecer, sino incluso mantener la cuota. Pero un analista de IDC, menos dramático, anticipa que se repetirá la cifra anterior. Mejor esperar unos días, que arriesgar conjeturas.
Cada día, no exagero, recibo alguna infografía. El procedimiento se ha hecho habitual entre los departamentos y agencias de comunicación para complementar, o sustituir sus notas de prensa, o simplemente llamar la atención sobre un texto que de otro modo no la merecería. Para los medios, desde luego, una infografía puede ser un elemento vistoso y ahorrar trabajo. Pero, como suele suceder, lo que al principio era una costumbre simpática, empieza a resultar cargante. Para mí, quiero decir.
El párrafo anterior me ha sido sugerido por una conferencia que Tim Harford – autor de la deliciosa columna The undercover economist, en el Financial Times – pronunció en abril ante una convención de Teradata, en Praga. No pude asistir al evento, pero me he procurado un resumen de lo dicho por Harford. En lo que viene al caso, advirtió “la desinformación puede servirse camuflada bajo imágenes atractivas e interesadas”. Toda visualización de datos cuenta una historia – afirmó – y lo mejor que podemos hacer es preguntarnos es por qué nos están contando esa historia.
He leído artículos críticos de Harford sobre los excesos de entusiasmo con respecto a Big Data, influidos por necesidades del marketing. En concreto, ha polemizado con el ingenioso Chris Anderson [aquel de “La larga cola”, ¿recuerdan?] que en 2008 publicó en Wired un artículo provocador, titulado Big Data and the end of theory. En resumen, Anderson venía a sostener que si se dispone de un gran volumen de datos y se representan adecuadamente, “los números hablarán por sí mismos”. Harford se revuelve contra esta tesis: “resulta muy fácil ser cínicos acerca de las estadísticas, pero siguen siendo el mejor método que tenemos para entender la realidad de nuestro mundo […]”.
Pero… tras recordar el célebre caso del artículo en Nature según el cual Google habría desarrollado un algoritmo que permitiría predecir una epidemia sin necesidad de ensayos clínicos [luego refutado por Nature, pero que sigue circulando], Hartford advirtió seriamente a los asistentes: “el análisis de los datos no tiene por qué ser omnisciente para ser útil”. En otras palabras, lo esencial no es el volumen sino el método que se emplea en el análisis, y si las conclusiones están predeterminadas por conveniencias previas, lo más probable es que acabe en una pérdida de tiempo.
Volviendo a las infografías, retomo esta otra frase de Tim Harford: “una de las cosas que me preocupan [de la euforia sobre Big Data] es que “el uso de herramientas de visualización pueda llevarnos a ignorar las lecciones de 200 años de ciencia estadística”.
En noviembre pasado, cuando John Chen se hizo cargo imprevistamente del timón de BlackBerry, el barco parecía a punto de hundirse. Creo haber escrito entonces que, aparte de su experiencia en el reflotamiento de Sybase, el mérito de Chen consistía en no tener vínculos emocionales con la empresa que le tocaba salvar. Por eso mismo, no tuvo contemplaciones a la hora de aplicar recortes de plantilla y dejar el casco desarbolado. La historia de cómo se llegó a esa situación, desde el orgulloso Jim Balsilie al patético Thorsten Heins, puede rastrearse en el archivo de este blog.
Desde entonces, los mensajes del nuevo CEO me han parecido erráticos: no llegué a tener claro si se proponía salvar la continuidad de la compañía o ganar tiempo para una venta que salvara a los accionistas (no a los de antes que no consiguieran saltar a tiempo, sino a los nuevos, fondos de especuladores y acreedores). Tampoco entendí si se proponía sacrificar el negocio de hardware, en retroceso o se atrincheraría en el servicio a la clientela corporativa, cuya fortaleza se mide en 85 millones de usuarios. Al final, Chen hizo un poco de las dos cosas.
La semana pasada, algunas cosas empezaron a ser evidentes. BlackBerry es hoy una empresa jibarizada: facturó en el primer trimestre 966 millones de dólares, frente a los 3.070 de un año antes (que ya eran una brutal caída sobre el pasado), pero sigue a flote. Vendió 2,6 millones de smartphones, muy pocos para entrar en cualquier ranking; comparados con los 3,4 millones del mismo período de 2013 la caída no es catastrófica. Ha tocado fondo para volver a subir, dicen los analistas. Y los accionistas, tan contentos porque, aunque sin salir de pérdidas, su tesorería ha pasado de 400 a 3.100 millones de dólares.
Los inversores han querido ver la botella medio llena, y en consecuencia han dado carrete a Chen para seguir maniobrando: la acción de BlackBerry subió de pronto un 12%, pero los analistas son cautos al pronunciarse sobre la sostenibilidad. Al célebre servicio corporativo de BlackBerry le han salido competidores; algunos demasiado pequeños y uno demasiado grande: Samsung ha conseguido la certificación del departamento de Defensa de EEUU para su plataforma Knox, y anda pregonando esta referencia como mérito para ganar clientes corporativos.
Por otro lado, Chen ha hecho una rara jugada. Se ha aliado con Foxconn para producir una nueva familia de smartphones de bajo coste, el Z3 (apodado Jakarta) destinado a hacer volumen en los mercados indonesio e indio (quizá en China) amparándose en el prestigio de la marca. Por menos de 200 dólares, un profesional indio de clase media puede jactarse de usar el mismo móvil (que obviamente no es el mismo) de Barack Obama. Nada más anunciar los resultados, Chen ha mostrado dos nuevos modelos para los mercados desarrollados, como anticipo un poco forzado de su presentación formal, prevista en Londres en setiembre.
Lo más interesante de los resultados anunciados la semana pasada por Oracle no ha sido, con perdón, lo que han visto en ellos los profesionales de Wall Street, lógicamente obsesionados con la ratio earnings per share. Si esta fuera lo importante, el desfase del cuarto trimestre, entre los 2,91 estimados y los 2,87 reales, no justificaría el castigo que la acción de Oracle recibió tras la presentación. Es este otro caso de expectativas frustradas, porque en cierto modo han sido creadas en falso. En el cuarto trimestre, el beneficio neto de Oracle cayó un 4% y en el conjunto del año fue plano. Claro está que cero por ciento de beneficio no es una buena noticia, pero es imperativo preguntarse por qué.
Oracle es una empresa poderosa, de 38.275 millones de dólares de facturación, en un 76% generados por software y servicios. Como otras de su condición, vive una delicada transición desde el confort de las licencias perpetuas al desajuste que implican los ingresos por suscripción. Esta ha sido la clave del año fiscal 2014, y lo será del 2015, que para Oracle acaba de empezar.
Lo más interesante, a mi juicio, ha sido que por primera vez Oracle ha cambiado el esquema de su información financiera para reflejar esa transición. Lo que hasta ahora se catalogaba como Software Revenues pasa a llamarse Software and Cloud Revenues (29.199 millones en 2014, un 5% más). Para no ser tedioso con las cifras, sólo añadiré que 1.627 millones, un 5,6% del total, fueron generados por las dos ramas del negocio cloud: principalmente SaaS y PaaS, secundariamente IaaS. Una estimación oficiosa indica que una quinta parte de los beneficios depende de estas nuevas actividades [o, lo que es lo mismo, que el 80% depende de las tradicionales]
Ahí es donde creo ver la clave de lo que le está pasando a Oracle. No es fácil para nadie en esta industria acertar con el peldaño en el que las dos curvas de ingresos van a cruzarse en la escalera. Mientras ese momento llega, e incluso cuando llegue, hay que aguantar los efectos sobre la rentabilidad. ¿Lo entienden los profesionales de Wall Street? No sólo lo entienden, sino que llevan tiempo reclamando que la ´nube` gane peso y consistencia en el conjunto del negocio, pero al tiempo les gustaría que no ocurriera a expensas del medio de vida tradicional de la empresa. Imposible, tal como está el mercado. Walter Pritchard, analista de Citigroup, reprocha a Oracle no haber cumplido su propia previsión – ni la de los analistas – de ingresos por nuevas licencias en cuarto trimestre, que finalmente cerraron con crecimiento plano. Como las actualizaciones crecieron un 7%, llega a la conclusión de que algo está fallando en la maquinaria de ventas.
En la conferencia con analistas, Larry Ellison y sus lugartenientes se dedicaron a ensalzar los avances de la compañía en cloud computing, un modo indirecto de atenuar la crítica de Pritchard y sus colegas. Sumados, los servicios SaaS y PaaS marchan a un ritmo anual de 2.000 millones de dólares, por lo que Oracle ya sería el segundo vendedor del mundo tras Salesforce [que, por cierto, cerró el ejercicio 2014 con 4.000 millones]. Las suscripciones a esos servicios cloud de Oracle crecieron un 25% en el cuarto trimestre. Alguien con ganas de fastidiar recordó que en el mismo período, los de Salesforce crecieron un 37,5% y los de SAP un 38%.
La mención de estos dos competidores es incómoda porque son viejos y tenaces adversarios de Oracle. Con la particularidad de que Salesforce, que nació para operar en la nube, crece pero no consigue que despegue su rentabilidad, mientras que SAP está pasando dificultades para hacer creíble su estrategia cloud.
Según la proclama de Ellison, enfática como todas las suyas, «en SaaS no tenemos a nadie por delante salvo Saleforce; en IaaS somos más grandes y más rentables que Rackspace […] Tenemos el portfolio de productos SaaS y Paas más completo de la industria, y nos proponemos ser el número uno en ambas categorías». Analistas que participaron de la call – me informa Mario Kotler desde San Francisco – se quedaron con la impresión de que Ellison retomará la costumbre tan suya de crecer por adquisiciones. De momento, parece estar a punto de concretar la compra más cara desde la de Sun en 2010: se trataría de la empresa Micros, especializada en software para tiendas y restaurantes. El precio rondaría los 5.000 millones de dólares.
Aunque ambas partes intentan mantener las formas, es difícil disimular que las relaciones entre Cisco y VMware caminan hacia una confrontación, que podría acabar con la alianza que mantienen junto con EMC. No les hará falta una excusa: el conflicto es público y notorio desde que en octubre pasado VMware anunció NSX, propuesta en la que su preexistente vCloud fue absorbida por la plataforma de virtualización de red de Nicira, como fruto de la impactante adquisición de esta. En esa ocasión, tanto Pat Gelsinger, CEO de VMware, como Martin Casado, fundador de Nicira, se esforzaron en negar que ese producto amenazara la posición de Cisco como vendedor de hardware de red. Puedo atestiguar que no convencieron.
El planteamiento de NSX consiste en crear una capa de software que disocia la inteligencia de la red del hardware que la controla. En potencia, se prometía entonces como una solución barata, pero se hace difícil aplicar este adjetivo al precio de 6.000 dólares por CPU que se ha publicado en principio.
Desde el mismo momento en que VMware compró Nicira, Cisco supo que debía prepararse para el choque, y desde entonces ha insistido en que su modelo de networking, tradicionalmente centrado en el hardware, va a incorporar el concepto de SDN, el mismo que está en el origen de NSX. Con esa finalidad lanzó la alternativa Cisco ONE, que esencialmente es un paquete que ayuda a las redes a ser más abiertas y programables.
Hasta aquí, todo era más o menos previsible, y hasta razonable, pero ardió Troya cuando VMware puso en marcha su programa de canal – tentando a algunos distribuidores de Cisco – y selló un acuerdo para virtualizar los equipos de red de Juniper, tenaz adversario de Cisco. Las palabras subieron de tono, y en el reciente Cisco Live, John Chambers dejó que sus lugartenientes echaran leña al fuego.
La de Cisco y VMware no es una pareja al uso, es un ménage à trois si se cuenta el papel de EMC, unida a ellas en el consorcio VCE para comercializar infraestructura convergente basada en los productos respectivos. El reparto original de papeles – almacenamiento para EMC, servidores y redes para Cisco, y virtualización para VMware – empezó a colapsar en octubre, pero la decisión de Cisco de complementar su línea de servidores UCS con la tecnología de almacenamiento flash adquirida al absorber la empresa Whiptail, abrió el conflicto directo con EMC. El pretexto formal es que UCS no es vocacionalmente una familia de servidores [aunque si lo es en las estadisticas] sino «un sistema de optimización del entorno de computación», según dijo a este blog Paul Pérez, CTO de la división Data Center de Cisco, durante Cisco Live.
En estas circunstancias, las tres compañías siguen unidas en VCE, pero no se privan de tener relaciones promiscuas. Mientras no ocurra nada grave, el estatus podría mantenerse. Pero también romperse en caso de que Joe Tucci, chairman de EMC y caudillo de la ´federación` en la que está integrada VMware, prestara oídos a ciertos analistas. John Maynard, de Wells Fargo, sostiene que «la reunificación de EMC y VMware se ha convertido en un imperativo estratégico» necesario para combatir a unos adversarios llamados IBM, HP, Dell… y Cisco.
EMC podria tomar esa medida extrema, puesto que controla el 80% de VMware, pero no parece estar en los planes de Tucci. Si ensamblar las piezas en una estructura federal es complicado, tratar de reconstruir lo separado podría provocar fricciones.
Todo esto ocurre, amigos, porque en esta industria los ingresos crecen poco o no crecen, y los beneficios no crecen o declinan. Otro día matizaré,
A menos que sea un caso de confusión general, Amazon presentará hoy jueves su propio smartphone. Aun antes de saber de qué se trata, lo normal es preguntarse por qué el anuncio y por qué ahora, ya que se trata de una tecnología que no tiene misterio. Un smartphone vendría a ser el eslabón perdido en la estrategia de Amazon: sus otras piezas de hardware han estado subordinadas al objetivo de vender contenidos – por consiguiente subsidiadas – y el nuevo miembro de la familia no será una excepción.
En principio, estaría basado en una versión propia de Android, que excluye los servicios de Google pero está al servicio de los de Amazon. Es lo que hace la tableta Kindle Fire, y la maniobra ha dado resultado. No tiene mucho sentido discutir qué impacto puede tener como rival de Apple, Samsung y otras marcas, porque Amazon no pretende ser un actor relevante de ese mercado. Véase lo ocurrido con sus tabletas: según IDC, despachó 1 millón de unidades en el primer trimestre, una cuota de mercado de sólo el 1,8%, pero no hay duda de que le han sido útiles para extender el alcance de su negocio principal de comercio electrónico.
El Kindle original era un e-reader que hizo despegar las ventas online de e-books; las tabletas Kindle Fire lanzaron la tienda de aplicaciones de Amazon, el Kindle Fire TV ha sido diseñado para sacar el streaming de video y la descarga a través de Prime. Ahora llega el smartphone [¿otra variante de Kindle?]
El mercado de smartphones es mucho más grande que el de tabletas [este año se despacharán 1.200 millones frente a 245 millones, según IDC], por lo que ofrece un espacio enorme para quien, como la empresa de Jeff Bezos, no busca ganar dinero con el hardware sino con lo que el usuario haga con él. Si sólo consiguiera hacerse con el 1% de cuota, serian 12 millones de smartphones, una base instalada a la que podría sacarle beneficio por otras vías. El precio es un misterio, pero hay que contar con una subvención importante.
La idea subyacente es simple: cualquier dispositivo que Amazon vende con su marca es un instrumento para entablar una relación digital con sus clientes. Tanto mejor si la interacción se produce por iniciativa del usuario decenas de veces al día (en un smartphone) en lugar de docenas de veces por semana (en una tableta).
Entre las supuestas especificaciones, me ha interesado una: llevaría incorporada una cierta tecnología 3D, aparentemente asociada a un interfaz de control y navegación, y consistiría en la confluencia de cuatro cámaras infrarrojas situadas en cada ángulo frontal del aparato. De lo que se deduce que el objetivo no sería desplegar contenidos tridimensionales en la pantalla. Jeff Bezos no ignora que la 3D ha fracasado como argumento para vender televisores y que HTC y LG intentaron en vano aplicarla a sus smartphones durante la efímera moda de 2011. Si Samsung, que domina esa tecnología, no la ha incorporado a sus móviles, por algo será. Más plausible, pero potencialmente enojosa, es la hipótesis de que el usuario podría captar la imagen de un producto en una tienda y, mediante un clic, comprarlo más barato instantáneamente en Amazon.
Otros trucos comerciales son previsibles, como estimular la adopción del dispositivo con promociones de entrega gratuita o cupones de descuento para la compra de libros o música en la tienda online. Pero un smartphone es también un dispositivo multimedia, por lo que los consumidores podrían apuntarse a la oferta de Amazon, que compite con Apple y, recientemente, con Netflix o Spotify.
Es probable que Amazon use la novedad como incentivo para retener y adquirir suscriptores al servicio Prime, que es su gran apuesta para transformar 250 millones de clientes de sus tiendas en suscriptores de pago. El número real es un secreto bien guardado, pero Bezos dijo en diciembre que se cuentan por «decenas de millones de miembros en todo el mundo». Una masa de clientes que sólo puede crecer.
Es un lugar común que en las recientes elecciones europeas los ciudadanos han optado por ajustar cuentas políticas nacionales, sin prestar mayor atención a los proyectos (o carencia de) sobre qué hacer con Europa. Una pena, pero así ha sido. Un parlamento extremadamente fragmentado, sin mayoría y cacofónico, será más propicio a la demagogia y la inacción, cuando sobran los asuntos pendientes. Sin ir más lejos, y sin pretender que sean los más urgentes, los que afectan a la regulación de las telecomunicaciones
La Comisión Europea, ahora en funciones, dejará en herencia un proyecto legislativo pomposamente denominado ´Connected Continent: Building a Telecoms Market´. El juicio que el paquete merece a James Allen, de la consultora Analysys Mason, es tan rotundo que no necesita traducción: «Good politics, bad economics«. Según el analista, «los precios bajos son siempre populares a corto plazo, pero cuando son ineficientes provocan un repliegue de la inversión, y a largo plazo acaban siendo malos para los consumidores». Un punto de vista que no es precisamente nuevo, pero que vuelve a expresarse en un contexto de incertidumbre.
James Allen es también autor de un estudio elaborado por Analysys Mason que recoge un aspecto regulatorio de notorio interés para su patrocinador, Vodafone: las condiciones de acceso de los operadores móviles a la infraestructura de fibra de retorno (backhaul). La opinión de Allen no es menos contundente que la cita anterior: «en el plazo de tres a cinco años, los consumidores europeos se verán severamente afectados por el deterioro de la competencia en el mercado móvil, a menos que los operadores competitivos puedan acceder, a precios razonables, a la infraestructura de los dominantes».
No se trata aquí del despliegue de fibra para prestar servicio al usuario final, en la que Vodafone ha dado un salto competitivo tras la adquisición de Ono, sino de algo distinto. Todo operador móvil necesita conectar sus estaciones base con la electrónica de su red core, y para ello tiene – o debería tener – tres opciones: desplegar sus propios enlaces de microondas, alquilar infraestructura ajena si estuviera disponible, o usar en régimen mayorista regulado la del operador ´incumbente`. En lo que se refiere a los enlaces de fibra, «no siempre están disponibles en las condiciones deseables de interfaces, calidad, velocidad y/o precio», explica Allen, antes de añadir que «la necesidad se agudiza con el crecimiento de tráfico 4G/LTE, en línea con la demanda de los consumidores que reclaman servicios de alta velocidad, que a su vez presionan sobre la estabilidad de las infraestructuras».
Obviamente, el punto de vista de Allen es compartido por Vodafone. El acceso a la fibra de los ´incumbentes` es una de las cuestiones de calado que se espera resuelva la próxima Comisión Europea, respondió el CEO del grupo Vodafone, Vittorio Colao, en reciente visita a Madrid: hacer realidad una auténtica Europa Digital exige anticiparse a eventuales cuellos de botella en la infraestructura y prevenir distorsiones en la competencia, vino a decir.
¿Qué ocurre en la práctica? En la lista de mercados relevantes que la CE ha sometido a consulta previa a ser incluídos en las recomendaciones de las que tendría que surgir una regulación ex ante, no aparece el acceso mayorista a la banda ancha. El analista Allen escribe que «la situación se exacerba por el hecho de que la tecnología de microondas que usan muchos operadores móviles para el transporte de su tráfico requiere actualizaciones regulares y el acceso a espectro adicional en las bandas existentes o nuevas para responder a la demanda. Por otro lado, duplicar los ductos fijos y la infraestructura de fibra sería económicamente inviable e ineficiente». Dudo mucho que alguien en Bruselas esté pensado ahora mismo en esta cuestión.
Los wearables sigue buscando un modelo de negocio idóneo para cumplir con las altas expectativas despertadas por la categoria. La etiqueta designa dispositivos dispares, pero hasta ahora su uso dominante es bastante elemental, como auxiliares para el seguimiento de la actividad física. Según un informe de NPD Group, el año pasado generaron ingresos por 330 millones de dólares, y el 97% de la cifra se lo repartieron tres marcas de pulseras deportivas (Fitbit, Jawbone y Fuelband/Nike) más las aplicaciones para smartphone, encargadas de recoger los datos y transformarlos en gráficos personales.
No es mucho dinero ni tampoco un gran volumen: según Canalys, este año se venderán 17 millones de unidades, que en 2017 serán 45 millones. No van a cambiar la economía de la electrónica de consumo, necesitada de revulsivos. Sin embargo, ningún fabricante quiere quedarse al margen: el crecimiento de la demanda de smartphones depende de los países emergentes, mientras que en los desarrollados roza la saturación. El marketing hace lo que puede para convencer a los consumidores de que sustituyan un modelo por el siguiente – con un chip más potente, una memoria superior, una pantalla más grande y de mejor resolución – a ser posible sin cambiar de marca. Estos argumentos son relativos. Es un axioma que el valor de un smartphone se ha desplazado al software; pero a) los márgenes del software son más estrechos que los del hardware, a menos que se venda masivamente, y b) no hay tanta inventiva para imaginar aplicaciones que se vendan masivamente.
¿Cuál es la alternativa? En la jerga de los vendedores, «una superior experiencia de usuario». Ha de ser atractiva y tener impacto real en la vida del consumidor. La respuesta a la pregunta está llevando a reorientar el propósito de los wearables; reconvertirla de la monitorizacion de fitness a la monitorización de la salud personal. En rigor, la idea se remonta a 2008, sólo que entonces se hablaba de PHR (personal health record) para describir sendos almacenes de informes médicos personales: Google Health (cancelado en 2012) y Healthvault, al que Microsoft no ha renunciado formalmente pero del que no ha vuelto a saberse.
El primer fabricante de smartphones que intuyó este potencial fue Samsung, que equipó su modelo Galaxy S4 (marzo de 2013) con una cantidad de sensores biométricos y una aplicación llamada S Health. Cumplia con el primer requisito (ser atractiva) pero no tuvo impacto real por no estar asociado a un servicio que le diera valor. En el Galaxy S5, redujo el número de sensores embebidos, pero la marca coreana ha seguido proclamando la salud personal como un eje de su familia de dispositivos móviles. El ´reloj inteligente` Galaxy Gear 2 persevera en esa línea, aunque no sea su característica principal.
El paso más reciente lo ha dado Apple, que en su conferencia WWDC anunció HealthKit, software integrado en su nuevo sistema operativo iOS 8 para que partners y desarrolladores puedan explotar las posibilidades de recoger, almacenar y visualizar información de salud personal a partir de sensores específicos y aplicaciones creadas al efecto. Si será una función del futuro iPhone 6 o del supuesto iWatch, no se ha aclarado todavía, pero la plataformas HealthKit arranca con dos partners de importancia en Estados Unidos: la Clinica Mayo y Epic Systems.
Google no podia quedarse sin responder. La semana pasada trascendía que en su próxima conferencia I/O, a finales de este mes, va a rescatar y readaptar su idea del 2008 para rebautizarla Google Fit; será, al parecer, un servicio de registro y acopio de parámetros personales de salud, que estaría basado en Android Ware, la versión de su sistema operativo para wearables, que ha puesto a disposición de varios fabricantes afines. Es poco probable que Samsung se encuentre entre ellos, ya que últimamente tiende a dar preferencia a su propio sistema operativo Tizen, marcando distancias con Android.
Gemma me ha pedido que explique por qué Apple ha aplicado una heterodoxa división de sus acciones. Allá voy. Según la leyenda que lo acompaña, el 7 es un número cabalístico, pero no ha sido por eso que Apple lo ha elegido como patrón del split a razón de 7 x 1. Es habitual que las compañías cotizadas se inclinen por un split de 2 x 1, procedimiento que duplica el número de títulos en manos de los accionistas y divide el precio por dos. En teoría, no debería afectar – al menos inmediatamente – el valor de la compañía. Pero si se hace con frecuencia por algo será. He leído un análisis según el cual «especialmente en el sector tecnológico, algunas compañías han comprendido que la alta cotización de sus acciones es un obstáculo para la democratización de su propiedad».
En abril, cuando Tim Cook, CEO de Apple, anunció la medida que se materializó este lunes, dijo que el único motivo era poner las acciones de la compañía al alcance de más gente, pero en febrero de 2012 se había negado a hacerlo con el argumento contrario. La diferencia tal vez resida en que el difunto Steve Jobs siempre sostuvo que los accionistas deberían sentirse remunerados con el aumento de la cotización, sin pretender recompensas a cargo de la tesorería de la compañía, reduciendo así su capacidad de invertir en innovación. Tim Cook ha endulzado el dogma.
Se han esbozado tesis psicológicas al respecto. Una dice que un split envía al mercado el mensaje de que el timón de la empresa está en buenas manos: ningún consejo lo aprobaría si no viera una perspectiva de crecimiento. Desde luego, invertir en bolsa será más fácil para quienes no tienen un gran capital que arriesgar, pero no por ser aparentemente más baratas, los que tienen (o gestionan) grandes capitales, van a dejar de acumular acciones que prometen buen rendimiento. Por tanto, la explicación tiene que ser más compleja.
Desde 2010, 57 de las 500 cotizadas más grandes de Wall Street han hecho un split. En general, en los primeros meses no pasó nada apreciable, pero luego sus acciones se valorizaron muy por encima de la media. Vale. Pero hay otro movimiento común, que es la recompra de acciones propias para formar autocartera, con lo que de hecho se «seca» la oferta de títulos disponibles, con el resultado de sostener la cotización. Es una fórmula de rendimiento que, por ejemplo, practica sistemáticamente IBM [un guasón ha calculado que, a este paso, en 2031 no habrá más acciones de IBM que comprar, porque todas serán propiedad de IBM].
Un split puede tener la virtud de aliviar la presión que los fondos institucionales y los inversores ´buitre` pueden ejercer, y de hecho ejercen, para que los equipos directivos adopten sus estrategias de valor bursátil. Este parece ser el caso de Apple: algunos de esos ´activistas` inspiran las campañas de ciertos blogs empeñados en sostener que Apple ha dejado de innovar y, por tanto, sus ´fundamentales` están frenados.
Al decir de algunos analistas, Cook tendría en mente una segunda derivada: dentro de un tiempo, Apple – la empresa con mayor capitalización en bolsa, supuestamente la más deseable – solicitaría ser parte del índice Dow Jones Industrial Average, limitado a 30 compañías. Para esa intención, el alto precio de la acción sería un obstáculo, al limitar el volumen de negociación.
No sólo Apple ha procedido a un split últimamente. Google lo ha hecho a su manera, creando una nueva estructura accionarial que refuerza el poder de voto los dos fundadores, de manera que ningún grupo de accionistas podrá dictarles lo que han de hacer con la compañía.
Apple ha pasado por tres splits en su historia: 1987, 2000 y 2005. Quien comprara acciones de Apple el 28/2/2005, hoy tendría un capital quince veces superior. Yendo más atrás en el tiempo, una acción original valdría hoy 5.164 dólares, en lugar de los 645,57 del viernes pasado. No es un caso aislado: Amazon ha hecho tres splits, y su valor teórico sería ahora de 4.000 dólares por acción; Microsoft, que ha hecho nueve a lo largo de su vida, valdría unos 12.000 dólares.
Eso está muy bien, pensará Gemma, pero ¿por qué 7 x 1? La hipótesis es la siguiente: desde hace meses se consideraba que 700 dólares era un precio al alcance [de hecho, la acción subió un 23% desde que se anunció el split]. Si se ajustara según su punto más alto [705,07 dólares el día de lanzamiento del iPhone 5 en 2012] la división daría 100,72. En la práctica, en un fin de semana ha pasado de 645,57 a 93,14. Pero hay quien está al acecho del punto más bajo para sacar partido de una subida, pero a este precio le acción podría ser más volátil.
Los que están en el ajo niegan categóricamente que sea una burbuja, pero tal vez estarían dispuestos a aceptar que es bastante gaseoso que una empresa como Uber – ya saben: junto con Airbnb es el emblema de la llamada sharing economy – pueda ser valorada (sobre el papel) en 17.000 millones de dólares. Uno tras otro, experimentados inversores corren a apuntarse a sucesivas rondas de financiación, y la ruleta sigue girando. Una historia alucinante, verán.
En 2011, Benchmark Capital invirtió 11 millones de dólares, que le dieron derecho al 18% de Uber, fundada un año antes por Travis Kalanick. Si hoy pudiera enajenar sus acciones de serie A – no puede, claro – valdrían 3.000 millones, 280 veces su aportación inicial. En 2013, Menlo Ventures lideró una ronda de 37,5 millones que elevó la valoración teórica a 300 millones. Poco después, otro empujoncito de 258 millones invertidos por Google Ventures la elevó a 3.500 millones. Hay pastel para todos: el pasado mayo otra ronda dirigida por Fidelity Investments recaudó 1.200 millones. Aritméticamente, 17.000 millones de dólares. Sobre el papel, insisto.
Entre los inversores que acudieron a esta última llamada se encuentra Kleiner Perkins Caufield & Byers [KPCB], que tiene entre sus partners a la ilustre analista Mary Meeker [antes en Morgan Stanley]. Si nombro a Meeker es porque se trata de una tenaz negacionista de la burbuja. En su reciente informe sobre el estado de Internet, sostiene que el valor de mercado de las compañías tecnológicas es actualmente el 19% de las que componen el índice S&P 500, por contraste con el 35% que representaban el 10 de marzo de 2000, pico de la burbuja que reventaría días después. Su conclusión es que están lejos de recrearse las condiciones de aquel fiasco. O que hay margen para seguir inflando una burbuja inexistente.
Veamos. ¿Qué hace Uber para merecer tanta atención? Representa un nuevo modelo de negocio centrado en una aplicación que permite a los usuarios compartir su vehículo propio con otros usuarios, en este caso pasajeros, para hacer un viaje en común. Una idea simpática, ecológica y práctica, por la que Uber recauda una comisión. Funciona en 128 ciudades de 37 países, y su fundador ya maneja experimentos del mismo corte: una red logística compartida para el transporte de mercancías, un servicio de courier en Nueva York. Imaginación no le falta, y dinero tampoco.
Kalanick no tiene por qué publicar las cuentas de Uber, que es una empresa privada, pero sin duda las habrá mostrado a los inversores que lo apadrinan. Escapa a la lógica suponer que los ingresos (y no digamos los beneficios, si los hubiera) justifiquen el valor teórico alcanzado. Para medir la escalada, considérese que Hertz, que explota una vasta flota mundial de vehículos de alquiler, tiene una capitalización bursátil de 12.400 millones de dólares, y su rival Avis supera por poco los 6.000 millones.
De todo ello se deduce que la clave no está tanto en las cualidades de Uber, que las tiene, cuanto en la ingente liquidez que manejan los fondos de capital riesgo: parece como si a los inversores les quemara el dinero en las manos. Durante el primer trimestre de este año, según cálculos de Dow Jones, en Estados Unidos se han invertido 10.700 millones de dólares en rondas de financiación de startups que, sin lugar a dudas, sueñan con un futuro como el de Uber, o con una salida a bolsa espectacular, o con ser protagonistas de un acontecimiento sensacional como la compra de What´sApp por Facebook.
Kalanick ya no sueña con eso. En su blog fabula con la misión que el destino ha puesto en sus manos: «cambiar la vida en las ciudades», «transformar el transporte de superficie en un servicio sin límites», «hacer que un coche en propiedad deje de ser un requisito de la vida cotidiana». ¿Que Uber se el centro de las iras de quienes se ganan la vida transportando personas y mercancías? Bah, siempre habrá un economista de Berkeley (o un editorialista de pesebre), para predicar que son intereses corporativos, resabios del pasado.
Vodafone ha sido el primer operador de telecomunicaciones en admitir que sus redes han sido «pinchadas» por servicios de inteligencia en al menos seis de los 29 países en los que presta sus servicios. Otros podrían decir lo mismo, pero no lo han hecho, y puede que lo hagan en las próximas semanas y meses.
A diferencia de las grandes empresas de Internet, que han reconocido su condición de víctimas o instrumentos involuntarios del espionaje de la NSA, y han reaccionado en defensa de su reputación, Vodafone no acusa a ningún organismo ni gobierno en concreto. Algún tuitero que yo me sé ha llegado a la rapidísima conclusión de que «todos son iguales», pero no es lo que yo he leído en el exhaustivo Disclosure Report de Vodafone. El documento identifica a Albania, Egipto, Hungría, Irlanda, Qatar y Turquía como países en los que «no hemos recibido ninguna demanda de intercepción legal, pero las autoridades tienen acceso directo a las comunicaciones de los usuarios». Acerca de otros países, se señalan ambigüedades de la legislación; por cierto, en la página 76 se explica que en España se requiere expresamente autorización judicial para acceder a las comunicaciones de los usuarios.
Con este gesto inusual, Vodafone ha marcado distancias con respecto a ciertos episodios en los que se ha visto envuelta (como en Egipto, durante la revuelta de Tahir), pero sobre todo ha tomado la iniciativa de propiciar un debate acerca de los límites entre privacidad y seguridad: por primera vez, un operador reconoce que forma parte de su responsabilidad social el reconocer la existencia de un problema que hasta ahora sólo parecía inquietar a organizaciones y activistas de los derechos civiles.
La ola levantada – hace justamente un año – por la publicación en The Guardian de las primeras revelaciones de Edward Snowden, ha reventado los parapetos, y todavía se sospecha que puede haber un goteo de nuevas sorpresas. Los vínculos diplomáticos entre Estados Unidos y Europa se han debilitado [en Alemania, una encuesta ha desvelado que sólo el 35% de los ciudadanos creen que el aliado transatlántico es de fiar], por no hablar de las relaciones con China y Rusia. En esta situación endiablada han quedado atrapadas las compañías de TIC.
Por un lado, aquellas que viven de la confianza que millones de usuarios en todo el mundo depositan en Internet, han reaccionado para advertir a Washington que su credibilidad está en el aire, y han desvelado el número de peticiones recibidas para dar información sobre usuarios de sus servicios. Por otro, una compañía tan notoria como Cisco ha escrito una carta al presidente Obama para pedirle contención y transparencia, tras la publicación de fotos [desmentidas por la NSA] en las que se veía la instalación clandestina de dispositivos espía en algunos de sus equipos de exportación. Al presentar sus resultados trimestrales, la compañía atribuyó a este factor la caída de sus ventas en los mercados emergentes, específicamente el chino.
China, en concreto, se ha convertido en la madre de todas las controversias. Durante años, en EEUU se han aireado sospechas de espionaje sobre Huawei, para vetar sus negociaciones con los operadores norteamericanos. El rebote de esas acusaciones puede ser dañino: las autoridades de Pekin han hecho saber que están «revisando» los ordenadores de IBM instalados en los grandes bancos del país, y estudiando la posibilidad de recomendar su reemplazo por suministradores alternativos. Que se sepa, no han tomado ninguna medida, pero la prensa oficial insinuaba que los sistemas de IBM podrían contener «puertas traseras». Días después, se publicaba la noticia de un presunto veto al uso de Windows 8 en los organismos y empresas públicas, sin dar motivos para medida tan extrema.
Bryan Wang, analista de Forrester, ha escrito en su blog que «compañías locales como Huawei, Lenovo e Inspur están sacando ventaja del caso Snowden, y ganando cuota como proveedores de servidores, equipos de almacenamiento y de networking«. Parece improbable que China pueda reemplazar por completo y a corto plazo la tecnología que adquiere en Occidente, pero para las empresas estadounidenses el golpe puede ser duro. A lo largo de años han invertido en ese país, convencidas de que el crecimiento prometido compensaría la decadencia de otros mercados. Y a la inversa: la semana pasada se ha sabido que Lenovo e IBM han pedido al CFIUS (comité que supervisa las inversiones extranjeras en EEUU) más tiempo para presentar documentación adicional sobre la operación pactada en enero, por la que la empresa china compraría activos de la división de servidores de la americana. Se puede suponer que ambas han querido evitarse un disgusto que hace pocas semanas descartaban [vean el viernes próximo mi entrevista con Gerry Smith].
¿De qué hablamos cuando decimos Samsung? Normalmente, de Samsung Electronics, la rama más visible de un conglomerado coreano que acaba de anunciar la próxima salida a bolsa de Samsung Everland, el holding familiar que controla todo el tinglado. ¿Por qué ahora? Hay que ser muy ingenuo para creerse la explicación oficial: «[…]reforzar la transparencia de la gestión, en línea con los estándares globales». Todos hemos leído que el patriarca Lee Kun-hee ha sufrido una crisis cardíaca, de lo que nos atrevemos a deducir que es hora de preparar la sucesión.
Se dice por ahí que el heredero aparente, Lee Jae-yong no está dotado para desempeñar funciones ejecutivas, pero para eso está una plétora de directivos leales. Con independencia de sus cualidades, Jay Lee [así gusta ser llamado] es el único hijo varón del chairman; él y sus dos hermanas controlan el 42% de Samsung Everland, pieza clave del entramado porque de ella se deriva el control sobre Samsung Life, compañía de seguros que, a su vez, es primera accionista de Samsung Electronics. La típica estructura de un chaebol coreano, propiamente un laberinto de participaciones cruzadas. Otro grupo empresarial, KCC, y el fondo nacional de pensiones, apuntalan el dominio de la familia Lee. Se ve muy bien en el siguiente gráfico:
En el fondo, quizás el enfermo señor Lee quiere evitar que entre sus herederos estalle un conflicto como el que él mismo vivió con sus hermanos mayores, que le acusaron [la justicia desestimó este año la demanda] de apropiarse de acciones que su padre, Lee Byung-chu, fundador de la compañía, les había prometido.
En fin, que si todo está atado y bien atado, como se pretende en las dinastías ¿por qué y para qué sacar a bolsa el holding Everland, del que padre e hijos tienen el 46%? Últimamente se han reabsorbido participaciones cruzadas dentro del grupo, lo que da pie a teorías no excluyentes: 1) que las empresas del grupo vendan sus participaciones minoritarias en la cabecera, obedecería al objetivo de acumular recursos con los que financiar su expansión en nuevas oportunidades de negocio o 2) que los hijos del chairman reutilicen los fondos obtenidos por la venta de acciones en el todo, les permitiría reinvertirlos directamente en las partes con el fin de priorizarlas. Ambas teorías, benévolas, confluyen en una supuesta simplificación estructural.
Una tercera teoría es más cínica: un analista del broker coreano Kiwoon Securities comenta: «lo que buscan los herederos es dinero fresco con el que pagar el impuesto de sucesiones a que estarán obligados tras la muerte de su padre» [en el capitalismo coreano, ese impuesto llega al 50% del patrimonio heredado]. Los activos conocidos del patriarca Lee incluyen el 3,4% de Samsung Electronics, el 20,8% de Samsung Life y el 1,4% de la ingeniería Samsung C&T. Al valor actual estimado, sus herederos tendrían un coste fiscal de 6 billones de won (4.300 millones de euros).
La prensa coreana ha advertido que la salida a bolsa de una pieza capital del imperio Samsung podría poner en riesgo la estabilidad bursátil, si se diera el caso de una dificultad seria de la compañía en el mercado mundial: sumando las 24 compañías cotizadas del conglomerado, su valor bursátil equivale a 310.000 millones de euros, un 28% de la capitalización total del Korea Exhange (KRX) y del índice KOSPI.
No entiendo por qué lo llaman simplificación. La economía coreana, asombrosa por muchas razones, presenta una vulnerabilidad insólita, producto del exceso de simplificación: cuatro chaebol suman el 28% de la bolsa: Samsung (28%), Hyundai (12%) SK Group (7%) y el consorcio LG (5,9%). Aunque, claro está, la biología tiene otras reglas.
Un buen amigo me gasta bromas a propósito de una contabilidad que dice llevar sobre cuántas crónicas dedico últimamente a Microsoft. No veo la utilidad del ejercicio ni he comprobado sus cuentas. Pero me parece justo decir que desde que Satya Nadella ocupa el despacho que fuera de Steve Ballmer, Microsoft está dando mucho más juego informativo. Nadella sólo ha cumplido (ayer) cuatro meses en el puesto de mando, y está dando la vuelta a la compañía.
En este tiempo, por ejemplo, negoció discretamente con Apple para que Bing – al que algunos daban por desahuciado – y no Google, sea el motor de búsqueda integrado en Spotlight, que cumple esa misión en el nuevo sistema operativo para Mac, OSX Yosemite. Es una de las novedades – según Mario Kotler, la menos celebrada – anunciadas en la WWDC, y se puede apuntar en la misma lógica de lanzar la versión de Office para el iPad, un viraje con el que Microsoft inauguró la nueva estrategia de favorecer que su software esté presente en tantos dispositivos como sea posible aunque no sean Windows.
Para que nadie confunda sus intenciones al perseverar con el Surface Pro 3, Microsoft respalda esta semana en Computex el anuncio de nuevos productos basados en Windows, entre ellos un dos-en-uno de HP [Pro X2] que podría considerarse como un competidor directo de aquél, y una tableta de Toshiba. De momento, parece que la idea de espolear a la industria con un modelo «de referencia» empieza a tener seguidores.
Windows 8 es considerado por consenso como un fiasco, y cunde la impresión de que a Windows 8.l. no le irá mucho mejor; mientras tanto, Windows 7 se está llevando la mayor parte de las sustituciones de XP, pero no parece que Microsoft se alarme por ello: Nadella ha dado orden de acelerar el desarrollo de Windows 9, con lo que deja ver su disposición a romper el ciclo de vida prolongada que han seguido (o intentado seguir) las versiones anteriores de su sistema operativo. No me extrañaría – lo digo con la debida prudencia – que si estos movimientos salieran bien, el modelo de negocio de Windows puede cambiar radicalmente el año próximo.
Ya he comentado aquí otros movimientos que robustecen Azure como alternativa a Amazon Web Services. La disociación entre Windows y Azure no es sólo nominal: el propio Nadella dijo el otro día que Linus va ganando terreno en su plataforma cloud. Por otro lado, el acuerdo con Salesforce – que todavía no se ha sumado a Azure, pero le falta poco – hay que valorarlo por la originalidad de dar facilidades a un competidor con el que siempre se ha llevado fatal, y que precisamente el mayor obstáculo con el que Dynamics CRM tropieza en el mercado de software como servicio.
Ayer leí una noticia llamativa que abunda en lo anterior: el fichaje de Preston McAfee como Chief Economist de Microsoft, un cargo nuevo en el organigrama de la compañía. Las cualidades de McAfee, según escribe una colega suya, «aúnan la economía, la ciencia de la computación y la ingeniería, un exponente poco común de investigador interesado en la aplicabilidad de sus ideas al mundo real». McAfee es un economista académico que tiene registradas varias patentes en el campo de machine learning.
Si estos antecedentes no fueran suficientes, veamos otros: ocupó el mismo cargo en Yahoo entre 2007 y 2012, año en que pasó a Google como director de tecnologías estratégicas. Harry Shum, VP de la división Microsoft Research, explica así la creación del nuevo puesto: «nuestros modelos económicos están cambiando. En la economía Ford, podías comprar lo que había (un coche de un solo color); en economía Starbucks, te venden lo que pides; ahora estamos en la economía Pandora, compras lo que quieres porque el servicio aprende y se ajusta a tus necesidades y deseos».
Los lectores habituales, incluído mi amigo del primer párrafo, entenderán que me seduzca la idea de combinar la economía y la tecnología; esa es la finalidad de este blog, así que empiezo a imaginar cómo podría ser una entrevista con Preston McAfee.
Hablar de Apple es hablar del iPhone y del iPad, ¿no es cierto? Se entiende por qué: el pasado trimestre se vendieron 44 millones del primero y 16 millones de su prima la tableta. Pero sólo 4 millones de Mac, cuya base instalada, sin embargo, es de 72 millones. Sería muy raro encontrar un usuario de Mac que no lo sea también del iPhone y/o del iPad, de lo que ahora se trata es de forzar la tendencia inversa: convertir usuarios de iOS en usuarios de Mac. Desde hace tiempo, estaba latente la pregunta de qué haría Apple para que las dos grandes ramas de su familia de productos se beneficien recíprocamente: un acercamiento (no una impracticable fusión) entre los dos sistemas operativos les permitiría actuar dentro de un ´ecosistema` común, conservando la singularidad de cada plataforma.
Esto ha sido, en sustancia, lo que se anunció el lunes en la primera jornada de la conferencia de desarrolladores WWDC, convocada por Apple en San Francisco. La anécdota del cambio de la serie de felinos por paisajes californianos, es sólo una anécdota. Lo relevante es que un año después de anunciar Mavericks, de esta última versión de se habían instalado 40 millones de copias, lo que significa que la mitad de los usuarios de Mac se han puesto al día en un año. Ya quisiera Microsoft poder decir lo mismo de Windows. Tim Cook se encargó de recordar con malicia que la cuota de Windows 8 es de sólo el 14% [omitió decir que, a diferencia de Mavericks, no es gratuito].
Lo cierto es que – estadísticamente aunque no sociológicamente – el Mac forma parte del mismo universo que Windows, lo que llamamos mercado del PC. Con una diferencia: en lugar de caer sistemáticamente, las ventas de Mac han resistido, e incluso han logrado arañar algo de cuota en estos años de decadencia ajena. Aunque últimamente flojea, lo que exige una reacción por parte de Apple. En el segmento de consumo, y en ciertas profesiones, Mac tiene bien ganado su estatus, pero le falta dar el salto al de empresas, donde tiene una cuota de mercado manifiestamente mejorable, injusta con sus cualidades.
En cierto momento pudo pensarse que el número creciente de usuarios de iPhone e iPad en las empresas, haría más fácil que estas aceptasen la entrada del Mac. No ha sido así, y el lanzamiento de Yosemite indica que Apple se mueve en esa dirección: su modelo de negocio y su cuenta de resultados empujan a Tim Cook a profundizar en el software y los servicios, en lugar de escuchar a los que gustaría jalear el alumbramiento de una nueva categoría «disruptiva» de hardware.
Yosemite – OSX 10.10, la undécima versión del sistema operativo para Mac – representa un cambio radical, porque conjuga prestaciones de desktop y de smartphone en un mismo concepto, al incorporar Continuity, una función que permite pasar de uno a otro con extrema facilidad. Es, en realidad, una extensión del software AirDrop, que ya permitía enviar ficheros en ambas direcciones entre un iPhone y un Mac, pero en este caso añade la posibilidad de transferir tareas entre uno y otro. Asimismo, los usuarios de Mac y de iPhones podrán usar sus dispositivos para enviar mensajes y hacer llamadas a otros que no sean usuarios de la marca.
Craig Federighi, VP de ingeniería de Apple mostró también un nuevo servicio de sincronización en la nube, llamado iCloud Drive. Es un claro competidor de Dropbox, que permite compartir archivos y carpetas directamente. Hay otras mejoras, pero las dos mencionadas son las que podrían apuntalar una eventual ofensiva comercial de Apple hacia las empresas. ¿Cuándo habrá nuevos modelos de Mac? Cuando toque.
Durante años, Microsoft ha promovido su software Dynamics CRM (primero producto, luego servicio) como «la» alternativa al CRM de Salesforce, pero no pudo debilitar el liderazgo de este. Durante años, el fundador de Salesforce, Marc Benioff, ha lanzado su artillería verbal contra Microsoft: en setiembre, escribió un tuit en el que recomendaba a su competidor el regreso de Bill Gates para resetear la compañía, única solución al «desastre completo» que dejaba Steve Ballmer, que acababa de anunciar su retirada.
Con esos antecedentes, causa perplejidad ver a Benioff junto a Satya Nadella, los dos sonrientes, anunciando un nuevo espíritu de cooperación entre las dos empresas. Si lo pienso dos veces, no es tan raro: lo que está haciendo Nadella es resetear Microsoft. Hace casi un año, Benioff anunciaba un acuerdo con su antiguo empleador y permanente adversario Larry Ellison. En aquel momento interpreté la ceremonia como un signo de debilidad de Oracle, pero luego he podido ver algunas costuras mal hilvanadas de Salesforce y he comprendido que la debilidad era recíproca.
Algo así ocurre ahora entre Microsoft y Salesforce. El anuncio indica que las aplicaciones CRM de la segunda van a estar disponibles en dispositivos Windows 8.1 y Windows Phone, y que se integrarán con Office y Office 365. Pero Benioff ha precisado que no está decidido, por ahora, que sus aplicaciones y servicios estén disponibles en Azure. Por el momento, Heroku, la plataforma de Salesforce corre sólo sobre Amazon Web Services, y esto no va a cambiar a corto plazo. Por cierto, Dynamics CRM tampoco está disponible en Azure, aunque puede correr en una máquina virtual sobre Windows Server en la plataforma cloud de Microsoft.
Otra noticia concomitante es el acuerdo alcanzado entre Microsoft y SAP para que varias aplicaciones de la compañía alemana – Business Suite y su para ERP Business All-in-One – estén soportadas sobre Azure. Otro producto de SAP incluído en el trato es la herramienta de desarrollo para móviles – una herencia de la compra de Sybase – que será certificada para la plataforma de Microsoft. Pero me parece que lo más interesante del anuncio es la edición para desarrolladores de la base de datos en memoria HANA – de momento sólo para prototipos, no como base de datos pura – un ciclo que repite el que SAP ha seguido con AWS.
A diferencia del caso Salesforce, la cooperación entre Microsoft y SAP es antigua y cordial, pero la realidad es que HANA se ha certificado antes para Amazon que para Azure. No sé si en este cambio de actitud ha tenido algo que ver la aproximación reciente entre Microsoft y Oracle, pero en todo caso la estrategia cloud de SAP está mostrando síntomas de menos ingenuidad. Estas noticias, creo yo, se inscriben en una tendencia que merecería ser tratada con detenimiento: la ´cloudización` de las aplicaciones para empresas requiere que estén disponibles en varias plataformas, porque a los clientes no les gusta sentir que están obligados a un proveedor único.
Google ha optado por no resistir la sentencia (no podría, porque no es recurrible) ni tergiversar su cumplimiento (no sería la primera vez). O sea que en pocos días ha puesto en marcha un procedimiento para que los usuarios europeos puedan ejercer el «derecho al olvido» solicitando la eliminación de enlaces con informaciones publicadas que consideren perjudiciales o desactualizadas. Pero no por ello se ha acallado la polémica ni se agotan las ramificaciones del caso.
Larry Page ha dado la cara personalmente para explicar el razonamiento de Google. Eric Schmidt, beligerante habitual en estas cuestiones, no ha aparecido en escena, por ahora. «Están en juego cuestiones muy amplias que debemos valorar – ha dicho Page – porque siempre puedes estar haciendo daño a alguien, y nadie tiene derechos absolutos para hacer lo que sea». Nadie negará que este pragmatismo reflexivo es un cambio de tono. Pero algo conocido subyace en estas palabras apaciguadoras.
La frase de Page que me ha llamado la atención es la siguiente: «estamos intentando razonar como europeos, tenemos que pensar estas cuestiones dentro del contexto europeo». Esta voluntad sobrevenida no es retórica: responde al hecho de que el acuerdo al que en febrero llegaron los abogados de Google con la Comisión Europea no está todavía aprobado oficialmente, y mientras tanto las circunstancias han cambiado. En la inminencia de cambio de la CE, tras las elecciones del día 25, han aflorado presiones para que la propuesta sea rechazada.
Joaquín Almunia, vicepresidente de la CE y responsable de la cartera de Competencia, que inicialmente había bendecido el acuerdo, ha modulado su punto de vista: «si, una vez oídas las opiniones de terceros, llegáramos a la conclusión de que las propuestas que tenemos sobre la mesa no son suficientes, deberíamos decidir qué pasos dar al respecto». Viviane Reding, comisaria europea de Justicia, ha dicho que la propuesta es «por ahora, un paso en la buena dirección». Si estas palabras significan lo que parece, podrían llevar a una excepcional marcha atrás en una fase en la que la Comisión está en funciones. Y la composición del nuevo parlamento no será más propicia para Google.
Extraoficialmente, funcionarios de Bruselas han sugerido que algunos de los elementos de la propuesta «voluntaria» presentada por Google [destinar espacio a los competidores en la presentación de resultados de las búsquedas comerciales] debería ser «revisitada». Aunque su lista no ha sido la más votada, Martin Schulz, candidato socialdemócrata a presidir la próxima CE, dijo en campaña que «nadie discute que Google ejerce un monopolio de facto, por lo que es necesario que se le apliquen los instrumentos de defensa de la competencia»
En los últimos días, el ministro de Economía francés, Arnaud Montebourg, ha dicho que, tal como está redactado, no protege suficientemente los intereses de las empresas europeas: «no queremos convertirnos en una colonia digital de los gigantes globales de Internet». Su colega alemán, Sigmar Gabriel, ha insinuado en una entrevista al Frankfurter Allgemeine, que Google debería ser regulada con criterios análogos a los que se aplican a los operadores de telecomunicaciones, para evitar que abuse de su posición dominante. Una posibilidad que, irónicamente, no disgustaría a los operadores.
Los adversarios de Google argumentan que la propuesta no impedirá que promueva sus propios servicios en detrimento de los competidores. En particular, objetan el mecanismo de subasta por el que deberían pujar para fijar el precio del espacio que Google les dejaría en su página de resultados. El regulador alemán de la competencia, Bundeskartellamt, ha recibido el encargo del gobierno de llevar a cabo un análisis del acuerdo nonato entre Google y Almunia. En Francia se espera que la Autorité de la Concurrence abra un procedimiento de consulta sobre las consecuencias eventuales de un acuerdo.
Aparentemente, privacidad y competencia serían materias con poca relación entre sí, pero en este caso confluyen en una empresa que se ha asignado como misión «organizar toda la información del mundo para hacerla universalmente accesible y útil». Bien hace Larry Page en preguntarse cómo piensan los europeos, porque en algún momento, las reglas que rigen la actividad de Google deberían tender a unificarse globalmente, y lo más probable es que sea su favor. De momento, el «derecho al olvido» regirá sólo en las versiones europeas del buscador, pero los enlaces cuestionados seguirán inalterados en google.com.