Newsletter

Formulario de suscripción

11 de febrero, 2015

Disculpen si hoy me extiendo, pero creo que el asunto lo justifica. Nunca antes, que yo recuerde, un movimiento del regulador de las telecomunicaciones en España había provocado tal encono entre los actores del sector. La antigua CMT y su sucesora, la CNMC, nos tenían acostumbrados a decisiones que podrían parecer rutinarias, cuya finalidad era corregir disfunciones del mercado o de la competencia: para eso están los reguladores. Es normal que a los regulados les gusten más o menos esas decisiones, según impacten sobre su negocio, pero es un juego que todos conocen. Telefónica, operador dominante o ´incumbente`, siempre ha tenido claro que muchas decisiones del regulador tendrían como resultado una pérdida de peso en el mercado, y sus competidores también han tenido claro que debían azuzar y explotar cada contradicción entre las actuaciones de Telefónica y la regulación.

Vale, voy al grano. La actual controversia sobre la regulación del mercado de banda ancha por fibra [los mercados 4 y 5 de banda ancha, en la nomenclatura oficial] ha introducido un clima de tensión que no recuerdo de antes. Mucho ha contribuido la inaudita moción del grupo parlamentario del PP instando a la CNMC a retractarse de la propuesta de regulación de esos mercados antes de que finalice, el próximo día 23, el plazo de alegaciones en la preceptiva consulta pública. Extraña actitud por parte de los mismos que concibieron y votaron la creación de la CNMC como órgano independiente.

Para los lectores no familiarizados con las peripecias de las telecos, resumo de qué se trata. El origen se encuentra en la transformación del mercado de banda ancha – móvil y fija, residencial y empresarial – desde que Telefónica lanzó sus servicios Movistar Fusión. Los dos competidores principales tuvieron que reaccionar: primero acordando desplegar una infraestructura de uso conjunto, y luego adquiriendo Ono y Jazztel para mejor competir con el ´incumbente`. De manera que Fusión no sólo ha significado una cuantiosa inversión por parte de Telefónica sino que ha acelerado las inversiones de sus rivales.

Pero esta nueva situación tiene que ser regulada. La CNMC ha planteado una propuesta que, entre otros aspectos, supone introducir una oferta mayorista de fibra (VULA) que Telefónica debería poner a disposición de aquellos operadores que quisieran usar su infraestructura pagando un precio regulado [la cuantía sería la clave, pero no ha llegado aún esa fase]. La propuesta excluye – es decir, liberaliza – nueve grandes municipios, entre ellos Madrid y Barcelona, en los que se entiende que hay suficiente competencia.

Cabe en lo posible que, para bajar la temperatura ambiente, en los próximos días la CNMC amplíe (a doce o más) el número de municipios en los que no se aplicaría la VULA, así como incorporar ajustes en ciertos puntos de la propuesta. Dependiendo de la magnitud de los ajustes, tal vez podría extenderse el periodo de consulta pública, con lo que una decisión final del consejo no llegaría hasta bien entrada la primavera. Ocurre que para entonces, la futura normativa se habría cruzado por el camino con otra decisión polémica, la concentración de la TV de pago en virtud de la compra de DTS (Digital +) por Telefónica, otro de los asuntos de confrontación entre los tres operadores.

Con el texto actual, las posiciones están claras. Vodafone y Orange manifiestan que el documento «es un paso en la buena dirección» aunque matizan que «es insuficiente en algunos aspectos». Por su parte, Telefónica no ha tomado posición pública, pero ha expresado su disgusto difundiendo a los medios documentos internos muy críticos con la CNMC. Incluso ha sugerido como inevitable – si se aprobara la propuesta tal cual – la necesidad de recortar sus planes de despliegue de fibra en 2015, de los 5,5 millones de hogares previstos a 3,6 millones, con lo que no alcanzaría a tiempo el objetivo de 15 millones de hogares que se había trazado.

No puedo extenderme aquí sobre un asunto tan complejo, pero sí adelantar tres impresiones personales: 1) el contencioso español acabará decidiéndose en Bruselas, no en Madrid; 2) ha habido un exceso de dramatización por ambos bloques y 3) Vodafone y Orange han tratado de mezclar en la misma batea otro asunto que, si bien está en la agenda de la CNMC, es de distinta naturaleza jurídica y económica, la compra de DTS por Telefónica.

Hasta hace poco, los mismos operadores que en España se enfrentan a cara de perro [yo también dramatizo, ya ven] iban a Bruselas con un punto de vista común: reclamar flexibilidad ante la consolidación entre operadores, que sería un incentivo para financiar las inversiones en redes de nueva generación. Ese frente se ha roto, aunque finalmente cualquier decisión que tome la CE estará fundamentada en el fomento de la inversión, criterio que en el ánimo de los reguladores ha desplazado al obsesivo argumento de protección del consumidor.

¿Qué se puede esperar de la CE? Depende, claro, de la resolución que le envíe la CNMC, pero en cualquier caso primará el contexto europeo, que a su vez quedará influido por el precedente español. Podría dar la razón a Telefónica en la tesis de que si se la obliga a compartir su infraestuctura de fibra, vería amenazada la rentabilidad de sus inversiones por lo que tendría que reducirlas o postergarlas. O, el otro extremo, podría dar la razón a los competidores, que se dicen convencidos de que el despliegue de múltiples infraestructuras carecería de justificación económica y, por tanto, aspiran a compartir la infraestructura del ´incumbente` allí donde no tengan la suya propia, y hacerlo en condiciones que les permitan prestar servicios competitivos y rentables. Queda mucho por escribir sobre el tema.

9 de febrero, 2015

El consejo asesor designado por Google para encontrar fundamentos de defensa en el delicado asunto del «derecho al olvido» se ha pronunciado recomendando que la compañía establezca tres categorías de reclamaciones, según la relevancia social de los peticionarios: si son figuras públicas, debería ser muy exigente antes de acceder al borrado de enlaces a una información «inadecuada, irrelevante, ya no relevante o excesiva» [terminología de la UE]; sólo quienes no revistan esa relevancia deberían ver atendida sin reticencia la solicitud si se diera alguna de esas circunstancias; en la tercera categoría, que abarca a personas que tengan «un rol público en contextos específicos o profesionales» el borrado debería depender de la naturaleza de la información de que se trate.

Aunque el fallo del tribunal superior de justicia europeo no es recurrible, su aplicación deja zonas grises que la compañía quisiera esgrimir ante los órganos competentes, para ser ella misma quien trace el deslinde y se autoregule. Porque, más allá de las 212.673 peticiones que dice haber recibido hasta ahora, que afectarían a más de 750.000 URL, lo que Google ve venir es una ofensiva más profunda en nombre de la directiva europea de protección de datos.

La tipología que propone el consejo asesor no elimina el subjetivismo, pero podría ser aceptable para las autoridades europeas encargadas de revisar las respuestas de Google a los reclamantes. En lo que probablemente van a chocar las partes es en la soberanía de esos órganos competentes en Europa, pero no al otro lado del Atlántico. ¿Obliga el ´derecho al olvido` a limpiar los enlaces sólo en dominios como google.es y otros sufijos de alcance local o debe extenderse al genérico google.com, es decir al mundo entero? ¿Cómo garantizar la protección de los datos y la privacidad de los sujetos, si una información (inadecuada, etc) puede ser vista mediante el simple recurso de evitar los dominios locales y acceder al buscador global?

El consejo asesor ha salido del paso con una recomendación que rehuye el problema más arduo, el de la jurisdicción: ¿la definida por el lugar donde el navegador interactúa con el navegador?, ¿la de residencia del reclamante?, ¿la ubicación del servidor donde está alojado el contenido litigioso? Es una materia jurídica suficientemente explosiva como para que hayan salido a piarla los sospechosos de costumbre, para proclamar que, si la UE prosigue con su «hostilidad» hacia Google [y por extensión hacia las empresas estadounidenses, escriben los más exaltados] el desenlace no podría ser otro que la fragmentación de Internet.

Es una visión extrema, pero de hacerla circular se ocupan algunos medios empeñados en cocer en el mismo caldo el ´derecho al olvido` con el expediente de infracción antitrust que la CE mantiene abierto contra Google desde hace cuatro años y que la comisaria Margrethe Vestager ha heredado de Joaquín Almunia, que no consiguió desatascarlo. El asunto, dramatiza Tom Fairless en el Wall Street Journal, que «desde Berlín a Madrid, de Londres a París, las compañías tecnológicas de EEUU están siendo atacadas por los estados europeos en nombre de la soberanía […] Este choque enfrenta a gobiernos contra nuevos titanes, a industrias estalecidas contra empresas ascendentes, es el choque entre una cultura americana de hacer negocios sin cortapisas y un contexto europeo sometido a regulación».

La lluvia fina penetra. Entre otras pruebas, un informe del analista Justin Post (Bank of America Merrill Lynch) que baja de nivel su calificación de Google porque, según él, «está expuesta a un serio riesgo regulatorio en Europa». Es altamente llamativo que un ente llamado ICOMP – inspirado y financiado por Microsoft como lobby contra Google – considere necesario advertir que sería irresponsable sacar de quicio estas cuestiones: «no vemos en Europa un ánimo de vendetta ni discriminación contra las compañías estadounidenses».

6 de febrero, 2015

Cuando se teme lo peor, una mala noticia puede servir de alivio. Así ha reaccionado la bolsa, con un aumento del 12% en la cotización de Sony, tras conocer los resultados trimestrales que rebajan las previsiones de pérdidas netas del año fiscal que cerrará en marzo. La nueva estimación es de 170.000 millones de yenes (1.162 millones de euros) en rojo, mejorando la proyección hecha en octubre, de 230.000 millones (1.710 millones). Será el séptimo cierre en rojo consecutivo, pero se espera que los ingresos aumenten un 6%.

Era difícil imaginar que el incidente del robo masivo de datos de la filial Sony Pictures dejaría a salvo la reputación de la compañía, pero así ha sido a la postre: las pérdidas producidas por el episodio no pasan de 15 millones de dólares gastados en remediar las consecuencias del ataque; la película The Interview está ganando dinero, y los inversores han respaldado a Kazuo Hirai, CEO de Sony desde 2012.

El lado oscuro es el anuncio de que, al final del ejercicio, prescindirá de 2.100 empleados de Sony Mobile. Desde 2008, la plantilla de la corporación japonesa ha bajado de 180.500 a 140.900, y puede caer más en 2015. Sony es un ejemplo perfecto de los altos costes de reestructurar una compañía solo con el expediente de reducir empleo: en los últimos diez años, ha dedicado el equivalente a 5.600 millones de dólares a recortar plantillas, según han calculado los analistas de Capital IQ. Normalmente, ha sacrificado empleos industriales, pero la ola actual está barriendo la estructura comercial.

Sony se achica, y no sólo en personal. Tras liquidar su actividad de PC, y segregar la de televisión en una nueva empresa subsidiaria, Hirai sigue tirando divisiones por la borda: la última, Sony Online Entertainment, que desde los años 90 ha desarrollado videojuego, y de la que se hará cargo un fondo de inversión, por una suma no revelada. El movimiento es interesante, porque revierte una estrategia de décadas, en la que se invertía en negocios de contenidos – música, cine y juegos – para apoyar las ventas de hardware. Tarde ha decidido Sony que contar con un estudio propio de diseño de videojuegos no desempeña ningún papel en las ventas – por otro lado exitosas – de la PlayStation 4, ni ayuda necesariamente a reaccionar ante los cambios de humor del mercado. El nuevo propietario se propone desarrollar contenidos ´no exclusivos`, lo que significa que lo hará también para la consola Xbox One, de Microsoft, algo impensable para Sony.

Extrañamente, Sony Pictures ha salido fortalecida del escándalo. Entre otras cosas porque el inversor ´activista` que reclamaba insistentemente su segregación, ha dejado de reclamar por un tiempo. Esta división representa el 11% de los ingresos totales, y es rentable, virtud que no tienen las ramas de electrónica de consumo. La división Sony Mobile sería la próxima candidata a la desinversión, si sus resultados no cambian; no deja de ser curioso que el éxito de Apple ha acabado por beneficiar a Sony, ya que el iPhone usa sus sensores de imagen; tan es así que Hirai anunció la ampliación de su fábrica de sensores en Japón, aprovechando que la depreciación del yen es un factor favorable.

5 de febrero, 2015

Con cierto voluntarismo, se ha dicho que la fórmula del crédito P2P equivale a una «democratización» financiera, por su cualidad de eliminar la intermediación de los bancos. En teoría, estas plataformas se definen como un marketplace que conecta las dos partes de una transacción: el que pide un préstamo y el que lo concede. La simplicidad sería su mayor virtud, e Internet su facilitador.

La realidad es más prosaica: la más conocida de esas plataformas P2P, Lending Club, que nació en 2006 como una aplicación de Facebook y luego tendría sus más y sus menos con las autoridades, ha encontrado un modelo de negocio casi convencional: vende paquetes de préstamos – en principio sin avales ni garantías – a entidades como Goldman Sachs o Morgan Stanley [o a la rama británica del Banco Santander, según cuenta el Financial Times]. Pero no es esta forma de operar lo que ha atraído los focos, sino dos alianzas recientes con Alibaba y Google .

El primero es el más espectacular. Dos compañías que protagonizaron sendas salidas a bolsa en 2014, se han unido para financiar las compras de pymes estadounidenses a proveedores chinos a través del portal Amazon.com. Cada operación tendrá un valor de entre 5.000 y 300.000 dólares, y en lugar de la colateralidad que normalmente exige al vendedor el banco chino especializado en factoring de exportación, las transacciones serán autorizadas en un máximo de cinco minutos por el sistema informático de análisis de riesgo de Alibaba. A este fin, la compañía china ha establecido su propia agencia de rating.

Según Renaud Laplanche, CEO de Lending Club, el tipo de interés mensual será del 0,5%, en lugar del 1% que cobraba hasta ahora el banco chino con el que trabajaba Alibaba. Según Laplanche, el servicio Amazon e-Credit Line, powered by Lending Club le permitirá alcanzar potencialmente a millones de empresas cuya cadena de suministro pasa por Amazon.com. En suma, la ´nueva economía` emparejada con Big Data.

El modelo se aleja del original: Lending Club empezó por ofrecer créditos de consolidación de deudas – las más habituales, por impago de transacciones con tarjetas de crédito – a consumidores pillados por la crisis. Puede uno imaginar que los intereses no eran precisamente bajos: hasta un 32% anual, según me cuenta Mario Kotler desde San Francisco, donde la empresa tiene su sede. Suena mucho más digno presentarse como agente financiero del líder mundial del comercio electrónico.

Google, perejil de todas las salsas, pertenece por derecho propio a la historia de Lending Club. En 2013, compró un 8% de la compañía por 125 millones de dólares, equivalente a un valor total implícito de 1.500 millones. Ayer, la capitalización bursátil era de 7.400 millones de dólares [tocó los 10.000 millones el día que salió a bolsa]. A mediados de enero, ambas firmaron un acuerdo por el cual Lending Club financiará créditos a dos años, con uno de gracia, a los partners de la plataforma Google for Work, que podrán vender en condiciones favorables sus servicios a las pymes.

El éxito de Lending Club ha germinado otras iniciativas similares. En un ranking imaginario, sus principales competidores serían Prosper Marketplace y OnDeck, también especializadas en préstamos a pymes. Mención aparte merece SoFi, cuyo nicho es la agregación de créditos concedidos por la banca a estudiantes, que luego revende – empaquetados – a otros bancos y fondos de inversión.

Al principio, a los bancos no les hizo ni pizca de gracia la aparición de estos advenedizos, hasta que empezaron a pensar que podrían utilizarlos como un canal de distribución crediticia. Societé Générale y – otra vez – Goldman Sachs, respaldan Aztec Money, un proyecto en ciernes para ´estructurar` (sic) lotes de facturas de empresas, una fórmula alternativa al factoring que la banca minorista ha practicado desde hace décadas. De hecho, la así llamada titulización colateral de productos financieros se ha puesto otra vez en marcha. Confiemos en que no acabe otra vez como el rosario de la aurora.

3 de febrero, 2015

Tenía que ocurrir. Amazon lleva su guerra de las nubes contra Google y Microsoft al servicio más utilizado dentro de las empresas, el correo electrónico. WorkMail, actualmente en pruebas con clientes seleccionados, estará disponible en Estados Unidos y Europa en el segundo trimestre. Según la compañía de Jeff Bezos, es su respuesta a la petición de muchas empresas, clientes de Amazon Web Services (AWS) que también lo son de Exchange Online y de Gmail for Work, las dos plataformas de colaboración corporativa más establecidas. Hay una gran diferencia con la competición actual entre los respectivos servicios cloud de las tres empresas: el de AWS es el último en llegar.

AWS necesita ampliar el perímetro de sus servicios, para ser reconocida no sólo como un proveedor fiable de back-end. El correo es una manera de empezar a asentar relaciones estables con las empresas, para retenerlas como clientes más allá de atender cargas ocasionales. Sería ingenuo pensar que se detendrá en esa frontera: de hecho, Microsoft y Google empaquetan sus servicios de mail con ofertas completas de colaboración: Exchange Online forma parte de Office365, y se complementa con OneDrive; Gmail for Work es un componente de la suite Google Apps for Work, que incluye calendario, editor de documentos, hoja de cálculo y videoconferencia, a la que añade GDrive. Lo mismo hará AWS tarde o temprano.

El correo electrónico tiene, por tanto, los visos de ser un primer paso. O el segundo, porque el año pasado ya anunció el servicio de compartición de ficheros Zócalo – incomprendido entonces: «¿qué hace Amazon compitiendo con Dropbox?» – que pasará a llamarse WorkDocs, así que ya tenemos el esbozo de una suite en lucha con las existentes.

La guerra de precios que se libra en los servicios IaaS se reproducirá, con más motivo, en la competencia por el correo electrónico. De entrada, WorkMail se facturará a 4 dólares por usuario/mes con 50 Gb de almacenamiento o a 6 dólares con 200 Gb si el cliente se suscribe a WorkDocs. Sería inaudito pretender que AWS fuera un universo aislado de las otras galaxias: una herramienta de migración está prevista para que los clientes puedan mover buzones desde servidores de mail on-premise al servicio cloud de AWS, y admitirá cualquier dispositivo que soporte Exchange Active Sync (Microsoft), incluyendo iPad, iPhone, Android y Windows Phone.

Decía que habrá guerra de precios, tarde o temprano. Por comparación, Exchange Online tiene la misma tarifa, pero el encriptado requiere la compra de una prestación de Azure, que cuesta 2 dólares por usuario/mes. Gmail Apps for Work cuesta 5 dólares por usuario/mes y también tiene prestaciones adicionales que sumar al precio. Queda por ver cuánto tardarán Microsoft y Google en reaccionar: no tienen prisa en bajar sus precios, pero razonablemente elevarán los límites de almacenamiento. Para tener una suite coherente alternativa, a AWS le faltaría un editor de documentos en línea.

Casualmente (o no) el anuncio coincide con la promesa de Amazon de que a partir del próximo trimestre empezará a desglosar los resultados de AWS, hasta ahora inseparables del vago concepto ´otros`. Será la única manera de empezar a aquilatar el verdadero estado del mercado cloud en sus acepciones IaaS y PaaS. No es que los competidores destaquen por su transparencia: los ingresos de Microsoft, Google e IBM por servicios cloud no son publicados, o se publican enmascarados en agregados propicios a la manipulación estadística.

2 de febrero, 2015

Para última hora de hoy, VMware ha convocado el primero de una cadena de anuncios que mañana replicará en Europa y el miércoles en Asia. Los protagonistas serán Pat Gelsinger y Ben Fathi, CEO y CTO respectivamente de la compañía. En principio, la convocatoria parecía motivada por el lanzamiento de vSphere 6, que desde junio vienen probando en beta un grupo de clientes comprometidos a guardar estricto silencio. No se excluye que haya más noticias que comunicar, pero sólo con esta bastaría para subrayar la importancia de la convocatoria.

Mucho ha cambiado en el universo de VMware y el de sus clientes desde el anuncio en 2011 de la anterior versión de vSphere, núcleo central de la oferta de la compañía. Y ese cambio es consecuencia de la generalización del cloud computing. Aunque este fenómeno ya estaba en el ambiente por entonces, vSphere era esencialmente un sistema operativo para mejorar el rendimiento de las máquinas virtuales e introducir un nuevo modelo de licencia que, tras las protestas de los usuarios, tuvo que revocar Gelsinger al poco de ser nombrado CEO.

Pese a ser el líder del mercado de virtualización, tecnología sobre la que se basa ´la nube`, VMware ha pecado de lentitud en su adaptación al nuevo ´paradigma`. Tuvo que llegar vCloud Air, su plataforma de servicios cloud, y la consiguiente decisión de replantear el papel de sus partners, para que VMware iniciara la remodelación de su producto estrella. La conspiración de silencio sobre vSphere 6 ha funcionado, pero no hay misterio en que su finalidad es apuntalar la reconversión de la compañía, y de sus clientes.

Se trataría de permitir que estos combinen infraestructuras privadas y públicas para formar clusters de servidores basados en vSphere, tanto on premise como en la nube. El movimiento tiene mucho de defensivo. Si no tuvieran alternativa, los clientes que son fieles a VMware en sus datacenter, podrían acabar cediendo a las tentaciones de los proveedores de servicios cloud. Por otra parte, necesita aprovechar el margen de retraso de Microsoft, que no anunciará el nuevo Windows Server hasta 2016, en lugar de este año, como estaba previsto.

Hay otras circunstancias en juego. VMware ha cerrado un año fiscal con resultados espectaculares: por primera vez, cruzó la línea de los 6.000 millones de dólares de ingresos 16% de crecimiento, pero su margen operativo flaquea, y la previsión para 2015 apunta a una desaceleración. Por si fuera poco, es el centro de una disputa entre EMC y un inversor que pretende sacar tajada de una eventual disolución del vínculo entre ambas empresas.

Con este telón de fondo, la semana pasada Gelsinger descubrió una carta que vale mucho. VMware no tiene capacidad financiera para enfrentarse sola a los grandes actores de cloud computing. Sus partners están siendo cortejados por rivales de la talla de Cisco, HP y Oracle, que esgrimen como zanahoria sus respectivas estrategias de ´multicloud`. Ante la disyuntiva, Pat Gelsinger ha encontrado el socio idóneo, Google, con el que ha firmado un acuerdo por el cual los usuarios de vCloud Air tendrán acceso a ciertos servicios de la plataforma Google Cloud como extensión de su contrato con vCloud Air. Logísticamente, significa que los clientes de los dos socios dispondrán de servicios cruzados en un mismo entorno híbrido.

Las necesidades de los dos socios se complementan. Google ha tenido más éxito atrayendo a desarrolladores hacia su plataforma cloud, pero no así entre las empresas que desean mantener una cuota importante de sus cargas on premise o están siendo influidas por Microsoft (Azure) o Amazon (AWS). A su vez, VMware confía en que el soporte de Google le será útil para retener incólume su clientela tradicional y aislarla de idéntica (mala) influencia.

Queda mucho por entender en estos movimientos de fichas, pero sólo faltan unas horas para que la propia compañía desvele su jugada.

30 de enero, 2015

En todo lo que se ha publicado sobre los resultados trimestrales de Apple aparece la palabra record. Hasta los más optimistas entre los analistas de Wall Street se han quedado cortos: 1) record de ingresos en un trimestre [74.600 millones de dólares], 2) record de beneficio neto en un trimestre [18.000 millones], 3) record absoluto del iPhone [46% de incremento en unidades y 79% en valor], 4) record de ingresos en las tiendas online de la marca y 5) record de margen bruto [dos puntos de subida, hasta el 39,9%]. Para completar la fiesta, Standard & Poor´s ha calculado que es también un record mundial de beneficios de empresas cotizadas en un trimestre, que detentaba Exxon Mobil con 16.000 millones.

Si se explora un poco en los resultados, la única objeción – por así decir – que se les puede poner es que ha aumentado su dependencia de un solo producto, el iPhone, que representa un 69% de los ingresos totales (56% era lo habitual y ya era mucho). No sabría decir si esto es bueno o no tan bueno, pero siguiendo esa veta se puede encontrar argumentos menos transitados.

Vamos a suponer por un momento que Apple son dos compañías: la del iPhone y la del resto. La primera habría ingresado 102.000 millones de dólares en 2014, y la segunda ´sólo` 81.000 millones. La objeción se ha derrumbado. Pero vale la pena preguntarse si esta dependencia es sostenible. Porque obedece al éxito del iPhone pero también a la floja performance del iPad, que ha bajado de 11.400 a 9.000 millones de ingresos, con lo que ha pasado de contribuir con un 20% al 12%. La familia Mac, en cambio, ha subido ligeramente pero su peso empalidece en el conjunto. Los tiempos en que Steve Jobs predicaba que Apple se apoyaba en la triada Mac/iPod/iPhone ha quedado atrás.

Un asunto crucial en el análisis de los resultados es la subida del precio medio del iPhone, que según el analista Gene Munster ha pasado de 603 a 687 dólares por unidad. La explicación parece estar en el modelo 6+, que habría representado – según Munster – una tercera parte de los iPhone vendidos en el trimestre. La entrada de Apple en el segmento de más de 5 pulgadas ha sido un acierto, porque ha estimulado la preferencia por los modelos más caros, con mayor capacidad de almacenamiento, que a su vez permiten un mayor consumo de aplicaciones y contenidos. En todo caso, la categoría ha dejado de ser una exclusividad de Android, y en ella va a enfocarse la carrera entre las marcas de postín. En la presentación de resultados, Tim Cook se explayó al afirmar que «un gran número de usuarios de Android podrían potencialmente pasarse al iPhone».

Como es costumbre, IDC tuvo que esperar el anuncio de Apple para completar su ranking del mercado mundial en el cuarto trimestre de 2014, que sitúa a la marca en la segunda plaza, a sólo seis décimas de Samsung, que ha perdido ocho puntos porcentuales en un año.

Seguramente se debe al ascenso del iPhone en el mercado chino, que ya pisa los talones al estadounidense. Según Apple, sus ventas en ´la Gran China` [agregando Hong Kong y Taiwan] sumaron 16.100 millones de dólares, un 70% más que un año antes. Por cierto, la consultora Canalys confirma que Apple ha sido la marca dominante en China en el trimestre, desplazando a Xiaomi, que por esa razón cae en la escena global del tercero al quinto puesto. Tal vez tengan razón quienes opinan que, a la hora de la verdad, una fracción «aspiracional» de consumidores chinos prefieren comprar un iPhone antes que un móvil chino que quiere parecersele.

28 de enero, 2015

Microsoft ha dado mucho juego en los últimos días. Anunció detalles del futuro Windows 10, maravilló a muchos con su inmersión en la realidad aumentada, y este lunes presentó sus resultados (bajada de ingresos, subida de beneficio) del segundo trimestre fiscal. Entre tanta noticia, he querido fijarme en una aparentemente pequeña: la compra de Revolution Analytics.

No se ha desvelado el precio, pero con toda seguridad la importancia de la adquisición no radica en el precio, sino en el mérito de la empresa adquirida, especializada en software y servicios basados en R, el lenguaje open source de programación más usado en computación estadística y análisis predictivo. En los últimos años, ha ganado popularidad – sin exagerar – entre los científicos de datos, hasta convertirse en estándar de facto. Según consta en el blog de la compañía, tendría unos 2 millones de usuarios.

Con la integración de Revolution Analytics, Microsoft busca atraerse a los especialistas en programación para Big Data. Promete mantener su línea de productos, arroparla con más recursos y reforzar los vínculos con la comunidad open source, para asegurarse la continuidad de desarrollos basados en este lenguaje. Es otra muestra de que estos especialistas, cortejados por los headhunters bajan de su torre de marfil y se incorporan a la corriente del mercado que combina el análisis de datos con cloud computing.

Ya he dicho otras veces que la creencia de que el Silicon Valley es la meca de las aplicaciones para móviles y redes sociales peca de ingenuidad. Los capitalistas del valle tienen otras prioridades: cada semana se anuncian inversiones en startups cuyo foco son áreas como la visualización de datos, machine learning y analytics, en busca de nuevos modelos de negocio. Revolution Analytics no es exactamente una startup, ya que nació en 2007, pero su principal apoyo en los últimos años ha sido Microsoft.

Opina el analista John Furrier que «el mercado de Big Data está entrando en una fase nueva y excitante». En sus primeros pasos, este concepto se ha vinculado generalmente a la capacidad de almacenamiento, a herramientas como Hadoop y bases de datos NoSQL. Para penetrar en las empresas, las iniciativas de Big Data tienen que ser más intuitivas y comprensibles por no especialistas. Microsoft conoce bien R, porque en sus laboratorios se aplica en proyectos de machine learning relacionados con Bing y Azure, y se ha comprometido a seguir contribuyendo con sus desarrollos dentro del espíritu open source, con el que últimamente tiene una afinidad sobrevenida.

Por si sirviera de referencia para entender el movimiento de Microsoft, hay que recordar que Google trabaja intensamente para incorporar machine learning a su plataforma Compute Engine, siguiendo los pasos de Amazon. Microsoft ha dado un paso que, para los enterados, estaba casi cantado.

Azure parece ser la primera causa del interés de Microsoft en la compañía, basada en Mountain View. En principio, el objetivo parece ser ampliar el alcance de ML Marketplace (un componente de Azure) con funciones analíticas de fácil acceso para profanos.

27 de enero, 2015

Hasta ayer, ningún medio de referencia se había hecho eco de una versión que circula por Internet y atribuye a IBM la elaboración de un plan para reducir en un 26% su fuerza laboral. Fiel a la liturgia prescrita para estos casos, la compañía dijo inicialmente que no comenta rumores, añadiendo esta coletilla: «…por ridículos o carentes de fundamento que sean». ¿A qué debe atenerse quien quiera saber algo más? Un 26% de la plantilla equivaldría a unos 110.000 empleados, cifra que no sé si tiene o no fundamento, pero sería de escándalo. El sindicato que agrupa a los empleados de IBM en EEUU, Alliance@IBM, no avala la veracidad del rumor, aunque se cura en salud: «nunca se sabe – suscribe el coordinador sindical Lee Conrad – porque en IBM todo puede ocurrir, y este es el momento del año que suele aprovechar para recortar empleo».

Renegando de su inicial negativa a comentar rumores, IBM ha difundido un comunicado en el que sugiere: «quienes quieran verificar las informaciones disponibles, podrá comprobar que la compañía ha reservado [en sus resultados de finales de 2014] 600 millones de dólares para cubrir costes de reestructuración». Sería una cifra plausible para recortar menos de 10.000 puestos de trabajo, pero 110.000 elevaría los costes a un nivel que desbarataría las cuentas del año fiscal en curso. Sin contar con el desorden y desmoralización previsible en las filas de IBM.

De lo que no hay dudas es de la difícil situación que atraviesa IBM. Lleva once trimestres consecutivos de retroceso en sus ingresos y a los pocos días de presentar resultados ha emprendido una reorganización para ajustarse a los negocios ´de valor`. Esa iniciativa se ha puesto en marcha, pero se ha optado por no comunicarla externamente.

En una nota de prensa distribuída ayer por la tarde, IBM destaca que el año pasado contrató 45.000 personas y tiene sin cubrir 15.000 ofertas de trabajo. Este mes, después de informar de una caída del 12% en los ingresos y del 6% en el beneficio operativo, el CFO Martin Schroeter, dijo a los analistas: «esperamos destinar menos dinero a reequilibrar la plantilla». O sea que habrá «reequilibrio», pero menos.

Schroeter respondió así la pregunta de un analista de UBS: «no vamos a repetir el nivel de reestructuración del año pasado, creo que será de una magnitud inferior». Y como el analista, puesto en su rol de vigía bursátil, le inquirió sobre el efecto que el desembolso tendría sobre el beneficio por acción [recuérdese que la CEO, Virginia Rometty, abolió el compromiso de su antecesor de garantizar un nivel mínimo], Schroeter tuvo que precisar que «el coste de cualquier reducción deberá aplicarse durante el año fiscal», de lo que el informe de UBS extrae la conclusión de que «cuanto antes se haga, más trimestres habrá para recuperar la merma en las cuentas».

Cualquiera que sea la dimensión de los recortes, formalmente podrían adoptar la fórmula light de asignar cierto número de empleados a un PIP (Performance Improvement Programme), que funcionaría como presión para que se apunten voluntariamente a un T2R (Transition to Retirement), programa en el que a los empleados salientes se les ofrece el salario de un año a cambio de su salida. Es del todo previsible que estos movimientos sean presentados como «transformacionales».

26 de enero, 2015

El episodio es propicio para jugar con los números. El operador número cuatro de Reino Unido, llamado Three, comprará O2 para convertirse en número uno, y un chascarrillo asegura que su futura marca sería O23. El asunto es más serio que todo eso: obligada por las circunstancias y sin capacidad para transformar O2 en operador convergente, que es lo que se lleva, Telefónica ha decidido vender su filial británica a su rival Three, al que no le inquieta seguir siendo un operador exclusivamente móvil.

El precio pactado en principio, 10.250 millones de libras (13.600 millones de euros al cambio del viernes), casi totalmente en cash, permitiría al vendedor reducir una cuarta parte de su deuda, pero hay otros usos posibles para ese dinero. César Alierta suele presentar sus maniobras como estratégicas, y aunque esta operación es un evidente paso atrás en la expansión de los últimos años, el repliegue también tiene carácter estratégico.

Según la prensa londinense, habría otros interesados en la compra, pero ni se los nombra ni serían viables a menos que una de las partes rompa las negociaciones. Como precedente, Three ya adquirió la filial irlandesa de O2 el año pasado.

Sin haber predicado nunca la consolidación – incluso negando su necesidad – Three ha llegado a ser su mejor agente. Las operaciones móviles son una parte menor del conglomerado Hutchinson Whampoa, controlado por el que dicen es el hombre más rico de Asia, el octogenario Li Ka-Shing, ciudadano de Hong Kong.

Es un hecho que la operación valida la tesis de quienes en Europa defienden la necesidad de reducir el número de operadores como instrumento para la inversión en nuevas redes. En Reino Unido, se ha pasado en poco tiempo de cinco operadores móviles a cuatro – con la fusión de Orange y T-Mobile en EE, que a su vez será absorbida por BT, que suman un 32% del mercado – y a partir de ahora serían tres.

Vodafone pasaría así al tercer puesto (24%), lo que ha provocado una rara reacción bursátil: sus acciones han subido. Hay dos explicaciones plausibles y no excluyentes: 1) los rumores de un encuentro entre Vittorio Colao, CEO del grupo Vodafone, y el magnate John Malone, dueño del grupo de cable Liberty Global, con vistas a una fusión, y 2) la suposición de que va a aliviarse la competición, las tarifas volverán a subir, y con ellas subirán los ingresos de los tres operadores resultantes.

Esto gustará a la bolsa, pero no a los consumidores, que ya se ven pagando más por sus facturas. Three ha sido el campeón de las rebajas, pero quizá deje de serlo cuando alcance el primer puesto del mercado, con 31,5 millones de clientes y una cuota del 41% en telefonía móvil.

Como está mandado, la operación deberán aprobarla los dos reguladores británicos, pero Bruselas tendrá algo que decir en última instancia; si da luz verde, o sólo deja correr, ya no tendría argumentos para cuestionar la consolidación en otros países. La CE autorizó el paso de cuatro a tres operadores móviles en Irlanda, Austria y Alemania, con fuertes condiciones, ¿por qué oponerse en el caso británico y en los que vendrán?

Aunque pueda parecer que no están relacionadas, las concentraciones en Reino Unido y en Brasil tienen un punto en común latente. Se esperaba que la salida de Telecom Italia del mercado brasileño desembocaría en el reparto de su filial TIM entre los otros tres competidores – Oi, Vivo (Telefónica) y Claro (América Móvil) – pero el plan podría deshacerse: Oi ha obtenido los permisos para la venta de Portugal Telecom, que le asegura los recursos para comprar TIM en solitario. Por su lado, Telefónica – una vez cierre la venta de O2 – gozará de una situación financiera favorable para pujar, como hubiera querido hacer desde el principio.

Está claro que no es lo mismo salirse de República Checa que de Reino Unido, pero Alierta tiene otros horizontes posibles: en México, se avecina la venta de activos del grupo Slim, y Telefónica aspira a crecer en ese país, lo que no sería mal uso para la fortuna que recibirá por la venta de O2.

23 de enero, 2015

Habrá pocas ilustraciones más claras de las dificultades de pasar de un modelo de negocio exitoso a otro, sin duda necesario y prometedor pero, inevitablemente, un tránsito doloroso. Los resultados de SAP al cierre de 2014, publicados esta semana, son elocuentes: los ingresos crecieron un 4% (17.600 millones de euros) comparados con 2013, pero el beneficio operativo cayó un 3% (4.300 millones). La ascendente actividad basada en cloud se incrementó un 45% (1.100 millones), pero la parte del león sigue representada por el modelo de negocio tradicional de software y servicios on-premise (14.900 millones). Es el resultado de una estrategia.

Sus resultados serán buenos o malos según lo que se espere: la compañía alemana se ha visto forzada a alertar por segunda vez – ya lo había hecho en octubre – del deterioro de su beneficio, a la vista de algo que, en principio, debería ser positivo: la aceleración de la demanda de clientes que prefieren montarse en la nube en lugar de contratar licencias convencionales, lo que desequilibra el modelo de negocio. Naturalmente, mientras esto ocurra dentro de su base de clientes, a menos que consiga un mordisco de la de sus rivales.

¿Cuánto tiempo durará este fenómeno? Según Luka Mucic, CFO de la compañía, «esperamos que las suscripciones a la nube excedan en 2018 los ingresos por licencias de software». Mientras llega ese momento, Mucic ha recortado el objetivo de beneficio operativo para 2017: de 7.700 millones a 6.300 millones. Más lejos todavía, en 2020, la meta es que los ingresos oscilen entre 26.000 y 28.000 millones de euros, con un rango de 8.000 a 9.000 millones de beneficio. Para el final de la década, la contribución del cloud se habrá multiplicado por siete con respecto a 2014.

El CEO de la compañía, Bill McDermott, hizo cuanto pudo para que la conferencia con analistas girara en torno a la plataforma HANA: que si el número de usuarios ha pasado de 450 a 1.400 en un año, que si es el producto de más éxito en la historia de SAP, que si la estrategia en torno a HANA, iniciada en 2010, ha sido su mayor acierto [compartido con Jim Snabe, por entonces co-CEO], que el 3/2 conoceremos un anuncio sobre HANA […] Pero los analistas, que razonan con vocabulario bursátil, volvían una y otra vez a preguntar sobre los efectos de la transición a la nube sobre el margen de beneficio.

McDermott se mostró como un tipo intenso y directo: «ninguna compañía del mundo cloud puede guiarse por el margen; lo relevante es el progreso constante de los ingresos operativos, para que el negocio crezca a largo plazo». Uno de los analistas – creo que Walter Pritchard, de Citi – llevaba calculado que el margen de SAP ha tocado fondo en 2014 – efectivamente, cayó del 26,6% al 24,7% – por lo que daba por abandonado el antiguo objetivo del 35% en 2015, y así ha sido: Mucic lo fía más largo, hasta 2017. A lo que McDermott tenía esta respuesta: «en el negocio cloud, nuestra cuota de mercado crece, pero no sería prudente centrarnos en perseguir el margen: yo podría prometer el margen que usted quisiera, si renunciara a crecer en el cloud«.

Esta cuestión del margen no es un juego aritmético. SAP se encuentra en medio de su transición de modelo de negocio, y ese tránsito tiene consecuencias que se manifiestan en un deterioro del margen. Es lo que les ocurre a todas las compañías de software, cada una según sus circunstancias. A Oracle, sin ir más lejos, y tampoco las «nativas» del cloud, como Salesforce o Workday pueden sacar pecho en esto.

La cuestión a tener presente es esta: un crecimiento desproporcionado del negocio cloud ejerce necesariamente una presión [ojalá que de corto plazo] sobre los márgenes: los costes de venta y entrega del servicio suben de golpe, mientras los ingresos y los beneficios se generan gradualmente. Esto se ha traducido, en el caso de SAP, en que ha tenido que modificar sus cálculos previos – ese 45% de crecimiento de cloud ha recortado el margen operativo en 2014 – y jugar todas sus cartas a una partida de larga duración, confiando en el impacto de las economías de escala. Mientras tanto, el negocio recurrente de licencias se achica, y cada empresa – y sus accionistas – sabrá si prefiere que se achique más o menos rápido.

22 de enero, 2015

He visto una imagen que vale realmente mil palabras. La primera página del Financial Times, con un retrato trucado de Mario Draghi y Angela Merkel, es un magnífico resumen gráfico de las tensiones que rodean la voluntad del Banco Central Europeo de lanzar su programa de compra de bonos, con el que Mario Draghi lleva meses amagando y que al parecer anunciará hoy. Una expectativa que ha disparado la demanda de los inversores por títulos de los países periféricos (con la excepción de Grecia, claro), empujando a la baja los rendimientos: el 4% que España tenía que aceptar hace un año para colocar sus bonos, ha caído esta semana al 1,66%. Pero lo que subraya la imagen del diario asalmonado es la inconmovible reticencia alemana.

Es inevitable volver a preguntarse por el estado de la economía europea. Las compras de activos por parte del BCE – se habla de unos 50.000 millones de euros en dos años, mucho menos que el quantitative easing de la Fed – reducirá los tipos de interés de los bonos denominados en euros, mecanismo que consolidará la depreciación de la moneda única frente al dólar. Se supone que estimulará las exportaciones, pero cabe alguna observación: 1) el comercio exterior de la eurozona es altamente endógeno, lo que neutraliza en buena medida ese efecto, 2) la UE produce un menor volumen de mercancías exportables y ha perdido la batalla de los servicios y 3) la experiencia japonesa demostraría que la devaluación premeditada del yen no ha estimulado las exportaciones tanto como se esperaba.

Está en juego la credibilidad del BCE, que no puede seguir enredando con la promesa de «hacer todo lo que sea necesario» (Draghi). La idea misma de los estímulos monetarios sólo es discutida por los prescriptores de aceite de ricino. Incluso los zelotes de la austeridad han redecorado su discurso: las medidas monetarias – dicen ahora – serán sólo un parche que podría atenuar la ´voluntad reformista` de los gobiernos. Axel Weber, que presidió el Bundesbank hasta 2011, dramatizaba ayer desde Davos, advirtiendo que si afloja el rigor, la liquidez que genere el BCE derrumbará el euro, un espantajo que se ha agitado durante años.

Lean a Martin Wolf: «[…] la eurozona está hundida, víctima del síndrome de deficiencia crónica de la demanda, y es la región más débil del mundo en este momento». Apunta Wolf que la demanda nominal fue apenas un 2% superior en el segundo trimestre de 2014 que en el primero de 2008, mientras que la demanda real fue un 5% más baja.

Si no he entendido mal, el banco central suizo ha disuelto el alineamiento del franco con el euro por temor a quedar atrapado en la maniobra de Draghi, y en esto los suizos actúan como si fueran alemanes. Se debate sobre el riesgo de deflación: los precios evolucionan en la eurozona a una media del 0,7%, muy por debajo del objetivo marcado por el BCE, cercano al 2%. A todo esto, ha empezado el World Economic Forum.

La única vez que estuve en Davos como enviado, hace años, el centro de la discusión era el encarecimiento del petróleo y sus consecuencias; hoy se vive una situación inversa, y a menos que uno piense sólo en su condición de automovilista, es discutible que el abaratamiento sea positivo para la economía mundial [homogéneamente positivo, quiero decir].

El habitual informe que PwC elabora para los organizadores del foro revela que sólo el 37% de los CEO encuestados confía en una mejora durante 2015 (en España es el 39%), siete puntos menos que el año pasado por estas fechas (once menos en España). En el foro alpino se discutirá de esto, sin ninguna duda, pero el tema estrella será otro clásico, la lista de riesgos, en la que gana puntos la ciberINseguridad. Por una vez, una imagen vale por 1.400 palabras.

21 de enero, 2015

El experimento ha terminado. Desde el martes, ya no es posible comprar unas Google Glass, un concepto fallido que vuelve al laboratorio para renacer (tal vez) como un producto distinto. Lanzadas por Google en abril de 2012, fueron proclamadas ´mejor innovación del año` por la revista Time y ´chorrada de la década` por el semanario satirico The Onion. Pero si el plan era abrirles un hueco en el mercado, no lo ha conseguido, al menos como producto de consumo.

Pero, al menos, el invento ha avivado la imaginación de unos cuantos desarrolladores, que ahora se sienten abandonados. Al primer post anunciando la retirada, siguió otro comunicado de Google puntualizando que nunca pretendió otra cosa que explorar cómo se usaría esta tecnología en la vida real; una vez recogido el feedback, el programa se cancela… por ahora. Es una excusa muy en el estilo de una compañía que nunca confiesa un fracaso, pese a tenerlos como cualquiera que intenta hacer algo nuevo.

¿Por qué han fracasado las Google Glass? Humildemente, me parece que nadie se atrevió a contradecir al cofundador de la compañía, Sergey Brin – menos dotado para los negocios que su socio Larry Page, se arrogó el rol de visionario en jefe – primer impulsor del invento. Por supuesto, Google puede permitirse tener un cofundador enredando con ideas exóticas, lo que no puede es transformar en oro todo lo que toca.

El segundo error ha consistido en no calibrar los «casos de uso» del nuevo producto. En lugar de preguntarse si respondía a alguna necesidad, se creyó que bastaría con que algunas celebrities se dejaron ver con las Google Glass para que se popularizaran, y así ocurrió, sólo que entre unos pocos audaces con el desparpajo que hace falta para lucirlas en público y aguantar pullas y protestas. Una caricatura de cómo debería pensarse el lanzamiento de un producto de consumo.

En Google hay muchos tipos geniales, y muchos «apasionados por la tecnología», combinación que ha producido futuribles destinados a no llegar nunca al mercado. Entre tanto capricho, alguno dará en el clavo, eso es todo. En la misma conferencia de 2012 en la que Brin presentó las Google Glass, también se mostró Nexus Q, una bola negra definida como «primer reproductor multimedia social»: un mes y medio después se postergó su comercialización, y nunca más se habló del invento. Ha pasado otras veces, y volverá a pasar. ¿Se puede confiar en el éxito del Proyecto Ara, de móviles modulares supuestamente para consumidores en los países emergentes?

Uno de los rasgos más llamativos de Google es su incongruente relación con el hardware, que en su modelo de negocio es la esfera de los partners. Quizá sea este su pecado original: el muy lucrativo negocio publicitario se ha construído observando comportamientos online, e ignorando que en la vida real tienen (todavía) más relevancia los artefactos. Curiosamente, el desarrollo de unas futuras Google Glass – presuntamente destinadas a aplicaciones profesionales, no al consumidor – pasa bajo responsabilidad de Tony Fadell, quien llegó a Google como inventor del termostato Nest pero antes había estado en Apple como miembro del equipo que diseñó el iPod.

A propósito: es notable la diferencia con Apple – que también tuvo fracasos sonados – donde todas las ideas debían pasar por la prueba suprema de convencer a Steve Jobs. Cuando se aduce que la desaparición de este ha detenido el impulso de innovación de la compañía, lo que se quiere decir es que ese mecanismo no ha sido bien reemplazado por el colectivo de acólitos huérfanos del genio. Desde su muerte, el único producto realmente nuevo será el Apple Watch… y aún le falta salir al mercado.

Estos días he leído que Phil Schiller, uno de los conspicuos colaboradores de Jobs, ha dicho que la muerte de las Google Glass era previsible: «nunca he podido entender cómo gente inteligente pudo pensar que esa cosa interesaría a la gente normal».

20 de enero, 2015

A propósito de la última crónica sobre BlackBerry, me han preguntado por qué no he mencionado la noticia de una oferta de compra que habría recibido de Samsung. La respuesta tiene dos partes: 1) porque esa crónica se publicó 24 horas antes que el despacho de Reuters sobre el asunto y 2) porque «los rumores no son noticia» y tengo sobre ellos un reflejo de escepticismo [anacrónico en la era de Twitter, lo sé]. Ambas empresas lo han desmentido, así que me atengo a los hechos. Pero no quiere decir que carezca de opinión propia

En primer lugar, ¿está BlackBerry en venta? No es la primera vez que se especula con ello, antes y después de la llegada de John Chen. Cuando este fue nombrado CEO, supuse que su misión sería rescatarla del hoyo en que se encontraba, limpiarla y revigorizarla para, en el momento oportuno, negociar su venta. Los financieros que lo pusieron en el cargo no tienen otra vocación que recuperar la inversión con plusvalía.

El comunicado emitido por BlackBerry sólo dice que no está negociando con Samsung, y esta también lo niega, así que es obligado creerles. Pero no sería fácil para Chen encontrar otro comprador más idóneo interesado en adquirir la totalidad de la empresa. De entrada, hay que excluir a cualquier candidato chino, porque los gobiernos occidentales que son el núcleo de la clientela de BlackBerry lo vetarían sin contemplaciones. Apple es, aparte de BlackBerry, la única marca norteamericana que queda en su mercado, pero un candidato muy improbable. Los fabricantes europeos se han extinguido y los japoneses se han replegado.

Lo anterior deja como únicos candidatos viables a Samsung y LG, que a priori, no merecen objeciones geopolíticas. De modo que el rumor tiene un buen fundamento. Lo que lleva a preguntarse qué tiene BlackBerry que pueda interesar a un eventual comprador, sea quien sea.

Primero: una clientela fiel y de calidad, formada por gobiernos y grandes corporaciones, y que abarca 90 millones de usuarios finales de su servicio de mensajería. Un botín apetecible, a pesar de que los ingresos por software y servicios han caído una tercera parte desde 2012.

Una nueva plataforma, BES12, fue lanzada en noviembre, arropada por varios acuerdos que podrían ampliar el alcance de su mercado más allá de los leales a la marca.

Un sistema operativo, QNX, que al margen de los smartphones está presente en dispositivos médicos y en la industria automovilística y, según Chen le abrirá las puertas de Intenet de las cosas (IoT).

Unas 40.000 patentes que tienen valor por sí mismas [según Wells Fargo, una cuarta parte del precio actual de la acción].

En la fase más crítica para BlackBerry, algún inversor propuso despiezarla para maximizar el precio de venta. Esta no es la estrategia de Chen ni de los accionistas de control. Un año es lo menos que necesitan para elevar el valor hasta un nivel que justifique pagar por la empresa íntegra un precio superior a los 7.500 millones de dólares de la presunta (y desmentida) oferta de Samsung.

Ahora bien, ¿sería Samsung el mejor comprador? Todo indica que sí. No por el hardware – cuyas ventas han caído un 75% desde 2012 – sino porque la compañía coreana tiene urgencia por asentarse en el mercado corporativo: su plataforma Knox todavía no ha conseguido los resultados esperados (por lo que ha optado por un pacto para que sus dispositivos Galaxy se integren en BES12, además de correr sobre Knox). Y ya tiene una amenaza explícita, el acuerdo entre Apple e IBM. Sin descuidar el hecho de que apoderarse de BE12 evitaría que cayera en manos de un competidor que pudiera hacerle daño. Por otro lado, QNX sería una pieza interesante para Samsung  en dos sentidos: para atenuar su dependencia con respecto a Android, y podría ser un punto de apoyo para entrar en eso que llaman IoT, en el que casi todo está por hacer.

En resumen, creo que BlackBerry se venderá entera, sin desguaces especulativos, aunque no ahora ni al precio que mencionan los rumores de los últimos días. También creo que Samsung se perfila como el mejor, si no el único, candidato posible. Puedo equivocarme, no se tome como un pronóstico, es sólo un razonamiento.

19 de enero, 2015

Hoy toca escribir sobre Intel, que el jueves a última hora presentó sus resultados. Record, proclama la diligente nota de prensa. Bien, ahora veamos los matices, que de ellos está hecho el cuadro.

Hace ahora un año, un objetivo de Intel era estabilizar las consecuencias del declive en las ventas de PC; esperaba que los ingresos bajaran algunos puntos y el beneficio operativo fuera plano en el mejor de los casos, y renovaba su confianza en Windows 8. Cómo no alegrarse ahora, cuando sus directivos pueden decir que, al final del ejercicio, los ingresos del PC Client Group crecieron un 4% y el beneficio operativo un 25%. Sólo que ahora depositan su confianza en Windows 10.

Hace ahora un año, Intel aspiraba a capitalizar el auge esperado de cloud y big data asentando su dominio de sus chips en el mercado de servidores, fijándose como objetivo de su Data Center Group que el incremento del beneficio operativo fuera algo inferior al 5% y aproximadamente igual en los ingresos. No sólo cumplió el objetivo, sino que se excedió en ambos parámetros: 18% y 31% respectivamente.

Hace un año, Brian Krzanich, CEO de la compañía, confiaba en que podría enderezar las cuentas del Mobile and Communications Group, pero en esto ha fallado: las pérdidas de 2014 han sido superiores a las de 2013. Para ser justos, hay que añadir que los ingresos fueron peores, pero ganó cuota de mercado: había prometido 40 millones de chips para tabletas y vendió 46 millones. Bueno, no hay tanto misterio: una parte de las pérdidas se deben a que subvenciona a ciertos fabricantes para que utilicen sus chips en lugar de los de arquitectura ARM.

Hace un año, Internet de las cosas era un segmento nuevo para Intel, y al cierre de 2014 los ingresos de esa rama pequeña ascendían a 2.000 millones de dólares. Confesó Renée James, número dos de la compañía, en un encuentro de prensa en Las Vegas, que es un negocio en el que quiere estar desde el principio, evitando el grave error cometido cuando se dejó pasar la ola de los móviles.

¿Qué se espera de 2015 en cada uno de estos tres campos? El mercado de PC se ha estabilizado, si por tal se entiende un declive de ´sólo` el 2,4% en los despachos contabilizados por IDC. En la presentación de resultados, Krzanich comentó que el mercado se revigoriza, pero se curó en salud añadiendo que Intel puede crecer aunque las ventas de PC no crezcan (que es lo ocurrido en el cuarto trimestre). En el mercado de servidores, el dominio de Intel se ha afianzado: pese a sus esfuerzos, AMD no consigue llegar siquiera al 10%, mientras la amenaza latente de ARM sigue siendo… pues eso, latente.

Estas dos divisiones concentran bastante más de la mitad del negocio de Intel, ese es precisamente el problema. Para 2015, Krzanich ha cambiado el tono de su compromiso con los accionistas: «mejorar la rentabilidad» de la división de móviles, que puede traducirse como «reducción sensible» de las pérdidas. Muchas esperanzas ha puesto el CEO en los dos acuerdos firmados con dos compañías chinas, Rockchip y Spreadtrum, para que estas implementen una versión de baja gama de SoFIA (un chip que integra procesador de aplicaciones y banda base en el mismo silicio) con el que confía en matar dos pájaros de un tiro: atrapar el mercado chino y detener el crecimiento de Qualcomm.

Los planes de Intel en Internet de las cosas han dado mucho que hablar en la reciente feria CES de Las Vegas y bien que merecen una crónica propia. No dejaré para otro día una breve nota acerca de las inversiones de capital de Intel, asunto tanto o más revelador que otros: en 2014 sumaron 10.562 millones de dólares (en proporción del 18,8% con los ingresos totales) y en 2015 no deberían crecer, según el CFO Stacy Smith. La explicación de Smith a quienes suponían que aumentarían, es que el precio medio de los equipos está bajando, y los rendimientos que obtienen las fábricas de la compañía suben. Como colofón, diré que 12 de 14 analistas que siguen de cerca la marcha de Intel opinan que 2015 será un año mejor que 2014. Aunque, claro, con matices.

16 de enero, 2015

IBM se retiró de los PC en 2005, y de los servidores x86 este año, en ambos casos vendiendo el negocio a Lenovo. Pero no se le pasa por la cabeza retirarse del mainframe, aunque sólo aporta – directamente – el 3% de sus ingresos. De los comentarios que he leído acerca del anuncio del nuevo z13, me ha gustado mucho esta frase de Dave Vellante: «muchos en la industria han querido siempre construir un mainframe, pero IBM siempre ha tenido uno». En realidad, es el primero que presenta en los últimos tres años, y la importancia del z13 en la estrategia de IBM reside en que la actualización de la serie desmiente una noción muy extendida, la de quienes dicen que el hardware ha perdido importancia en la evolución de las TI. O a los simplistas que proponen, son más, «dejárselo a los chinos».

¿Ha perdido importancia el mainframe en los ingresos de IBM? Desde luego que sí. Lo que no quiere decir que sea superfluo. En primer lugar, los mainframes están profundamente embebidos en las estructuras de TI de las organizaciones, y esto significa muchos otros contratos. Un documento firmado por Matt Eastwood, analista de IDC, estima que los mainframes representan un 10% del gasto anual en la tecnología de servidores, pero un 10% que en la práctica no tiene alternativa: «son la plataforma más sólida existente para cargas de misión crítica, desde los procesos transaccionales a los datawarehouse más voluminosos».

Como argumento sobre la rabiosa actualidad del mainframe se esgrime que toda transacción de comercio electrónico afecta a decenas de interacciones entre sistemas diferentes, y la arquitectura de los servidores basados en Intel no ofrece la escalabilidad necesaria para manejarlas, especialmente si hay dispositivos móviles involucrados.

IBM describe su decimotercera generación de la serie z como específicamente diseñada para la ´economía móvil`, porque es capaz de soportar 2.500 millones de transacciones diarias con una rapidez y seguridad – desde la prevención del fraude hasta la validación de medios de pago – desconocidas hasta ahora. En sectores que han sido usuarios tradicionales de mainframes – banca, seguros, telecos, aerolíneas, retail – las transacciones móviles son crecientes, e IBM cree que esos clientes de muchos años estaban esperando soluciones como las que podrá ofrecer el ordenador z13.

Otro destino obvio del z13 está en el cloud. Desde que esta noción se popularizó, hemos escuchado a directivos de IBM sostener que «el mainframe es el cloud original», porque técnicas como la virtualización y las herramientas de gestión automatizada fueron inventadas hace décadas para los sistemas 360 y generaciones siguientes.

Para cumplir con esas expectativas, el z13 ha sido equipado con un tipo de procesador que contiene 300 veces más memoria que la que se puede encontrar en la mayoría de los servidores, y 100% de más banda ancha para acelerar las transacciones móviles.

No todo es potencia de hardware. Entre otros puntos reseñables de la presentación del z13, se confirma la pasión sobrevenida de IBM por el sofware open source: la nueva máquina es capaz de ejecutar hasta 8.000 servidores virtuales bajo Linux, soporta OpenStack y tareas analíticas con Hadoop. Un documento de la compañía señala que el uso de smartphones y tabletas se ha extendido tanto que compromete la capacidad de análisis con los procedimientos (y por ende las máquinas) convencionales.

Estratégicamente, para IBM tiene mucho sentido elevar el papel de su hardware más característico, hasta alinearlo con los servicios de alto margen en la era de cloud computing, eludiendo la trampa de la ´commoditización`. En este sentido, el movimiento puede asimilarse – con todas las salvedades que se quieran – a la vía escogida por Oracle con sus «sistemas de ingeniería conjunta», la gran familia Exa, de la que pronto se esperan anuncios.

Esta ha sido la noticia de la semana para IBM, pero no es incompatible con la reorganización que se está aplicando sin hacer ruido, sino todo lo contrario. Un analista de Bank of America Merrill Lynch escribe que «la compañía seguirá acentuando su foco en las áreas de crecimiento como cloud, big data y analítica, seguridad y movilidad, pero necesitará [la paciencia de los inversores] hasta que estas áreas lleguen a representar una cuarta parte de su facturación».

15 de enero, 2015

Pregunta de Roser, lectora madrugadora, sobre mi newsletter de ayer: ¿por qué no hay todavía una regulación internacional sobre el bitcoin, que no es tan reciente como parece sugerir tu comentario? Es bien cierto que el invento de esta y otras criptomonedas – cuya historia no creo necesario repetir – no es de ahora, pero las estructuras de mercado en torno a ellas sí lo son, y van a más, como contaba ayer. El funcionamiento de los mercados sí que es susceptible de regulación. O debería serlo, pero la respuesta es que, hoy por hoy, no la hay. Es normal que esos procesos lleven tiempo.

La información más reciente que tengo registrada es de julio de 2014: la Autoridad Bancaria Europea (EBA) publicó un documento en el que identifica 70 «riesgos potenciales» derivados del uso de monedas virtuales, entre ellas el bitcoin, para los usuarios finales. La posibilidad de facilitar la comisión de delitos financieros es uno de esos riesgos. La EBA propone, en consecuencia, que se implante un régimen regulatorio pero advierte que, para ser útil, tiene que ser un cuerpo legal consistente [a substatial body of regulation] en asuntos como la gobernanza de las transacciones y los requisitos de capital exigibles a los actores de mercado.

El informe sugiere la necesidad de definir un «esquema de autoridad» responsable de vigilar la integridad de las infraestructuras al servicio de las monedas virtuales. Como desarrollar ese esquema llevaría tiempo, el informe aconseja a las entidades financieras que, entretanto, se abstengan de comprar, acumular o vender monedas virtuales o activos denominados en ellas.

En realidad, las autoridades financieras no prestaron demasiada atención al problema hasta la quiebra de Mt Gox, en febrero de 2014. La propia Bitcoin Foundation, lógicamente interesada en participar de las consultas que el informe de la EBA abrirá, ha subrayado que innovaciones como la firma múltiple y la prueba criptográfica de reservas, serían medidas que aportarían seguridad a las transacciones y confirmarían el papel de los mecanismos de negociación para asimilarlos a los mercados de divisas.

Resulta curioso que en Estados Unidos la cuestión no se haya planteado a nivel federal. Poco después de conocerse la posición europea, el Department of Financial Services (DFS) del estado de Nueva York decidió que ya era hora de proponer la creación de una llamada ´bitlicencia` que habilitaría a los participantes en los mercados de monedas virtuales. Una de las ideas sería la creación de un fideicomiso en dólares para reembolsar a los clientes en caso de perjuicios, así como la instauración de medidas contra el blanqueo de dinero de origen delictivo – una de las inquietudes que acompañan la existencia del bitcoin – y la obligación de presentar informes trimestrales.

Digo que resulta curioso porque – aun reconociendo la primacía de Nueva York como centro financiero, no hay precedentes de atribuirle funciones de control sobre el blanqueo de dinero. El DFS considera explícitamente que la legislación federal no es idónea para aplicarla al caso del bitcoin, y por tanto ha tomado la iniciativa. No ha dicho cómo piensa armonizar sus reglas con la regulación de otras instancias – incluída la internacional – ni qué piensa hacer si, como es lógico esperar, las compañías participantes en este mercado eligen simplemente operar fuera de Nueva York. De lo que se desprende que no habrá regulación por un buen tiempo, durante el cual los riesgos de operar en moneda virtual serán bien reales.

14 de enero, 2015

Los feligreses de la secta digital llamada Bitcoin no saben si alegrarse o inquietarse por una circular del Internal Revenue Service (IRS), la agencia tributaria de Estados Unidos, en la que instruye a los contribuyentes sobre cómo reflejar en sus declaraciones las operaciones con esta criptomoneda (u otras, que las hay). Alegrarse, en la medida que el IRS otorga legitimidad a la moneda virtual al regularla como activos de capital convertibles por otro valor real expresado en dólares. O inquietarse porque, cuando el fisco se entromete, desvirtúa el sueño libertario de que cada individuo pueda llegar a ´acuñar` su propio instrumento monetario para escapar al control de las autoridades.

Para los contribuyentes, implica que las ganancias derivadas de la tenencia de activos en bitcoins son imponibles, según unos tipos mínimos del 15%; consiguientemente, las pérdidas son deducibles de otras ganancias de capital o de la renta, con un límite de 3.000 dólares/año. Para quien compra y vende bitcoins como inversión, el tratamiento no es diferente al que se le aplica por comprar y vender acciones, he ahí el argumento de la legitimidad. No es fácil escaquearse: toda transacción en moneda virtual hay que declararla como si se pagara en moneda real, haciendo constar su equivalencia en dólares a la fecha de pago.

La circulación de bitcoins no es despreciable, unos 3.800 millones de dólares [el doble que alguna moneda latinoamericana], pero Gavin Andresen, chief scientist de la Bitcoin Foundation – que parece ser la depositaria del código fuente – es el primero en advertir que todavía está en su fase infantil: tal como está diseñada, toda la red [de emisores] de bitcoins no puede procesar más de 7 transacciones por segundo; en comparación, Visa procesa un máximo de 50.000 transacciones por segundo.

Los adalides de la moneda virtual han vivido un mal año 2014: su tipo de cambio llegó a ser cuatro veces más alto que los 271 dólares/229 euros de ayer, según el boletín Coindesk. Una constante fluctuación a la baja ha hecho que su comportamiento fuera peor que el del hryvnia de Ucrania, que ya es decir. El peor momento por el que ha pasado el ´ecosistema` fue la quiebra de MtGox, autoinfligida por el estallido de su burbuja especulativa; aunque menos dramático, es significativo que Bitstamp haya suspendido la semana pasada sus operaciones tras descubrir que intrusos anónimos habían hecho desvanecer 19.000 unidades de bitcoins. Los problemas de seguridad son periódicos: Blockchain – «una billetera virtual en moneda virtual» – ha reconocido un apagón de su sistema debido a cierta vulnerabilidad del software que verifica la identidad del usuario.

Las noticias sobre el bitcoin tienen siempre un lado bueno y un lado malo o no tan bueno. Los entusiastas han celebrado el anuncio de que Microsoft, Dell y Time aceptan bitcoins como medio de pago por software y suscripciones, una práctica que ya era corriente en Overstock y Starbucks. Cuando se indaga un poco más, resulta que no es tan así: no ´aceptan` bitcoins per se, sino que han firmado acuerdos con dos empresas de intermediación, Coinbase y BitPay, que cogen los bitcoins de sus clientes – cobrándoles una comisión – e inmediatamente los convierten en dólares con los que pagan a los vendedores.

Michael Casey, columnista del Wall Street Journal, discrepa de quienes dan por muerto al bitcoin. «Su precio es irrelevante para valorar las tendencias subyacentes de una tecnología capaz de subvertir las finanzas – escribe – Muchos inversores serios están aportando dinero y experiencia para que los desarrolladores de software usen código open source con el fin de crear aplicaciones que faciliten unos nuevos modelos de transacciones digitales, que podrían amenazar algunos de los servicios que hoy prestan los bancos». Lo que importa observar, según Casey, no es el tipo de cambio del bitcoin, sino la innovación en el software que rodea las criptomonedas.

12 de enero, 2015

Mañana (por hoy) puede haber un anuncio sensacional sobre IBM, me avisa desde Londres un colega para el que los domingos no son sagrados. Virginia Rometty acaba de cumplir tres años como CEO de IBM y está en vísperas de una profunda reestructuración, tanto o más profunda que la acometida en su día por Lou Gerstner. Ya dejó entrever algo en una entrevista de octubre con David Faber: «no hay duda de que la velocidad de transformación del mercado se ha acelerado […] nuestros clientes toman decisiones en semanas, a veces en horas, pero nuestra capacidad [de respuesta] no soporta esos plazos». Rometty repitió tres palabras clave: velocidad, flexibilidad y simplicidad. Insisto en que ocurría en octubre, pero imagino que las repetirá estos días.

Versiones que circulan en sordina dentro de la compañía indican que la estructura de tres grandes grupos con la cual la compañía ha operado durante años, tiene que cambiar, y el cambio se anunciará esta semana. Esa estructura – sugiere el argumento – ha dejado de ser eficaz en una era dominada por el consumo de TI, que exige un modelo de negocio acorde. La separación funcional entre hardware y software tuvo sentido hasta que Rometty decidió vender la deficitaria rama de servidores x86; en los nuevos tiempos, la actividad que cohesionará el conjunto es el cloud, que representa una minoría de la cifra de negocio, pero crece al 50%, y que Rometty presenta como prueba de la necesidad de reconducir la compañía para que pivote sobre las actividades «de valor».

La víctima propiciatoria de esta reorganización será la división de software, a la que Rometty achacaba, en la entrevista citada, «insuficiente flexibilidad». Desaparecerá para, en principio, ser disuelta en un nuevo Business Partner Group. En contraste, se refuerza un nuevo ´supergrupo`, que será dirigido por Rober LeBlanc, que pasa de VP de ser Sofware and Cloud Solutions a ocupar la nueva posición de Senior VP, IBM Cloud, creada a su medida, responsable de «todo el portfolio de tecnología y servicios cloud, incluyendo la estrategia, el diseño de productos, desarrollo de la oferta, marketing, ventas y servicio». Nada menos.

El antecedente que ha convertido la reorganización en inaplazable, está en los resultados del tercer trimestre. Cuando se presenten las cuentas anuales, el martes 20, Rometty ya tendrá en marcha su iniciativa, y con ello habrá acallado cualquier pregunta suspicaz. Más que de crecer, hablará de detener el achicamiento: en los pasados diez años, los ingresos de IBM habrán pasado de 97.000 a 97.400 millones de dólares (+0,4%), habiendo tocado los 110.000 millones en 2011. El ejercicio que acaba de empezar, tras la venta de los servidores x86 y de la división de microelectrónica, debería ser más chica pero rentable. Pese a esta trayectoria poco atractiva, la acción de IBM se ha sostenido gracias al dividendo y la compra de acciones propias, por una suma superior al total de inversiones de capital. Y aun así, en los dos últimos años, la cotización de IBM perdió un 17%, en contraste con el 40% de ganancia del índice S&P del que forma parte. Así las cosas, en octubre, Rometty cortó por lo sano abandonando la promesa de su antecesor, Sam Palmisano, de garantizar 20 dólares de beneficio por acción en 2015.

En los últimos meses se ha anticipado el giro en la estrategia de IBM. Ha firmado acuerdos con Apple, entre otros partners, y ha conseguido contratos de servicios de envergadura, además de crear una división específica para explotar su sistema Watson y seguir invirtiendo en centros de datos para prestar servicios cloud. Con esas cartas en la mano inicia Rometty el cuarto año de su mandato.

9 de enero, 2015

Hace un año, o más, algunos daban por muerto al PC, seguros de que las tabletas acabarían con esa antigualla. Los mismos que descubren el descenso de ventas de las tabletas, cuando la ida y la vuelta sólo reflejan un ajuste en las prioridades de compra de los consumidores. Cuando se publiquen las cifras del cuarto trimestre, probable revelen que el mercado mundial habrá cerrado 2014 con una recuperación, más cercana al valle de 2013 (314 millones de unidades) que del pico de 2011 (365 millones). Estos días, en el pletórico CES de Las Vegas, el PC no ha sido ciertamente el protagonista, pero ha quedado en evidencia que la industria ha hecho los deberes, y en 2015 asistiremos a un movimiento ascendente, una evolución en lugar de la fantasiosa muerte del PC.

De eso me ocuparé otro día. Mi tema de hoy es algo que puede explicar al menos en parte el perezoso despertar del mercado del PC: la estrategia (¿o es sólo una táctica?) de Microsoft para asegurarse de que los Chromebook, promovidos por Google, no detraen la cuota de mercado de Windows. La agresiva política de precios de Microsoft, que se suponía temporal para fortalecer Windows 8, se expresa en una rebaja de las licencias – que en ciertos formatos llegan a ser gratuitas – para dar a los fabricantes un motivo de fidelidad compatible con la rentabilidad.

Se puede ver en la maniobra un anticipo de lo que puede aportar Windows 10 como sistema operativo transversal a distintas familias de dispositivos y, se supone, con diferentes escalas de precio. En una presentación reciente para analistas, Kevin Turner – chief operating officer de Microsoft en la era Ballmer que sigue en el puesto tras el cambio de CEO – dijo que la compañía no está dispuesta a que Windows 10 sea una fuente de pérdidas, pero que explorará «otras maneras de monetizarlo», de lo que algunos entendieron que se refería a distintas combinaciones de Windows y Office. Históricamente, Microsoft ha cargado en la cuenta de las marcas afines unos 50 dólares por cada licencia de Windows, pero el estrechamiento de los márgenes hace imposible que, en esas condiciones, un fabricante venda un PC a 200 dólares.

El resultado del movimiento de Microsoft (para la galería enmascarado como promoción de Bing) ha sido un recorte significativo del precio medio de los PC vendidos en el último tramo de 2014. Por esta razón, no todos los fabricantes han acogido por igual la iniciativa: ganar cuota de mercado está bien, pero no a cualquier precio. Es posible que HP, con su portátil Stream, haya avanzado algo en su carrera contra Lenovo, ejemplo que ha seguido Acer y, por lo visto en Las Vegas, imitará este año también Lenovo.

En comparación con los Chromebook, estas máquinas de bajo precio neutralizan la ventaja que Google creía haber adquirido y son un aviso de que su confianza en que «todo está en la nube» no convence a todos los usuarios. Chromebook puede haber ganado espacio en ciertos mercados, pero no así en el español, donde hasta septiembre se habían vendido unos pocos miles de unidades, gracias a operaciones con escuelas privadas.

Si lo que Microsoft pretendía era frenar la tentación de los fabricantes de echarse en brazos de Google, lo ha conseguido. Ahora bien, para que no se lo reprochen, tendrá que controlar que no está resucitando el efecto que hace unos años tuvieron los netbooks, de los que la industria tiene recuerdos ambivalentes. Ya se verá qué pasa con Windows 10, pero de momento, en el CES, la industria parece apuntar en todas direcciones para evitar una caída mayor del precio medio: por un lado, competir con los modelos baratos, mientras por otro experimenta con nuevos formatos, más capacidades y más prestaciones como manera de diferenciar distintos puntos de precio para mejorar sus márgenes. Mejor lo dejamos por hoy, si les parece.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons