wp_head() ?>
Pocas horas han necesitado los especialistas de TechInsight para estimar – por ahora sin tocarlo físicamente – los costes industriales de un iPhone 5. Según ellos, un modelo de 16Gb tendría un BOM (bill of materials) de 167,50 dólares, 35 dólares más que el 4S comparable. Dos de los componentes que encarecen la factura serían la pantalla (25,50 en el iPhone 5 contra 21,50 en el anterior) y el procesador, que pasa de 21 a 28 dólares. Previsiblemente, el coste de fabricación es un secreto del sumario.
La mayor curiosidad se centra en el nuevo procesador A6, del que Apple sólo ha dicho que duplica la performance de los CPU y de los gráficos, con respecto al A5 usado en el modelo anterior. Se confirma que ha sido diseñado por Imagination Technologies (adquirida por Apple hace tres años) sobre la base de la licencia adquirida a ARM. La fabricación ha corrido por cuenta de Samsung. Sí, Samsung, primer adversario de Apple y a la vez su primer suministrador de componentes; aunque también se dice que pronto perderá la exclusiva, y quizá todo el contrato, a manos de la taiwanesa TSMC. O alguna otra solución imaginativa.
El A6 es un 22% más pequeño que su antecesor, y mejora la duración de la batería, dos rasgos que podrían ser útiles en la próxima versión del iPad, que está de camino. Se ha montado una discusión entre expertos en torno a la verdadera naturaleza del A6: ¿desarrolla la variante Cortex-A15 de la arquitectura ARM, o es una modificación de la existente Cortex-A9?. Puede parecer un arcano, y lo es, pero conocer la respuesta indicaría cuál es el grado real de madurez de Apple para implementar por sí misma el juego de instrucciones licenciado a ARM y ponerse a la altura de Samsung, que hasta ahora parecía llevar varios meses de ventaja.
El caso de Alcatel-Lucent es paradójico. Es protagonista importante de un sector en constante ebullición y que vive un crecimiento explosivo del tráfico, pero a la vez la compañía es víctima del recorte de inversiones de sus clientes, y de una feroz competencia china. Tras reestructuración dolorosas, la empresa – refundada en su forma actual en 2006 – sólo ha conseguido ser rentable brevemente, en 2011. Desde entonces, ha vuelto a recaer: en dos trimestres de 2012 ha hilvanado pérdidas, y no se espera que las cosas cambien en los que restan.
El CEO Ben Verwaayen cumplía su promesa, pero la recesión se le ha caído encima, y en julio tuvo que anunciar un plan de reducción de 5.000 de los 76.000 puestos de trabajo, con el objetivo de ahorrar 1.200 millones antes de finales de 2013. Para esa fecha, espera que la cuenta de resultados sea positiva.
Hasta aquí, el guión tiene renglones conocidos en la esta industria. Lo que no es tan habitual es la movida en la cúspide de la compañía. Paul Tufano, el CFO, sumará a esta función la de COO, y asumirá directamente el mando de tres actividades verticales. Sólo dos – networks and platforms, y managed services – tendrán sus propios presidentes. La explicación oficial es que la empresa necesita adelgazar y adoptar un “modelo de negocio simplificado”. Lo que no explica es por qué una decisión de tanta urgencia se aplicará sólo a partir del 1 de enero próximo.
Los analistas de Chevreux (grupo Crédit Agricole) añaden un motivo de inquietud: la liquidez de Alcatel-Lucent desciende peligrosamente. Ante esta perspectiva, le recomiendan que abandone la ambición de ser un conglomerado de infraestructuras de telecomunicaciones, que enajene ciertas líneas de producto y que deje de estar presente en países y/o regiones deficitarias. “Con los chinos no hay quien pueda”, dictamina un analista, refiriéndose a Huawei y ZTE.
Es curioso que esto se diga justamente cuando Alcatel-Lucent acaba de ganar un contrato del operador China Telecom para suministrarle infraestructuras ópticas de banda ancha, por una cifra no revelada. Tampoco se ha informado del monto de otro contrato, adjudicado por Telefónica, para la integración de sus plataformas de gestión de operaciones de red en todas las filiales del grupo. No hay duda de que son dos alegrías que alivian la pesadumbre de una lista de malas noticias.
No hace falta sumarse al festín de rumores sobre el iPhone 5 que estos días tiene entretenida a la peña, para calificarlo como un hito industrial. En primer lugar porque la caída del 26% en las entregas durante el segundo trimestre (26 millones de unidades en lugar de los 35 millones del primero) ha sido la causa principal del descenso global del mercado de smartphones en un 1%. Es prácticamente seguro que la reincorporación de Apple a la pista (entre 48 y 53 millones en el último trimestre) conseguirá el milagro de dar la vuelta a la tendencia del mercado mundial: de 272 millones de smartphones vendidos en el primer semestre, se pasaría a 345 millones en el segundo. Esto sería bueno para todos.
Para todos, menos para sus competidores, que durante varios meses tendrán que replantearse su oferta, algunos a sabiendas de que Apple estará vigilante por si, en caso de creer que tiene argumentos, acusarlos de violación de sus patentes. Y, desde el punto de vista del marketing, durante esos meses el iPhone volverá a ser el más deseado, aunque no necesariamente el más vendido, un trono que le ha arrebatado Samsung con su Galaxy S III.
Hay otro aspecto que puede ser revulsivo. Como el último iPad lleva LTE, se presume que el iPhone 5 también lo llevará. Es más que plausible, en principio, sólo en Estados Unidos, donde la cuarta generación es un reclamo clave para los operadores, y la demanda está ansiosa. Pero también es posible que esa expectativa ayude a acelerar los planes de despliegue en Europa (como se está viendo estos días en Reino Unido). Otros fabricantes tienen smartphones con LTE, pero ninguno tiene una capacidad de convencer comparable.
Tiene cierta gracia que, a diferencia de lo que ocurriera con la tecnología 3G – que hizo crecer como la espuma un parque de móviles casi inexistente al comienzo – la disponibilidad de dispositivos 4G (incluídos los Android) va a presionar en favor de la inversión en nuevas capacidades de red. Los operadores echan cuentas.
No ha sido una sorpresa, pero ha surtido efecto como si lo fuera. Ha bastado que Intel rebajara sus previsiones del tercer trimestre – los resultados se publicarán el 16/10 – para que sus acciones y las de sus grandes clientes cayeran de inmediato. De un rango entre 13.800 y 14.800 millones de dólares, ha pasado a 12.900/13.500 millones. Como media, 1.000 millones menos de ventas entre julio y septiembre. Intel hilvana cinco explicaciones: caída de ventas de PC, estrechamiento de los inventarios, incertidumbre sobre Windows y, algo relativamente nuevo, el retroceso de la demanda en Asia-Pacífico.
No ha sido una sorpresa, digo, porque tras enunciar en enero un objetivo de crecimiento del 7 al 9% para 2012, Intel lo ajustó antes de cerrar el segundo trimestre, bajándolo al rango de 3 al 5%. Ahora, el nuevo recorte equivale a decir que 2012 podría cerrarse con “crecimiento casi cero”. Sí, es coherente con el pronóstico de IDC sobre la venta de PC este año: menos del 1%. Vale que se nos pronostica un 7% anual entre 2013 y 2016, pero ya aparecen las dudas sobre 2013.
En un informe de rutina, un analista del Citi, Glen Yeung, advierte que el anuncio de Intel es “la evidencia que faltaba de que la industria de PC va de cabeza a un segundo semestre desastroso, la peor segunda mitad que se recuerde”. La debilidad económica es un factor, señala, pero la confusión en torno a los roles de Windows 8 y Windows RT tiene al sector en vilo.
Puedo asegurar que no ha sido premeditada la coincidencia de fecha entre este comentario y el análisis de las novedades híbridas que se han visto en Berlín. Pero, ya que coinciden, por algo será.
Un respetable colega, que sigue una dieta casi exclusiva de manzanas, escribía ayer que la caída de Nokia en bolsa, tras la presentación de los nuevos Lumia, es un aviso del fracaso que puede sufrir Windows Phone 8. Como poco, es una opinión apresurada. Y es un error tomarlos altibajos bursátiles como expresión de una voluntad colectiva, supuestamente racional. El descenso de las acciones de Nokia es fácil de explicar: es el rebote tras el subidón que han vivido desde julio, empujado por las expectativas en la aparición de estos modelos. Cumplido ese requisito, los inversores vuelven a operar en corto, tomar y deshacer posiciones, que ese es su modo de vida. Lo que no significa que Nokia esté ya con un pie fuera del purgatorio, ni mucho menos.
Sobre los móviles y la bolsa tengo previsto un post para la semana próxima. Entretanto, advierto que un titular como “los móviles de Nokia no convencen al inversor” es falaz o, como poco, ingenuo. A quienes tienen que convencer Nokia (y Microsoft) no es a los inversores sino a los usuarios, y en esta tarea les correspondería un papel a los operadores.
Precisamente esta semana, en el encuentro anual del sector telecomunicaciones, del que regresé ayer, un tema recurrente de comentario era el deseo manifiesto de los operadores – al menos tres de los cuatro – en que Nokia vuelva a ser competitiva y Microsoft recupere cuota de mercado. Para ellos, que a menudo han expresado su disgusto con las prácticas de Apple y su desconfianza hacia Google, resulta interesante la existencia de una alternativa viable. Los operadores pecan de muchas cosas, pero no de forofismo.
3 Ago
Los abogados de Oracle acaban de sufrir una segunda derrota en pocos meses, con la sentencia de un tribunal californiano que da la razón a HP en el litigio entre ambas empresas acerca del soporte al software de aquella instalado en los servidores Itanium. Este blog ha publicado varios análisis que me eximen de entrar aquí en más detalles. La sentencia dice que el acuerdo firmado en septiembre de 2010, cuyo objeto era “normalizar” las relaciones entre las partes tras la contratación del ex CEO de HP, Mark Hurd, como presidente de Oracle, tiene valor contractual y es aplicable a la materia en disputa. Por tanto, Oracle no puede suspender unilateralmente el soporte a la plataforma Itanium, ni discriminarla con respecto a otras en la disponibilidad de versiones y actualizaciones.
El juez ha optado por no fijar una compensación económica, sugiriendo que las partes deberían llegar a un acuerdo o, en su defecto, el monto será fijado por un jurado. HP ha estimado en 500 millones de dólares las ventas perdidas y, potencialmente, hasta 4.000 millones antes de 2020, consecuencia del bloqueo a Itanium. Los antecedentes permiten dudar de que pueda haber acuerdo, y la primera reacción de Oracle ha sido anunciar que recurrirá la sentencia.
Quedan varias incógnitas abiertas, una de ellas la situación en la que queda Mark Hurd, cuyo fichaje por Oracle (y, por tanto, del acuerdo). Supuestamente, fue Hurd quien negoció que la frase «Oracle will continue to offer its product suite on HP Platforms in a manner consistent with [the HP-Oracle] partnership that has lasted for over 25 years» se incluyera en el texto. Ahora forma parte de una sentencia judicial.
Es obvio que HP se ha apuntado una victoria moral, pero el perjuicio material no tiene marcha atrás: en el ánimo de aquellos de sus clientes que son a la vez usuarios de productos Oracle, ha quedado sembrada la desconfianza sobre la continuidad de la plataforma. Por esto, es muy probable que HP acelere los trabajos para reconvertir la familia de servidores Itanium en la arquitectura Xeon de Intel. Están en marcha desde hace meses, pero no se reconocerán públicamente mientras Oracle no haya aceptado su derrota, algo que no conjuga en la mentalidad de Larry Ellison, ya se trate de vela o de negocios.
Interesante reportaje en Babelia acerca de un tema recurrente: la llamada muerte de la novela. Según el profesor José-Carlos Mainer, “los escritores tienen cierta tendencia apocalíptica [por lo que] cíclicamente se nos dice que la novela ha llegado a su fin”. Y, añade, como la cosa ha funcionado durante siglos, no hay motivos para dudar de que seguirá funcionando. En una pirueta mental para caer de pie en la tecnología, la frase me ha recordado otras predicciones funestas, como “la muerte del PC”, “la muerte del software”, etc. Son falacias, pero dan mucho juego en los titulares. Yo podría titular mi post de hoy como “la muerte de Facebook”, pero no caeré en esa otra falacia.
En el mismo reportaje, afirma José María Guelbenzu que lo que muere no es la novela sino el lector complejo, “que es el que puede leer novelas complejas”. Dice más: “por ahí, por este mundo que vive de flashes y frases cortas e ingeniosas tipo Twitter, es posible que se produzca un desajuste y la exigencia sea de cosas breves, rapiditas, digestivas y ocurrentes [pero] todo se volverá a ajustar, porque la gente dispuesta a reflexionar no se echa para atrás”.
No podría estar más de acuerdo con Guelbenzu. Por cierto, si alguien encuentra un tuit que merezca ser releído dentro de un año, haga el favor de avisar.
El post de esta semana sobre los resultados de Apple ha provocado interesantes comentarios. Entre ellos, me interesa en particular responder a Iñaki R, quien ha entendido que en mi opinión Apple manipula los rumores que preceden sus presentaciones financieras. No he dicho eso, ni estoy en condiciones de sugerir tal cosa. Lo que he escrito es que hay una legión de individuos que regularmente se encargan de calentar el ambiente, y muchos de ellos son indocumentados. A los analistas profesionales se han sumado un número variable de aficionados con muchas ganas de comunicar al mundo sus previsiones, basadas en no se sabe qué método.
¿Egolatría? ¿Intereses creados? No lo sé. Un colega americano que escribe sobre Apple desde hace años, me decía que estos pronosticadores amateurs son muy numerosos, cada vez más, y normalmente arriesgan más que los profesionales. Estos, a su vez, no ocultan su malestar con la prensa, que hace más caso de aquéllos porque “dan mejores titulares”.
Por diversas razones, el artefacto no ha funcionado en esta ocasión, y los resultados de Apple no fueron lo bastante buenos para lo que propugnaban tales expectativas artificiales. Por primera vez, los directivos de la compañía se han quejado de la “increíble proliferación de rumores y especulaciones sobre nuestros productos futuros” [Tim Cook]. Se refería a las múltiples versiones que circulan acerca del iPhone 5, a las que atribuyó que del modelo vigente se vendieran menos unidades que las esperadas. En el fondo, ocurre que el formidable crecimiento de Apple en los últimos años se ha basado en su capacidad de sorprender, pero ha llegado a un punto en que los fans quieren una hoja de ruta, y si no se la dan se la inventan.
La verdad es que en este juego perverso, Cook no puede fingir inocencia: un rasgo de la cerrazón informativa de Apple consiste en que ni siquiera ha admitido que esté trabajando en un nuevo modelo de iPhone. Francamente, no puede pretender veracidad la empresa más opaca del sector. Cuando, para colmo, abundan los cronistas alienados por el subjetivismo.
En los últimos meses he tenido ocasión de hablar en Estados Unidos con directivos de la industria del software, y al volver a España con algún country manager.Mi conclusión tiene tres puntos: 1) los ejecutivos americanos exhiben una manifiesta incomodidad al hablar de Europa, pese a saber que un periodista europeo les va a preguntar sobre el asunto; 2) no es menos manifiesto que ignoran casi todo lo que no sean tres o cuatro tópicos para salir del paso; y 3) a sus subordinados españoles les cuesta elaborar un discurso sobre la crisis; unas veces porque no lo tienen, otras por un irracional temor a desvelar opiniones “políticas”. Si acaso a mis interlocutores locales les pidieran opinión, les animaría a copiar/pegar la siguiente.
Juan Ignacio Crespo, analista financiero y ex directivo de Thomson Reuters, escribe: “En Europa, sólo la economía alemana mantiene algo de crecimiento. Cuando entre en recesión será llegado el momento en que los diferentes bloques económicos parlamentarán para ver cómo aplicar políticas de estímulo de nuevo. Igual que hicieron en 2008. Y, quizá, tendrán que empezar a discutir cómo monetizar las pérdidas de los bancos y los déficit de los gobiernos, en todo o en parte. Podría ser inflacionario, pero de ninguna de las tres grandes crisis de los últimos 110 años se ha salido sin inflación»
Continúa Crespo: «[…] De manera que el crecimiento económico español tendrá que venir como una “bendición oculta” bajo el peso de una recesión mundial que obligue a reconsiderar los parámetros actuales, bajo el ropaje de un incremento de la inflación que ayude a pagar las deudas a los deudores y anime a gastar a los ahorradores que, de otra forma, verán cómo sus ahorros se deprecian, forzando a una parte de esos ahorradores, las empresas, a poner en movimiento los siete billones de dólares ´ociosos´ que acumulan en sus tesorerías […]”. No es una lectura muy veraniega, pero es apropiada para este verano incierto.
Si aceptamos, como es costumbre, que los resultados de Intel son un indicador de la marcha de la industria, sería hipócrita afirmar que en el segundo trimestre la botella ha estado medio llena. Sí, es cierto que los ingresos aumentaron un 3,7%, hasta alcanzar los 13.500 millones de dólares; pero si se detraen los del Data Center Group [una quinta parte del total], el incremento habría sido de nueve décimas, que deja la botella medio vacía. En otras palabras, puede decirse que los procesadores Xeon E5 han salvado el segundo trimestre, y se espera que sostengan el tercero. Frente al salto del 15,1% de esa división, la PC Client, la que más pesa en el conjunto, registró un crecimiento mediocre (4,3%), nada raro tal como está el mercado; la que abarca los chips para sistemas embebidos y móviles, cayó un 20%, también previsible.
El CEO Paul Otellini enfrió las expectativas de recuperación. El guidance de ingresos para 2012 ha sido recortado, del 7/9% previsto inicialmente, al 3/5%. Hay que tomar nota de que las ventas en Europa han caído un 7% secuencial y un 5,6% sobre el segundo trimestre de 2011.
Al presentar estos resultados, Otellini sugirió que la demanda de los consumidores se ha frenado en los últimos meses por la espera de Windows 8. Acto seguido, proclamó su confianza en los nuevos ultrabooks basados en los procesadores Ivy Bridge (y en Windows 8) que, según él, van a representar el 40% de las ventas de portátiles. Están en marcha unos 140 diseños, 40 de ellos tendrán capacidades táctiles, y una docena serán convertibles (para funcionar opcionalmente en modo tablet o como ultrabook). Anticipó Otellini que el umbral de precio discutido con los fabricantes será de 699 dólares. En suma, el tercer trimestre pasará sin pena ni gloria, y el partido se jugará en el último cuarto.
El inesperado gambito por el que Paul Maritz abandonaría la posición de CEO de VMware, dejando el puesto a Pat Gelsinger, hasta ahora VP de EMC, deja demasiados flecos y pistas contradictorias. Vamos a suponer que la noticia es cierta, puesto que la ha avala el Wall Street Journal, pero la pura verdad es que hasta anoche no había comunicado oficial. Ocurre cuando falta poco más de un mes para VMworld en Las Vegas – y tres meses para su edición europea en Barcelona – eventos en los que la compañía despliega sus armas estratégicas.
De puertas afuera, no se conocían discrepancias entre Maritz y EMC, que controla el 80% de VMware, y por tanto no parece que su salida sea conflictiva. Por otro lado, llama poderosamente la atención, porque hasta ahora se daba a Gelsinger por candidato principal a la sucesión de Joe Tucci como CEO de EMC. ¿Hay que interpretar que los tiros van por otro lado?
Durante su carrera en Microsoft, Maritz alcanzó el estatus de virtual número tres, si es que tal rango existe. Ahora se conjetura que a) pasaría a ocupar un alto puesto directivo en EMC (que, lógicamente, no podría ser inferior al que ha desempeñado Gelsinger), o b) se encargaría de dirigir una nueva compañía segregada, que se formaría con activos de VMware (CloudFoundry) y de EMC (Greenplum) con el fin de desarrollar un denominado Proyecto Rubicon, cuyo solo nombre sugiere que se trataría de cruzar las fronteras del almacenamiento y la virtualización, dentro de las cuales se habían movido hasta ahora.
La idea que subyace en esa supuesta intención – tampoco confirmada – es la oportunidad de crear una compañía con capacidad suficiente para competir con la oferta de plataformas cloud de Amazon, Microsoft y Google [ninguna de las tres utiliza hardware de EMC ni software de VMware]. Veamos: si el CEO de una compañía muy rentable salta a un supuesto segundo plano para dirigir una spin off, y para dirigir la que aquel deja “desciende” el presunto número dos de la empresa que la controla, lo menos que puede decirse es que la iniciativa ha de tener una gran ambición. Veremos.
En una serie de cuatro exhaustivas páginas, el asalmonado Financial Times ha elogiado la estrategia y cuestionado la proverbial opacidad de Amazon, que parece convencida de que no tiene por qué dar explicaciones a los clientes de sus múltiples facetas . Este rasgo se ha puesto una vez más de manifiesto con motivo de dos sucesivos ´apagones´que dejaron sin servicio a destacados usuarios de su servicio cloud. Como no es la primera vez, y probablemente no será la última, uno puede preguntarse qué está pasando y qué efectos pueden tener estos incidentes sobre la confianza que se necesita para que prospere la adopción de esta modalidad. Jeff Bezos, fundador y CEO de la compañía, no ha dado la cara.
Lo mínimo que cabría esperar es que el proveedor, que tiene centros de datos en varias partes del mundo no escondiera su responsabilidad tras lo imprevisible de una tormenta eléctrica que descargó sobre uno de ellos. Para esto están los sistemas recurrentes, y la transferencia de cargas a ubicaciones no afectadas por la incidencia. Esa es, o debería ser, una de las virtudes de cloud computing, ¿no? Parecido reproche se podría hacer a los clientes – algunos tan significados como Netflix o Pinterest – que no sólo querían ahorrarse el coste de un nivel superior de servicio, sino que no tenían plan de contingencia para el caso de que Amazon les cortara el servicio. Que volvió a ser plenamente normal quince horas más tarde (!)
Si uno se propone ser bueno y buscar el lado positivo de las cosas, podría suponer que, esta vez sí, Amazon despertará a la realidad de que no puede provocar impunemente trastornos a sus clientes, aunque sólo fuera porque tiene competidores. O mejor todavía, que los clientes de Amazon empiecen a pensar en la posibilidad de despliegues multicloud: no les faltarán ofertas de otros proveedores, y esto sin duda animaría un mercado que, por el bien de todos, no debería dormirse en los laureles.
Microsoft empezará a entregar en la primera semana de agosto a los fabricantes la versión final de Windows 8, y los primeros modelos de ultrabooks y tabletas saldrán al mercado en octubre, bajo todas las marcas de costumbre. Hasta ahí, todo dentro de lo previsible, pero llama la atención que no se haya dicho cuándo estará disponible Windows RT, variante diseñada para procesadores de arquitectura ARM. Es razonable pensar que se quiere escalonar los lanzamientos para evitar confusiones a los usuarios habituados a pensar que Windows hay sólo uno. Aunque en el desfase se juegan las ventas navideñas.
El frente de los OEM se presenta muy abierto, y hasta contradictorio. El único que ha admitido estar desarrollando una tableta Windows RT es Samsung, y al parecer Asus tiene la misma intención: llegar antes que el resto. En cambio, HP y Acer han declarado que sólo trabajan sobre Windows 8, por distintas razones: HP porque su prioridad es el mercado profesional, y la marca taiwanesa porque está muy molesta tras no haber sido informada del plan de Microsoft sobre Surface.
De Surface, precisamente, ha dicho Steve Ballmer que en el próximo año fiscal se venderán “algunos millones” de unidades. Esto quiere decir que será una cifra modesta, confirmando así que Microsoft no hará un esfuerzo comercial específico, a menos que su diseño de referencia no fuera seguido por los OEM de primera fila. Al carecer de una estructura ni remotamente comparable a las de Apple y Amazon, la expresión de Ballmer sólo puede tener un sentido: tranquilizar a los OEM en el sentido de que no se propone competir con ellos, sino sólo marcar un camino de renovación de la oferta. Por ahora, mantengo mi interpretación.
El lector Miquel B. ha sido el único en atender mi petición de comentarios a propósito la sentencia europea que habilita la reventa de licencias de software “de segunda mano”. Y lo hace para señalar que la corriente de la nube no altera lo fundamental, la sujeción del cliente a las condiciones de una licencia en la que, normalmente, lo único negociable es el precio. “Sin software no hay cloud”, resume Miquel. “Es natural que los vendedores se guarden una bala en la recámara, porque lo que les interesa en la nube es esencialmente lo mismo: asegurarse la cautividad del cliente, e impedir su fuga a otro proveedor. No se ponen a ofrecer cloud para perder un negocio que les ha funcionado”.
Hasta aquí el comentario. Con esa premisa, supongo que el lector coincidirá conmigo en que hay algo que sí cambia: el proveedor de software de hoy puede no ser el mismo de mañana, y en consecuencia habrá rotación en el mercado. Las ataduras ya no funcionan, o no funcionan igual, y el cliente tiene la sensación de que el pago por uso es liberador, porque le da flexibilidad y reduce su coste total. Por lo tanto, es verosímil que la oferta extreme la redacción de las cláusulas contractuales, para acotar el terreno y los riesgos de fuga.
Quizá la clave de la respuesta resida en el vínculo entre cloud computing y virtualización. Si un modelo de licencia tradicional se basaba en un cierto número de núcleos de CPU física, ¿qué fórmula aplicar cuando la suscripción se negocia sobre máquinas virtuales? Porque raramente la migración será de quita y pon; para eso no valdría la pena. Los consultores independientes suelen recomendar que el primer paso sea un inventario exhaustivo del software existente – no sólo bases de datos y aplicaciones, sino también el middleware y lo que pueda haber oculto en lo que llaman legacy – antes de tomar decisiones precipitadas. Su otra recomendación es previsible: aprovechar la situación del mercado para negociar duro.
He leído que el tribunal de justicia de la Unión Europea ha dictado una sentencia que podría tener consecuencias más allá del asunto concreto que se dirimía: ¿se puede revender una licencia “usada” de software? La respuesta es que sí, se puede. El caso lo inició Oracle hace siete años, contra una empresa alemana, UsedSoft, que actuaba como broker entre clientes que habían decidido prescindir del software de Oracle y otras que estaban interesadas en pagar por una licencia de segunda mano. Un tribunal alemán dio la razón a la demandante, pero al recibir la apelación decidió elevar el asunto a la instancia europea. Y esta ha dicho, muy en síntesis, que lo que la industria llama licencia es equivalente a una venta, por lo que la restriccíón al derecho del comprador – normalmente incluida como cláusula del contrato de licencia – se extingue con la primera venta.
Por tanto, el software se puede revender, del mismo modo que un libro de segunda mano. Desde el punto de vista económico, es indistinto que se trate de una copia física en DVD o de una descarga online, estipula el tribunal, siempre que se cumpla una condición: que el revendedor desactive su copia [que es como decir que no puede fotocopiar un libro que va a revender]. También dice la sentencia que toda actualización introducida en el programa en virtud de un contrato de servicio, es propiedad del comprador y, por tanto, se puede revender. Parece obvio que el comprador de segunda mano pierde los derechos al soporte y, por lo tanto, habrá hecho una mala compra.
Los efectos prácticos de la sentencia son de difícil apreciación para mí, pero puedo imaginar que tanto Oracle como otras empresas habrán introducido hace tiempo salvaguardas en sus contratos de licencia para no encontrarse en circunstancias como esta. También tiendo a suponer que la creciente sustitución del régimen de licencias on premise por suscripciones como servicio, volverán obsoleta la cuestión. Pero confío en que algún lector pueda ilustrarme acerca de los eventuales efectos doctrinales de la sentencia.
La designación de António Coimbra como nuevo consejero delegado de la filial española de Vodafone ha tenido interpretaciones de alcance local, a mi modo de ver limitadas. Si en su día pudo parecer exótico traer un ejecutivo sudafricano para impulsar una polìtica comercial en el mercado español, no hay por qué extrañarse de que el responsable de Portugal sea trasladado a Madrid, sobre todo porque esto no altera la presidencia que conserva Francisco Román: la misión de Coimbra será la que Shameel Joosub deja inconclusa para volver a su país. Se me antoja pueril quedarnos en la dimensión ibérica de este movimiento; o se observa todo el tablero, o uno se pierde la jugada: Vodafone trata de imprimir otra lógica a su organización en Europa, y puede que acabe moviendo más fichas.
Rebobinemos. En abril, Vodafone vendió a Vivendi su participación en el operador francés SFR; al poco tiempo se anunciaba que Michel Combes, CEO de Vodafone Europa, dejaría su puesto para pasar a dirigir SFR tras el cambio de propiedad. Fue entonces cuando se abrió la posibilidad de segmentar los negocios continentales de Vodafone en dos bloques: norte (incluido UK) y sur (que incluye España, pero también Turquía). Del primer bloque se encargará el hasta ahora CEO de T-Mobile USA, Philipp Humm, y del segundo Paolo Bertoluzzo, que dirigía Vodafone Italia. Entretanto se desencadenaba un conflicto en Vivendi, que forzó la salida de su CEO, Jean-Bertrand Lévy, a quien se reprocha el haber pagado un precio demasiado alto por el paquete de SFR que no controlaba, precisamente cuando la competición en Francia se agudiza.
Hasta que se resuelva el enredo francés, la incorporación de Combes a SFR parece congelada, mientras Vivendi debate la eventual partición de sus proteicas actividades. Se ha informado de que Combes seguirá “varios meses” en Vodafone ayudando en la transición provocada por su dimisión. Hasta aquí, todo lo que sé, que no es mucho, pero lo suficiente para ver que la partida ha tomado un giro inesperado. No está de más recordar que aun siendo un operador global, el eje de gravedad de Vodafone sigue en Europa, donde obtiene el 70% de sus ingresos y el 45% de sus beneficios operativos.
Poca gente se sorprenderá de que, en el marasmo económico actual, la enorme y omnipotente IBM, ya no tenga claro cumplir con los objetivos para 2015 que Virginia Rometty, designada CEO en octubre, ha heredado de su antecesor Sam Palmisano. Los resultados del primer trimestre de este año han sido mediocres: sólo un 0,3% de aumento en los ingresos y un 2,4% en el beneficio bruto. No obstante, la cotización se mantiene alta, gracias a la política de recompra de acciones, una táctica que pudiera no ser sostenible si el negocio no progresa al ritmo marcado en el plan 2015. A este paso, los ingresos totales no subirían de 30.000 a 50.000 millones de dólares (véase mi post del 27/10).
No se trata sólo de crecer en ingresos, sino de un desplazamiento de las prioridades de crecimiento, y de que para esa fecha la base total de costes – actualmente unos 80.000 millones – se reduzca en 8.000 millones. O, lo que viene a ser lo mismo, la plantilla se ajuste en ciertos mercados, a la vez que mantiene su tamaño global. No hay misterio: se trata de bajar el salario medio.
Los empleados en EEUU de la división Global Technology Services – un 40% de la facturación total – han tenido la sorpresa de una congelación salarial. Hay que reconocer que la fórmula elegida para dar la mala noticia tiene estilo: “sólo algunos grupos de empleados con cualificaciones especiales demandadas por nuestros clientes serán ´elegibles´ para recibir aumentos de salario”. Y añade que ningún cargo ejecutivo será ´elegible´.
En principio, esta política será aplicada en la división GTS y sólo en EEUU. El comunicado explica. “es esencial que estemos en condiciones de proveer servicios a nuestros clientes al precio más competitivo que podamos alcanzar […] ajustando nuestra estructura de costes laborales y moviéndonos hacia las áreas de actividad que son estratégicas para los clientes y que exigen soluciones innovadoras”. No se han filtrado comunicados equivalentes en Europa, pero hay que tomar lo transcripto como un aviso a navegantes.
Según anticipa Nature, hoy se anunciará en Ginebra la evidencia experimental de la existencia de una nueva partícula, fruto del trabajo de los físicos del CERN, con participación de grupos del CSIC, CIEMAT y varias universidades españolas. Según se anticipa, los resultados son coherentes con los obtenidos y presentados ayer en el Fermilab de Estados Unidos. Al margen de las consabidas prisas por los titulares, sería necesario continuar el análisis adicional antes de confirmar que la partícula puesta en evidencia tiene las propiedades teóricas del tan buscado bosón de Higgs, del que se piensa que podría explicar la masa de todas las otras. Lo importante aquí es que el modelo estándar de la física de partículas alcanzaría, si no un punto final, otra corroboración experimental de su validez.
Al leer la noticia, he recordado un capítulo de la serie El Ala Oeste de la Casa Blanca, en el que un asesor presidencial trataba de desbloquear la oposición de un influyente senador a la ampliación de fondos destinados al acelerador de partículas estadounidense (presuntamente el que ayer hizo el anuncio). Los personajes debaten en torno a dos preguntas del senador: “¿para qué sirve a efectos prácticos? y ¿cómo se lo explico a mis electores?”. Era ficción, o no tanto, pero se me ha ocurrido relacionar la secuencia con este gran paso de la investigación básica.
Mi reflexión no es ajena, al contrario es intencionadamente afín, a una discusión que a menudo se plantea a propósito del papel de la universidad española. ¿Cuántas veces habremos escuchado que debería estar al servicio del modelo productivo, eufemismo con el que se quiere predicar el recorte de la investigación para dedicar esfuerzos y recursos a la formación de los profesionales que necesitan las empresas. Al respecto, me limitaré a recomendar la lectura (o relectura) de la entrevista a Peter Lee, director de los laboratorios de Microsoft Research. Ahí está todo lo que pudiera añadir al respecto
Un economista español que profesa en la London School of Economics, solía escribir unos artíiculos cuyo eje era la necesidad de lo que él (y otros de su oficio) llaman “reformas estructurales” para la economía española. Ahora que ya tenemos una reforma laboral a la medida de ese respetable punto de vista, observamos que España está a la cola de la UE en muchas cosas, pero está en cabeza por su desempleo, por el número de despidos de los últimos meses y por las bajadas salariales (una cosa trae la otra). Nuestro economista polígrafo ha cambiado de tema: ayer mismo publicaba un texto sobre otra falacia, la llamada “marca España”, según él en declive.
Es opinión extendida entre los economistas que la reforma laboral equivale a una forma de devaluación interna. Me explico: un país de la eurozona no puede alterar unilateralmente el valor de su moneda, pero sí puede elevar su competitividad rebajando los precios relativos de los bienes y servicios que produce internamente. En teorìa, así ganaría mercados para sus exportaciones, al menos hasta que otro competidor le siga en el juego. Obviamente, entre los precios relativos que se pueden rebajar, está el de la fuerza laboral. Cualquier medida que pretendiera tocar los precios de una mercancía o un servicio, sería una violación de las reglas del mercado; en cambio, mediante una reforma legal se puede restringir esas otras anomalías del mercado que son la negociación colectiva y la protección del empleo.
Que nadie tema: no estoy haciendo un alegato off-topic; sólo pretendo combinar dos noticias que me han remitido los lectores. Una: según un estudio de Altran, el sector de servicios de tecnología ha perdido el año pasado 76.000 empleos. Dos: según me cuenta Daniel R, una organización llamada ValueShore presentó en Londres otro informe, según el cual las consultoras españolas de TI están en mejores condiciones para vender outsourcing a sus clientes de Reino Unido. Me detendré en esta última argumentación: 1) España está cerca; 2) tiene personal cualificado; 3) sus costes son nuevamente competitivos, y 4) los vínculos con América Latina permiten “desplazar las tareas rutinarias y repetitivas, permitiendo que desde España se ofrezcan servicios robustos y flexibles de outsourcing, optimizados según las necesidades de los clientes”. ¿O sea que volvemos al denostado body shoping? ¿No habíamos quedado en que esta era una característico de la “marca India”?
Una vez cumplida la cuaresma que prohibe a los analistas de los bancos colocadores de una salida a bolsa opinar sobre una empresa que han ayudado a lanzar, había curiosidad por saber qué dirían sobre Facebook los que trabajan para Morgan Stanley, JP Morgan y Goldman Sachs. Sería ingenuo creer que hay estricta separación entre la función de banca de inversión y la de análisis, pero los tres se las han ingeniado para no criticar el estropicio de la OPV ni pasarse de entusiasmo. Es preciso recordar que el precio de salida fijado por Facebook y sus banqueros fue de 38 dólares por acción, que la primera sesión se abrió a 43 dólares y desde entonces no ha recuperado tales niveles. Ayer, cerraba a 32 dólares, un 16% menos que el precio de salida y un 26% menos que su cotización máxima de primera hora.
40 días después, el trio de underwriters, en lugar de pronosticar lo que pueda pasar cuando Facebook presente resultados de su primer trimestre como cotizada, prefiere enviar un balón largo y alto. Los analistas de JP Morgan opinan que dentro de 18 meses, la acción valdrá 45 dólares, y los de Goldman Sachs se quedan en 42 dólares, pero en un horizonte de 12 meses (la media sería la misma). Por su lado, Morgan Stanley, que fue el banco líder de la OPV, no se complica mucho la vida: a los 12 meses, Facebook valdrá lo que había calculado el 18 de mayo: 38 dólares. Spencer Wang, de Credit Suisse, sin compromisos, baja el target a 34 dólares.
Al diablo con la bolsa, dejen que arriesgue mi propio análisis, que complementa el post del 30/5. ¿Qué puede pasar con Facebook, la empresa, durante el resto de 2012? Primera hipótesis: que siga como hasta ahora, pero desacelerando el ritmo de entrada de nuevos usuarios, y sin mejorar significativamente su ingreso medio por usuario (por tanto, la acción seguirá estancada, y los accionistas empezarán a inquietarse). Segunda: es la variante pesimista, en la que Facebook tiene dificultades para traspasar su modelo de negocio a los móviles, mientras Twitter le “roba la cartera”. La tercera y última es el sueño de Mark Zuckerberg: Facebook sirve como modelo para muchos imitadores – no necesariamente más jóvenes – y los derrota gracias a que ha llegado antes y ha acumulado una gran potencia financiera.