wp_head() ?>
En el comentario de ayer sobre Microsoft y Windows 8, se echaba en falta algo, los números. Desde el punto de vista de la información, que es el mío, este no es el aspecto relevante sino la apremiante necesidad de un cambio salvador [el Financial Times titulaba ayer Microsoft throws Windows 8 a lifeline]. Pero, en su ronda con la gran prensa anglosajona, Tami Reller [ella, no él, como salió publicado por error] aportó algunos datos de contexto. Seis meses después de su aparición, de Windows 8 se han vendido 100 millones de licencias, aproximadamente en línea – según la compañía, porque los analistas lo ven de otro modo – con el ritmo seguido por Windows 7 en su primer semestre de vida.
El de los números es un argumento de doble filo. Si tomamos esa tendencia literalmente, ¿por qué cambiar?, ¿a qué viene que Reller reconozca haber entendido el mensaje de los usuarios, que piden la vuelta del botón de inicio y otros rasgos a los que estaban acostumbrados?
Hay más que matices en el discurso sobre los números. Mientras las consultoras IDC y Gartner han informado de una dura caída en la venta de PC –que llevan incorporada una licencia – Microsoft afirma haber vendido muchas licencias. Lo que significa, entre otras cosas, que se trata de dos mercados diferentes. Para evitar polémicas, Microsoft aclara que sus datos se refieren al canal minorista, no a los usuarios finales. Atención: ¿estará corriendo el riesgo de saturar el canal o, lo más plausible, se ha concertado con los fabricantes para apuntar masivamente licencias que se guardarán como activo provisional en espera de la actualización? Es curioso que, al lado de la aclaración, Reller – y varios fabricantes – anuncien acciones de entrenamiento específico del canal porque la venta de PC con el nuevo interfaz táctil requiere prácticas no rutinarias en las tiendas.
En su ronda con la prensa, Reller menciona que maneja encuestas de satisfacción, pero no comenta las estadísticas de activación online de Windows 8 publicadas por Net Applications: según esta consultora, han sido muy bajas hasta ahora, y sería muy extraño que alguien comprara un PC para no activar de inmediato el sistema operativo. Por tanto, al margen de cuántas licencias se hayan vendido, parece realista pensar que no ha habido en el mercado suficientes máquinas capaces de sacar partido del nuevo interfaz. En consecuencia, los fabricantes hacen lo estrictamente necesario para mantener encendida la lumbre, pero – ellos también, y con el mismo ansia de este cronista, si no más – van a esperar a que salga la actualización bautizada Blue, y con ella recuperar el calor de la demanda en el último trimestre del año. «Tengo que insistir – dijo Reller a la agencia AP – en que Windows 8 no desplegará todo su potencial mientras no haya suficientes equipos táctiles en el mercado».
Otro de los puntos a los que dedica atención preferente el informe anual de Symantec sobre el estado de la seguridad online es el que relaciones tres fenómenos de rigurosa actualidad: las redes sociales, los dispositivos móviles y el cloud. Nada menos. No es novedad que en estos tres ámbitos crecen y se acumulan los problemas. Mientras el spam y el phishing tradicionales se han matizado, los ataques se están produciendo en plataformas nuevas, a las que los usuarios han llegado masivamente. La concentración de datos personales, introducidos ingenuamente por los usuarios, es aprovechada por la industria del malware, que a la vez es consciente del valor que encierran por su adyacencia a la información corporativa. Leer más
Para una empresa tan poco dada a la autocrítica pública, es un encomiable cambio de actitud que Tami Reller, responsable de finanzas y marketing de la división Windows, ha salido a dar la cara en los medios para admitir que Windows 8 no está recibiendo de los usuarios la acogida que la compañía esperaba. Ella lo ha dicho así: «la curva de aprendizaje es un problema real que necesita ser atendido». Una manera de decir que Microsoft se ha equivocado al forzar la adopción brusca de un interfaz táctil – el llamado Metro – sin dejar a los usuarios la opción del escritorio convencional. Para nuevos compradores habituados a las tabletas, tal vez no sea importante, pero se ha revelado como una barrera para seducir a quienes han adquirido un hábito de interacción durante dos décadas.
La solución está en marcha, y forma parte del proyecto que internamente llaman Blue: al filo del verano – cuanto antes mejor – se conocerán los detalles de una actualización que, comercialmente, llevará el nombre de Windows 8.1. Entre otras cosas, restablecerá el botón de Inicio, y el escritorio ya no será una opción secundaria. Según ha reconocido Reller, «empezamos por tratar el escritorio como una aplicación, antes de descubrir que para los compradores de PC, el escritorio es realmente algo importante».
Este era el momento de empezar a soltar lastre, porque en junio el tema podría convertirse en un bumerán. Para ese mes están convocadas la feria Computex, de Taiwan (cada año más importante) dos conferencias de Microsoft: TechEd y Build (la segunda es crucial para asegurarse la confianza de los desarrolladores).
Puede uno puede preguntarse por qué se equivocó Microsoft, y en qué momento comprendió su error. Arriesgaré una hipótesis sobre lo primero. Cuando Apple lanzó el iPhone, y luego el iPad, introdujo un cambio drástico que, sorprendentemente, fue aceptado por los usuarios con gran rapidez, pero fue despreciado por Microsoft. Reaccionaría bien con el tiempo, desarrollando el original interfaz de Windows Phone, el único que no trata de parecerse al de Apple, pero ya era tarde para remontar la cuesta. Intuyo que esta vez, alguien en la cúpula de la compañía decidió pisar el acelerador a fondo y actuar con Windows 8 como hiciera Apple en el iPhone (pero no en el Mac). Es sólo una conjetura, claro.
Normalmente, la intención de los estudios sobre seguridad informática es más bien la de hacer de punta de lanza del marketing de tal o cual producto antimalware, en lugar de servir como análisis crítico de la situación. Una excepción a la regla – aunque no la única – es, por su alcance y exhaustividad, el Internet Security Threat Report (ISTR), que ya va por la 18ª. edición. Su responsable es la compañía Symantec, líder del sector, que presenta una masa de información recogida automáticamente por su sistema de sensores en 157 países. Algunas conclusiones abundan en asuntos y tendencias ya conocidos, pero en los últimos años ha adquirido relevancia un aspecto, el espionaje corporativo. Leer más
El Reino Unido, donde empezó la liberalización de las telecomunicaciones en Europa, está dando un giro sorprendente, aunque no inesperado, hacia la consolidación entre operadores. El último síntoma es este: BT, el antaño incumbente British Telecom, ha cerrado un acuerdo con O2, su hijo pródigo, segregado en 2001 y hoy propiedad de Telefónica. Puede que sea un ejercicio de otras noticias que llegarán, y sería un error no prestarle atención pensando que se trata de algo estrictamente británico.
El acuerdo, con diez años de vigencia, implica que BT y O2 compartirán la red de cuarta generación que se desarrollará sobre las licencias de espectro LTE adquiridas por BT en una subasta en la que pujó agresivamente, mientras la filial de Telefónica mantenía una actitud cautelosa. Como resultado, BT se adjudicó 30 MHz en la banda de 2,6, la más valiosa, mientras O2 se conformaba con 20 MHz en la de 800 y nada de nada en la de 2,6. Ya entonces se especuló que algo raro pasaba para que BT pagara 200 millones de libras por frecuencias que no necesita para su limitado negocio móvil. Al leer los estereotipados comunicados de prensa – que ni siquiera mencionan la palabra espectro – uno se entera de que la rama mayorista de BT pondrá a disposición de O2 la infraestructura necesaria para ofrecer a sus clientes una nueva experiencia, etcétera.
El trasfondo es la previsión de que el tráfico de datos móviles en Reino Unido se multiplicará por cuatro antes de 2016, y BT cuenta con la mejor tajada de LTE y con una densa red wifi complementaria. El operador EE (sociedad de Orange y T-Mobile) ha salido de sus penurias gracias a que ha podido explotar antes que sus rivales una primera franja de espectro 4G, mientras Vodafone y O2, además de protestar, se dedicaban a buscar alternativas. Una de ellas, la integración de sus estaciones base, que habrá que ver en qué queda tras esta última peripecia.
Hay una rica historia detrás de la noticia. BT segregó su red móvil en 1985 bajo la marca Cellnet, que se transformaría en O2 y, en 2005, sería adquirida por Telefónica por 18.000 millones de libras. En tal contexto, BT cerró un acuerdo con Vodafone para usar la red de esta en la prestación de servicios móviles a sus clientes corporativos; pero las cosas se torcieron cuando, el año pasado, Vodafone adquirió Cable & Wireless para prestar servicios de banda ancha fija a empresas, en abierta competencia con BT. Esta trayectoria ha ayudado a que BT y O2 vuelvan a abrazarse después de tantos años y quizá podrían plantearse otras iniciativas en común, por ejemplo en el negocio de la televisión de pago, en el país que tiene el mercado más valioso de Europa, pero en el que hay overbooking de oferta.
Mucho se ha discutido sobre HTML5 como alternativa a las aplicaciones nativas. El debate sigue abierto, pero no habrá vencedor; para 2016, Gartner prevé que más de un 50% de las aplicaciones móviles se desarrollarán con un modelo híbrido, combinando esta tecnología con código nativo. Suele hacerse hincapié en la vertiente técnica con el objetivo de justificar la lentitud en su adopción, pero HTML5 sigue despertando pasiones y rechazo a partes iguales. Sus perspectivas están, en realidad, supeditadas a un tira y afloja entre los que se beneficiarían con una implantación más audaz – las operadoras, por ejemplo – y las compañías que se resisten por su propio interés.
El segmento de los servidores es uno de los más agitados de la industria en estos tiempos. Un movimiento altamente llamativo es la decisión de HP de consolidar sus familias ProLiant, Integrity, BladeSystem y los nuevos Moonshot bajo una misma organización, llamada Servers Division, dentro del Enterprise Group. Estratégicamente, encaja en la política marcada por Meg Whitman de concentrar las unidades de negocio en grandes bloques, algo que complace a los inversores, a juzgar por la evolución bursátil. Tácticamente, parece estar inducida por la oportunidad de ganar terreno ante la incertidumbre que rodea a IBM y Dell, sus principales adversarios.
Si esta división hubiera existido como tal el pasado año fiscal, su aportación a las cuentas de HP habría sumado 14.000 millones de dólares. Las adversas consecuencias de la disputa legal con Oracle, y el retroceso en el mercado de máquinas x86 no obstan para que HP sea el primero de la tabla del mercado de servidores, por unidades, y que su posición incluso podría mejorar, dependiendo de lo que pase con IBM.
De momento, parece que se han roto las negociaciones – no reconocidas oficialmente – por las que Lenovo compraría el negocio de servidores x86 de IBM. Si este fuera el desenlace, IBM habría quedado en una posición desairada, con todos sabiendo que quiere vender pero no lo ha conseguido. El ranking del primer trimestre no refleja esta hipótesis – aunque IBM ha vuelto a caer en esa categoría – pero los ejecutivos de HP creen que pueden sacar tajada del desconcierto que puedan sentir los clientes de su competidor.
Distinto, muy distinto, es el caso de Dell. La compañía está en una fase delicada de su ´privatización´: la transacción propuesta por Michael Dell no está cerrada, pero mientras tanto tiene que dar la cara en bolsa por la evolución de sus ventas, y tranquilizar al canal acerca de la continuidad. Ocurre que, precisamente en los servidores, Dell ha encontrado un argumento de marketing precioso en estas circunstancias: Gartner e IDC conciden en que ha avanzado porcentualmente durante el primer trimestre, recortando la distancia que la separa de HP, líder del mercado.
Esta no ha tardado en reaccionar, recordando que «un trimestre no hace tendencia». En su auxilio ha acudido IDC: la consultora ha confirmado que HP ha encabezado el ranking de venta de servidores durante 68 trimestres consecutivos. Lo que impide ratificar que este mercado se encuentra en medio de una transición – la propia HP ha sido uno de los primeros fabricantes que la ha visto venir – que puede dar más de un vuelco inesperado.
Es fácil ver que los servicios cloud, en su variante IaaS (infraestructura como servicio) han desencadenado una guerra de precios entre Amazon y Microsoft, a la que posiblemente se sumará Google. Desde su lanzamiento hace seis años, Amazon Web Services ha corregido a la baja sus precios 27 veces, según su fundador, Jeff Bezos. Microsoft ha presentado descuentos de entre el 21% y el 33% en las tarifas de los servicios básicos de Azure, avisando que igualará cualquier rebaja que haga AWS, para no dejar que su rival se le escape por esa vía. La cuota de AWS en este mercado se estima en el 71% y la de Azure en un 20%. Como suele suceder, la guerra de precios conlleva una guerra de palabras. Leer más
Se acabaron las conjeturas. Al final, el elegido no ha sido un outsider ni habrá retorno del hijo pródigo; el nuevo CEO de Intel será Brian Krzanich (52), un veterano que ha pasado la integridad de su carrera dentro de la compañía, a la que ingresó en 1982, nada más acabar sus estudios. En 31 años habrá hecho de casi todo, pero su curriculum sugiere que no es un visionario ni un hombre de marketing, sino un consumado especialista en hacer que el proceso de fabricación funcione. Es un mérito enorme, dadas las circunstancias: Intel no puede permitirse el confiar en un crecimiento lineal sobre los mismos supuestos que ha seguido durante décadas. El mercado está dando un vuelco, o varios, y la compañía da la sensación de haber perdido fuelle. Por eso, dicen, se va Paul Otellini, su antecesor
Otellini se retira anticipadamente con el mal sabor de un decepcionante primer trimestre, en el que tanto los ingresos como los beneficios han bajado. La mitad de los 2.000 millones de beneficios ha sido destinada a dividendo y a recomprar acciones para sostener la cotización. Al margen de las finanzas, Kraznich heredará de Otellini tres problemas pendientes: 1) ganar una posición competitiva, que nunca tuvo, en el floreciente negocio de los procesadores para móviles; 2) contrarrestar – se supone que con la ayuda de Microsoft – el retroceso del mercado de PC; y 3) reaccionar ante el cambio drástico en el diseño de los servidores, para preservar su papel en los centros de datos, que es la llave de su beneficio.
En todos estos terrenos, Intel disfruta de un rasgo exclusivo: es el único fabricante de chips que tiene integradas todas las fases de producción, mientras el resto de la industria se ha decantado unánimemente [con la excepción parcial de Samsung] por el modelo fabless, en el que ´fabricantes´ como Qualcomm, Nvidia y otros, se reservan el diseño de sus procesadores, generalmente siguiendo la arquitectura por la que pagan licencia a la británica ARM, y dejan la verdadera fabricación en manos de foundries especializadas. Varias veces se ha dicho que Intel estaría dispuesta a competir con estas y poner su enorme capacidad fabril al servicio de terceros. Se comenta que el primer cliente de un contrato de fabricación podría ser Cisco.
Entre esos terceros habría uno que puede ser relevante para su estrategia, y se llama Apple. Nunca le ha gustado tener que comprar chips ajenos, y si bien tiene capacidad de diseño, su volumen no es suficiente para abordar la fabricación. Tal vez Intel sería un socio industrial más fiable que TSMC.
Estrechar lazos con Apple es un anhelo que Otellini consiguió sólo a medias. Será casualidad, pero coincidiendo con el anuncio de la elección de Krzanich, Intel ha presentado la cuarta generación de su familia Core – hasta ahora conocida por el apodo Haswell – con una impresionante performance de integración gráfica. Por el momento, baste citar la predicción de que estos procesadores equiparán los nuevos Macbook Pro y Macbook Air, que Apple anunciará probablemente en junio.