wp_head() ?>
Acabaré con mi comentario de ayer acerca del debate sobre la neutralidad de la red. A menos que se produzca una reversión de la sentencia judicial, los proveedores de banda ancha en Estados Unidos quedarían libres de llegar a acuerdos con los grandes proveedores de servicios de Internet – no hace falta redundar en la lista – para que estos paguen precios diferenciales por difundir sus contenidos a través de las redes de aquellos.
Unos dirán que así se discriminaría a los pequeños, que no tienen la escala ni los recursos para competir con (añádase aquí la lista de ayer) y de tal manera se bloquearía la innovación, palabra fetiche que se invoca en estos casos. Los del otro bando dirán que esas prácticas corresponden a una estricta lógica de mercado: que pague más quien más ancho de banda consuma para llegar a los consumidores, y así se podrá financiar la otra innovación, no menos necesaria, en la provisión de infraestructuras. Entre estas dos posiciones se moverá la discusión en Washington. ¿Llegará a Bruselas? Ya ha llegado, a la manera europea: el principio de neutralidad de red está incluído en una propuesta que la Comisión ha enviado a su Parlamento, que quizá no podría aprobarla a tiempo antes de las elecciones de mayo.
¿Cuál es la situación? La comisaria Neelie Kroes, teórica defensora de la neutralidad de red, escribía en su blog en setiembre: «no soy partidaria de intervenir en mercados competitivos sin antes estar segura de que es la única manera de ayudar tanto a los consumidores como a las compañías. Preferentemente a ambas partes». Encomiable propósito, que la ha llevado a pedir información a los reguladores nacionales.
Ya está en su poder, la suficiente información para afirmar que «al menos el 20%, y potencialmente la mitad de los usuarios europeos de banda ancha tienen contratos que autorizan a sus proveedores (ISP) a restringir servicios VoIP (Skype) o P2P. Uno de cada cinco operadores fijos en los estados de la Unión aplican restricciones al volumen de tráfico en horas punta [… ] Al mismo tiempo, «la mayoría, si no todos, los ISP ofrecen servicios de acceso fijo y móvil a Internet que no están sujetos a esas restricciones». Este sí que es un rasgo europeo: el consumo de banda ancha es más de móviles que de líneas fijas.
Recomiendo leer a la señora Kroes por su capacidad para decir una cosa y la contraria: «Poner un techo cuantitativo a los datos es preferible a una vaga cláusula de ´uso razonable` [palabra usada por la FCC en su norma anulada] que deja demasiado margen discrecional al ISP […] El usuario tiene derecho a saber si lo que se le ofrece es champán o vino espumoso».
En realidad, el debate en Europa se concentra más bien en una cuestión adyacente, que sigue sobre la mesa de la Comisión en esta última fase de un mandato calamitoso: cómo incentivar la inversión en infraestructuras de banda ancha, asegurando que los ISP puedan aplicar precios que cubran sus costes, incluídos los financieros, y a la vez no dar cancha a una competición «no razonable» por parte de otros actores que son más poderosos – compárese el valor bursátil de cualquier OTT con el de cualquier operador europeo – pero no se hacen cargo de la inversión. O eso dice la otra parte. Espero haber ayudado a entender un poco de qué va eso en apariencia tan deseable como es la neutralidad de las redes, y por qué nos afecta aunque parezca un asunto americano.
Hay palabras con las que es fácil estar de acuerdo, hasta que llegan las consecuencias. Austeridad es una de ellas, como bien sabemos. Pasa lo mismo con la palabra neutralidad. ¿Quién tendría algo que objetar a la neutralidad de las redes? Depende del interés de cada uno o, dicho de otro modo, del sitio que ocupe en la cadena de valor. Hace unos dias, un tribunal de Estados Unidos sentenció que la FCC (Federal Communications Commission) no tiene autoridad para imponer a los operadores sus reglas sobre la neutralidad de las redes, y en un primer momento se interpretó como un duro golpe a este concepto que todas las partes habían asumido y aceptado, de buena o mala gana, y algunas a regañadientes. El caso se abrió por una denuncia de Verizon, primer operador de ese país, que cuestiona esa facultad de la FCC, y el tribunal le dio la razón. Pero, al leer mejor la sentencia, se vio que deja la puerta abierta para que el regulador siga otro procedimiento para reintroducir esas mismas reglas, y al parecer esto es lo que la FCC piensa hacer.
El origen de la disputa es que, durante la administración Bush, la FCC estableció que la provisión de banda ancha no puede ser tratada igual que un operador tradicional (common carrier). Porque, según su criterio, se trataría de servicios de información, a diferencia de los servicios de telecomunicaciones que tienen una regulación rigurosa. De inmediato, los defensores del principio de neutralidad se han movilizado para exigir restricciones más severas contra los operadores, que en la práctica son los proveedores de banda ancha (aunque no los únicos). Estos (supuestos) beneficiarios han prometido que no aprovecharán la coyuntura, dejando a la FCC que decida cómo salir del embrollo.
Empiezo a temer que necesitaré dos capítulos para aclararme sobre tan endiablada cuestión, así que pido paciencia al lector por explayarme. La neutralidad de las redes es una noción anterior a la generalización de la banda ancha. El Internet de hoy vive una explosión de tráfico que tensiona las redes, tanto fijas como móviles, y plantea nuevos retos regulatorios. Y la balanza se ha inclinado en favor de los proveedores de servicios (OTT) que son los principales causantes del aumento de tráfico por las redes de los operadores. Pagan por ello, y se benefician de ello. Google, Facebook, Skype, Apple, Microsoft y What´s App (o, en otro plano, Netflix) han difuminado los límites entre voz, datos y vídeo, despertando la queja constante de los dueños de las redes. Como es sabido, los ingresos de las telecos declinan en todo el mundo, pero al mismo tiempo los gobiernos les reclaman que inviertan en la ampliación y renovación de sus infraestructuras, para responder a la explosión de demanda con la calidad que los usuarios esperan.
Los argumentos económicos, y las posiciones de las partes, han evolucionado con el tiempo. No hay más que ver a Google – que tiene en nómina a Vinton Cerf como ´evangelista` de la neutralidad – guardando silencio ante la sentencia, por ahora [hay quien sostiene que una aplicación estricta del concepto alcanzaría también a Google]. También ha progresado la tecnología, facilitando soluciones de gestión de tráfico que dejan muy anticuados los fundamentos originales de la neutralidad de redes.
Pese a la discreción con la que las partes implicadas se han tomado la sentencia, la realidad jurídica es que este momento un operador que explote una red de banda ancha podría, legalmente y en teoría, discriminar a un proveedor de servicio frente a otros, o aplicar distintas tarifas a distintos contenidos. Lo que vale (provisionalmente) para Estados Unidos, influirá sobre el debate en Europa, como es natural. Se precipitan quienes escriben que la sentencia socava la naturaleza abierta de Internet; todo lo más, se puede suponer que como la situación ha cambiado, las normas deben adaptarse, y la FCC tiene dos opciones: recurrir ante un tribunal superior o, lo que parece más práctico, elaborar unas reglas que no merezcan la misma objeción, pero que tendrá que negociar con los interesados.
¿Por qué 10 y no 12?, me pregunta Iñaki a propósito de las dos crónicas de la semana pasada en las que analizaba el comportamiento bursátil en 2013 de una decena de empresas del sector TI. La verdad es que no tengo una respuesta, pero el propio Iñaki me deja una salida digna al proponer que añada Intel y Amazon a la lista [aunque ahora mismo se me ocurren otras dos que merecerían el mismo trato, y nos pondríamos en 14]. Así que allá voy con una empresa histórica (Intel) en la que se inician muchas de las cadenas de valor de esta industria, y con otra de la cosecha de 1995 (Amazon), que al parecer pretende arrasar con todos los mercados en los que actúa.
Intel. Al cierre de 2013, los ingresos fueron inferiores (-1,2%) a los del año anterior, que ya había acabado con un descenso del 1,2%. El beneficio operativo cayó un 16% y el beneficio neto un 12%. Sin embargo, la acción ganó un 25% con respecto al mal inicio del año, lo que puede entenderse como un voto de confianza en el nuevo CEO, Brian Krzanich, pero los analistas opinan que está sobrevalorada. Al presentar los resultados, el CEO ha tenido el coraje de reconocer que la compañía se ha equivocado en sus pronósticos sobre el mercado de PC y al anticipar una mejoría del gasto en TI que no se ha producido sino que, por el contrario, ha bajado en zonas del mundo que parecían al abrigo de la contingencia.
Krzanich, que está en el cargo desde mayo, anticipó que 2014 será un año plano en ingresos, que no es una buena noticia. Los esfuerzos de Intel se van a centrar en la defensa de su posición en el segmento de datacenter y en ganar espacio en el de tabletas, además de prepararse para las nuevas plataformas emergentes – wearables, Internet de las cosas – para las que presentó nuevos chips en el CES, hace dos semanas. El gasto en I+D y en capex se reforzará, pero al mismo tiempo ha anunciado que va a congelar su fábrica N32, en Arizona, que iba a ser la punta de lanza de su tecnología de 14 nm. Esta puede conseguirse – según Brian Krzanich – con medidas que aumenten la eficiencia de otras plantas. La otra noticia de los últimos días es el sacrificio de 5.400 puestos de trabajo durante este año.
Amazon. Jeff Bezos es el «coco» de la industria, y muy contento de serlo. En su faceta original, el e-commerce, Amazon ha batido en la temporada navideña todos los récords de entregas; sin dar cifras, ha dicho que sus tabletas de la familia Kindle han vendido «muchos millones»; sigue sin revelar cuánto ingresa su rama Web Services, que presta servicios cloud. Sus adversarios le temen, y los analistas se quejan de la opacidad de su comunicación financiera. En cuanto a los inversores, le son fieles a pesar de que no distribuye beneficios ni hace caso de las estrategias que siguen sus competidores para «dar valor al accionista». Así y todo, su acción ha subido un 59% entre enero y diciembre de 2013.
Si el último trimestre acabó con una traca, los comentaristas auguran un 2014 aún mejor: si el beneficio contable fue del 167% en 2013, este año podria ser de más del 200%, según algunos que hace poco eran todavía escépticos. Las crónicas que se publican sobre Amazon incluyen casi ritualmente esta frase: «un portavoz de la compañía declinó hacer ningún comentario». La opacidad es su forma de responder a la insatisfacción de sus empleados por las condiciones de trabajo, y a las quejas de sus proveedores por el trato que reciben. Poco importa: en una de esas raras entrevistas que concede, Bezos ha dicho estar agradecido por el tiempo que sus rivales han tardado en comprender su modelo de negocio, lo que ha reforzado la idea de que, salvo imprevistos, Amazon es imbatible en todo aquello que se proponga. Ahí está la explicación de la actitud de los inversores.
No veo razones para escandalizarse, sólo son negocios. De recibir una paga de los fabricantes de Android, Microsoft pasaría a subvencionarlos para que adopten Windows Phone. Y para ese fin habría reservado 2.600 millones de dólares con la condición de que desarrollen y comercialicen este año, almenos un smartphone basado en su sistema operativo. Llama la atención que la cifra sea prácticamente igual a la que Microsoft ingresa como royalties por su reivindicación de patentes relacionadas con Android. O sea que, desde un punto de vista contable, el impacto sería neutro. No hay información oficial, ni la habrá, pero es lo publicado por Eidar Murtazin, un cotilla ruso con fama de acertar en lo que respecta a Microsoft [dicen que sus fuentes proceden de Nokia].
La coincidencia lleva a pensar que la fórmula del incentivo no sería un pago por «inversiones de plataforma», como los 1.000 millones que en su momento animaron a Nokia a cambiar de bando. El caso actual es distinto: más sencillo que mover dinero de un banco a otro es compensar a los fabricantes mediante una reducción (o anulación) de la factura por royalties sobre los Android que ha vendido por cada uno. Aquí paz, y después gloria.
Que esta pueda ser la fórmula, vendría avalado por el desglose que publica Murtazin en Twitter: 1.200 millones para Samsung, 600 millones para Huawei, 500 millones para Sony y 300 millones para «otras marcas»: 2.600 millones en total durante 2014. También es posible que el tuitero ruso echara su cuenta sobre la base de las proporciones que estas marcas tienen en la galaxia Android.
Como suele suceder, lo interesante del asunto es lo que no se ha escrito. Las ventas de Windows Phone han repuntado hasta llegar en noviembre a una cuota del 9,2% en los cinco grandes mercados europeos [2,2% en España] según Kantar Panel. Hay que señalar que esto ocurría en los últimos meses de la vida independiente de Nokia, y que presumiblemente, con los ajustes de integración dentro de Microsoft – y de la gestión de marca – esa tendencia podría recular. Cualquier experto recomendaría aprovechar el tirón para apuntalar la presencia de Windows Phone ampliando el catálogo con otras marcas.
Samsung, que estuvo entre las primeras en apoyar Windows Phone, no llegó a entrar en la partida, por entender que Microsoft no acompañaba con suficientes inversiones en marketing. Habría cambiado de opinión, y en su página web se coló fugazmente días atrás la descripción de un modelo hasta ahora desconocido, basado en Windows Phone y con pantalla full HD de 5 pulgadas. Directivos de Sony y de Huawei han confirmado que está próximo [el Mobile World Congress está a la vista] el anuncio de sendos smartphones con el sistema operativo de Microsoft. A los tres fabricantes les interesa poner un poco de distancia con respecto a Android, y si les pagan por hacerlo, miel sobre hojuelas. Pierre Perron, jefe europeo de Sony, ha declarado que su marca no tiene intención de atarse a un solo sistema operativo. Nada se ha dicho de LG y HTC, pero podrían ser parte de ese resto de 300 millones al que alude Murtazin.
A última hora de ayer, el director de comunicación de Microsoft, Frank Shaw, desmintió la cifra de 2.600 millones, confirmando la existencia de lo que definió como «plan de comarketing con nuestros OEM».
Ignacio García Bercero, que negocia en nombre de la Comisión Europea el nuevo marco de relaciones comerciales con Estados Unidos – TTIP o Transatlantic Trade and Investment Partnership – le ha estallado en las manos uno de los daños colaterales del espionaje de la NSA, también conocido como «caso Snowden». Formalmente, las negociaciones incluyen el flujo de datos, la privacidad – que no es de la incumbencia del negociador – se ha convertido en un obstáculo insalvable dadas las circunstancias.
En estas semanas, la UE y EEUU deberían reanudar las discusiones para renovar el acuerdo llamado Safe Harbor, vigente desde el 2000. Según el protocolo, las compañías norteamericanas pueden mover los datos de sus clientes en Europa siempre que den a estos la posibilidad de limitar la recogida y almacenamiento de información «relevante o sensible». En 2006, se reveló que Swift – consorcio de clearing bancario con sede en Bélgica – transfería secretamente a Washington información financiera que pudiera tener, presuntamente, relación con sospechosos de terrorismo. El escándalo – precipitado por el Wall Street Journal – obligó a Swift a inventar un mecanismo por el que esos datos se almacenarían exclusivamente en Suiza. Apagado el rescoldo, se renegociaron los términos en los que «excepcionalmente», Estados Unidos podría tener acceso a la información que le interesa. No muy distinto fue el caso de la información sobre pasajeros de líneas aéreas, que Europa «comparte» con Estados Unidos.
Cuando, en 2012, la Comisión propuso una directiva destinada a reforzar las reglas sobre privacidad, los lobbies de las compañías estadounidenses presionaron para que diera marcha atrás; de hecho, la directiva sobre protección de datos aún no ha sido aprobada por el Parlamento Europeo. Los sucesivos expedientes abiertos contra Google – que dieron lugar a sanciones económicas en España, Francia e Italia – fueron la expresión de ese enfrentamiento. Se superponen las posiciones de tres o cuatro instancias europeas, que involucran a poderosos comisarios: Neelie Kroes, Joaquín Almunia y Viviane Reding.
Kroes quiere cerrar su mandato con la aprobación – imposible con las elecciones europeas en el calendario – de su paralizada agenda digital 2020, Almunia sigue teniendo en la mira el proceder de Google, y Reding ha dicho recientemente, de visita en Washington, que «la protección de los datos no es una carga burocrática ni es proteccionismo, para nosotros es un derecho fundamental».
Por mucho que García Bercero sostenga que no tiene nada que ver, las revelaciones sobre espionaje de la NSA reventaron cualquier atisbo de acuerdo próximo. Cada parte ha endurecido su postura, con un matiz interesante: varios proveedores estadounidenses de servicios cloud, temen perder negocio si insisten en gestionar los datos de sus clientes europeos desde el otro lado del Atlántico. De hecho, algunas – como Microsoft y HP – han empezado a instalar datacenter en Europa, o tienen planes para hacerlo próximamente.
La posición europea dista de ser homogénea. Reino Unido se alinea con el punto de vista americano, mientras Francia y Alemania han descubierto que el conflicto puede ayudar a desarrollar la llamada European Cloud Strategy. Además de diseñar estándares técnicos de seguridad y transparencia para generalizar la confianza en la nube y potenciar la competitividad europea, la CE ha calculado ambiciosamente los beneficios económicos.
Según el documento Unleashing the potential of cloud computing in Europe, la ausencia de un marco común perturba la competitividad europea. Podría inducirse un añadido al PIB comunitario de entre 88.000 y 250.000 millones de euros entre 2015 y 2020, y se crearían 2,5 millones de empleos (!) si los 27 siguieran las recomendaciones de un grupo de expertos convocado al efecto. Estas cifras pueden ser fantasiosas, pero lo interesante es que entre las recomendaciones está la de potenciar el poder de compra del sector público migrando sus sistemas a la nube, en favor de proveedores no necesariamente europeos pero instalados físicamente en Europa. La condición sería cumplir con la nonata directiva de protección de datos. En ese punto están las cosas.
Los ecos de la compra de Nest Labs por Google van a llegar lejos. Por el monto de la transacción: 3.200 millones de dólares pagaderos en cash. Por la ambición grandiosa que pone de manifiesto. Y, cómo no, por la inquietud que empieza a crecer acerca de las verdaderas intenciones de Google.
Vayamos por partes. Nest es una creación de dos antiguos ingenieros de Apple, Tony Fadell y Matt Rogers, que salió a la superficie en 2010, con su primer producto, un termostato doméstico conectado a Internet. De inmediato llamó la atención por su aspecto minimalista, que hubiera podido firmar Jony Ive, el diseñador favorito de Steve Jobs. No extraña: a las órdenes de Ive, Fadell fue uno de los inventores del iPod, producto que en 2001 inició una nueva era para Apple; Rogers estuvo involucrado en el software de los primeros iPhone. Ambos dejaron la compañía en 2008.
¿Realmente vale 3.200 millones una startup que se ha dedicado a renovar conceptualmente un accesorio tan nimio como el termostato y luego otro, un detector de humo? Depende. Cuando Nest cerró su última ronda de financiación por 150 millones de dólares, se calculó que equivalía a una valoración no inferior a 2.000 millones. El sobreprecio, si lo hubiera, tampoco es raro en Google, después del desatinado precio que pagó por Motorola.
Hay por medio un factor subjetivo. Habida cuenta de los antececentes de Fad del y Rogers, muchos esperaban que un día volverían al redil de Apple para contribuir con Nest a la búsqueda de esos nuevos productos que la marca de la manzana necesita para relanzar su catálogo en otra dirección innovadora. En esa hipótesis interfirió Google, que apoyó financieramente a la pareja a través de su rama de venture capital. Esto le ha permitido seguir los progresos de Nest e imaginar qué otros productos podrían salir de su genio. Así que la transacción es completamente lógica.
Si se reconoce que somos cada vez más permeables – algunos todavía resistimos – a vivir nuestra vida cotidiana en un escaparate online, es obligado aceptar que Google es quien mejor ha sabido transformar esa perversión contemporánea en un modelo de negocio muy rentable. Su estrategia es transparente: expandir sus algoritmos más allá de los ordenadores y los móviles, penetrar en el salón, en los coches y hasta en el cuerpo humano, lo que lleva directamente a la sospecha de que todo lo hace con una misma finalidad: recopilar datos sobre los hábitos de los usuarios. Nest y sus productos añaden la dimensión del Internet de las cosas o, en una acepción inmediata y tangible, la «casa inteligente».
No es la primera vez que Google se asoma a esa ventana. En 2011 anunció un proyecto con Lighting Science para desarrollar bombillas conectadas – de lo que no volvió a hablarse – y se sabe que internamente ha trabajado en un termostato inteligente apodado Energy Sense, con el que pensaba cubrir sus necesidades de optimización de su enorme consumo de electricidad en sus centros de datos.
Para una empresa como Google, que se enfrenta a una larga cadena de acusaciones sobre su gestión de la privacidad de los usuarios, esta nueva dimensión reabrirá las suspicacias sobre su condición de Gran Hermano. En su blog, Tony Faddel procura apaciguar escribiendo que la política de privacidad de Nest ha sido siempre respetuosa de la información privada sobre los usuarios, que mantiene escrupulosamente en el ámbito de lo doméstico. Quizá sea un motivo por el que Nest no se integrará en Google sino que funcionará como empresa y marca separadas.
Lo que no han dicho las partes, pero se puede suponer, es que los recursos de Google permitirán a Nest Labs desarrollar nuevos productos ´revolucionarios` y llevarlos al mercado en un volumen que por sí sola no podría alcanzar, incorporarlos a una serie de accesorios que Google ya ha anunciado: Google Glass y Chromecast, por ejemplo, podrían servir al mismo propósito de meterse en cada aspecto de nuestra existencia cotidiana.
El won, la moneda coreana, alcanzó la semana pasada su máximo valor en dos años frente al dólar y el euro, y el más alto en cinco años frente al yen. No es el único problema que afronta Samsung, pero no hay duda de que perturba sus exportaciones, dando la vuelta a una de las ventajas que le han permitido ganar la primera plaza en la tabla de ventas de smartphones. La compañía no presentará sus resultados hasta el 24 de enero, pero se ha curado en salud anticipando su estimación de beneficio operativo: 8,3 billones de won (5.700 millones de euros) sobre unos 59 billones (40.600 millones) de ingresos. Aunque provisionales, las cifras son muy inferiores a las que habían calculado los analistas: 9.700 y 61.500 millones de won, respectivamente.
No se conoce (todavía) una explicación oficial, pero puesto a comparar los observadores recuerdan que en el trimestre anterior el beneficio fue un 22% más alto, sobre una cifra de ingresos similar, e incluso si se remontan al cuarto de 2013 encuentran parámetros mejores que los actuales. Es fácil, con esta tendencia, pronosticar que en 2014 se cortará el ciclo ascendente en las cuentas de Samsung.
Todas las interpretaciones que he leído apuntan al descenso en la rentabilidad de los smartphones de la marca, a la debilidad de las ventas de televisores y a la contracción de márgenes en las ventas de pantallas y memorias [cuyo primer cliente sigue siendo Apple], al parecer afectadas por una acumulación de stocks. De todos modos, el primer factor parece ser el más importante, porque la división de móviles aporta dos tercios del beneficio operativo de Samsung Electronics.
El gigante coreano es, sin discusión, líder del mercado mundial de smartphones y segundo en el de tabletas. O sea que tiene más fácil caer que subir. Las ventas del producto estrella, el Galaxy S4 (presentado en marzo, con lo que naturalmente el impacto inicial declina) no han respondido a las expectativas, por lo que la compañía ha optado por lanzar variantes de menor precio para estimular la demanda. Entre setiembre y diciembre, la entrada en escena de los nuevos iPhone 5S y 5C ha implicado que Samsung perdiera cuota en dos mercados clave, Estados Unidos y Japón. El problema podría agravarse en el arranque de 2014 por efecto del acuerdo al que han llegado Apple y China Mobile, el mayor operador móvil del mundo.
Es costumbre en Corea que los grandes conglomerados – Samsung, LG y Hyundai – inicien el año con una ceremonia que tiene el propósito de cohesionar a sus ejecutivos en torno a la estrategia que propone la alta dirección. La prensa de Seúl – menos dócil de lo que pudiera pensarse – se ha ensañado con la foto del chairman Lee Kun-hee (71 años) llegando al auditorio apoyándose vacilante en su hija mayor. ¿Se reavivará el debate acerca de la sucesión? No necesariamente.
En esta ocasión, Lee repitió un mensaje que ya se le ha escuchado hace meses: Samsung tiene que corregir una mentalidad que era adecuada hace cinco o diez años, y tomar conciencia de que el hardware pierde importancia relativa frente al software, su asignatura pendiente. En una alusión que quizá resulte premonitoria, advirtió que Samsung ha sido capaz de alcanzar la cúspide en ciertas áreas de negocio, mientras otras no contribuyen al crecimiento de la compañía.
Dual booting. Sin llegar a ser del todo escéptico, no estoy seguro de que la idea que ha presentado Intel esta semana sea la solución para un problema que nadie ha planteado: la convivencia de Windows y Android en un mismo dispositivo (tableta o dos-en-uno). Pero dará mucho que hablar en los próximos meses, si un número suficiente de marcas suben a bordo. Para empezar, la idea no es nueva. Viewsonic lanzó en 2011 una tableta híbrida Windows 7/Android 2.3, que retiró pronto del mercado porque la versión de Windows no estaba optimizada para interfaz táctil, de modo que la convivencia era confusa para el usuario. Samsung lo intentaría con su convertible ATIV-Q, ya con Windows 8 y Android 4.2.2, pero también se echó atrás, dicen que por asuntos de patentes.
Al parecer, Microsoft y Google ven con recelo esta aventura de Intel. Se entiende en el primer caso, porque sería un obstáculo adicional para la aceptación de Surface 2; se entiende menos en Google, porque lo menos que puede conseguir son más datos de más millones de consumidores, pero quizá sea porque su estrategia contra Microsoft pasa más por Chrome OS que por Android.
Deberían pensarlo otra vez. Porque el dual booting ofrece – si los usuarios lo acogen, que no es seguro – la oportunidad de a) dar más que el iPad al mismo precio, y cuando digo más que el iPad quiero decir Office, o, en su caso b) meter Android en casa del enemigo.
Hay que ponerse en el lugar de Intel, que es quien propone la idea a través de su CEO Brian Krzanich. Para que se cumpla su previsión de 40 millones de tabletas basadas en su silicio en 2014, toda ayuda será buena, y difícilmente podría alcanzar la cifra sólo con Windows 8.1. Para este uso, recomienda Bay-Trail en lugar Haswell, por la sencilla razón de que un procesador más barato implica un dispositivo más barato. Por otra parte, no parece complicado que Bay Trail-T corra a la vez dos sistemas operativos, sin más costes adicionales que una adaptación de las instrucciones [habría que ver qué dice Microsoft acerca de las patentes], salvo los de promoción.
Según me han contado, Intel estaría dispuesta a subvencionar el marketing de los fabricantes que se sumen a su iniciativa. Y como ya hay varios (Acer, Asus, HP, Lenovo, Samsung y Toshiba me vienen a la memoria) tienen tabletas y/o convertibles Android porque no se fían de que Windows tenga suficiente tirón. Si pudieran fusionarlos con un precio inferior al del iPad [es factible} tendrían mucho espacio por delante contra Apple. De paso, y no es poca cosa, Intel daría otro paso en su sueño de influir sobre el diseño final de los productos ajenos que llevan sus chips – ya lo hizo al promover los conceptos de ultrabook y dos-en-uno – con lo que conseguiría ser escuchada en la definición de las tabletas (o como se llamen) que sucederán a las tabletas de hoy .
Ah, claro que sí, podría ser un arma en la defensa de x86 contra la arquitectura ARM que prevalece en los dispositivos Android. Al mismo tiempo, AMD aparece inmediamente en escena para decir sin dar detalles que, junto con su partner BlueStacks [que también lo es de Intel] tiene un plan para «llevar la experiencia de Android a las tabletas Windows». Ya están todos, como en el camarote de los Hermanos Marx.
Finalmente, veamos el hipotético punto de vista del usuario de tabletas. A la mayoría le tiene sin cuidado la capacidad de computación del invento. Si la fórmula llegara a cuajar, uno puede imaginar que estarán contentos aquellos que dependen de Windows por su software asociado, pero que son adictos a las aplicaciones de la tienda de Google que no existen en la de Microsoft. Los directivos de Intel creen que el mercado natural para el dual booting está en la educación, y puede que tengan razón.
No recuerdo cuándo fue la última vez que una mujer protagonizó una keynote en el CES de Las Vegas, si es hubo alguna. Marissa Mayer, CEO de Yahoo, consiguió el martes convocar una multitud ansiosa por escuchar sus planes para la compañía que dirige desde julio de 2012. Y por verla, porque la señora Mayer tiene una fuerte personalidad envuelta en un encanto notorio. Más allá del glamour – me informa Mario Kotler, que llegó temprano queriendo estar en primera fila – en la sala no cabía un alma, y la presentación dejó una impresión convincente.
Veamos: ¿cuál es el plan? En esencia, Mayer vuelve a planteamientos que sus predecesores no supieron llevar a buen fin: potenciar la atracción publicitaria de una marca que cuenta con 800 millones de usuarios mensuales (un 20% más desde su fichaje), de los que la mitad acceden desde dispositivos móviles, y alimentar a esa audiencia con contenidos propios. Con estas armas va a competir tangencialmente con Google y Facebook, sin imitar las estrategias de estos.
Para cumplir con el primer objetivo [«ahora tenemos una estrategia móvil coherente», dijo], Mayer ha elevado de 60 a 400 el número de empleados que trabajan sobre la plataforma móvil de Yahoo», detrayéndolos de otras funciones, y ha hecho en pocos meses tres adquisiciones fundamentales: Tumblr, Summly y Aviate.
Además, Yahoo ha rediseñado sus propiedades más populares: Flickr, Wheather y Finance, que aportan más tráfico que dinero a su plataforma clásica. Al frente del proyecto llamado News Digest, Mayer ha puesto a Mike D´Aloisio, un geniecillo australiano nacido en 1995, a quien en marzo compró su startup Summly por la módica suma de 30 millones de dólares. La tecnología aportada por D´Aloisio consiste en elaborar y publicar resúmenes de noticias de múltiples fuentes y formatos [textos, mapas, infografías, extractos de Wikipedia, videos, fotos, etc] Piezas de información que D´Aloisio llama «unidades atómicas» a las clásicas preguntas: qué, quién, cuándo, cómo y por qué, todo ello organizado mediante una combinación de algoritmos y acabado bajo responsabilidad humana.
Con este tratamiento de las noticias, la nueva fórmula, con un interfaz «moderno y limpio», pretende publicar nueve historias por la mañana y nueve por la tarde, sobre sendas áreas temáticas. La conversión de Yahoo en un medio de comunicación cuenta con dos fichajes estrella, el cronista David Pogue, que ha desertado del New York Times, y la ex presentadora de CBS Katie Couric. Los primeros magazines especializados serán Yahoo Tech y Yahoo Food, a los que seguirán otros.
En primera instancia, estos contenidos sólo estarán disponibles para las plataformas iOS, pero esto no quiere decir que Mayer – que ocupó cargos directivos en Google durante 13 años – descuide el sistema operativo de su antiguo empleador. Por el contrario, la adquisición de Aviate, anunciada en el CES, permitirá a Yahoo abrirse una puerta en la «experiencia Android». Una puerta original, puesto que la tecnología de Aviate – hasta ahora oculta al público – «automatiza las aplicaciones y las agrupa inteligentemente en ´espacios` según los gustos, intereses y circunstancias del usuario en cada momento. Lo que este ve es una homescreen personalizada y versátil. La idea parece tener parentesco con la fallida Facebook Home, pero es pronto para juzgarla. Lo que realmente importa es que Yahoo está otra vez en carrera y tiene, por fin, un modelo de negocio bien pensado.
El dato se puede expresar escuetamente, con la brevedad de un tuit, tal que así: pronostican una caída del 1% en valor de las ventas globales de tecnología de consumo en 2014. Pero un tuit es, en el mejor de los casos, sólo una pista que conduce a una información. El pronóstico lo formuló el fin de semana Steve Koenig, economista de la CEA (Consumer Electronics Association) como aperitivo de la apertura de la feria CES en Las Vegas, y su relevancia está en la palabra ´valor`: de 1,07 billones de dólares en 2013 (estimación aún no corroborada por las consultoras habituales) el mercado mundial descendería a 1,05 billones proyectados para este año. Y como el 43% del total corresponde a la suma de smartphones y tabletas [los primeros son, con un 30%, la categoría que más pesa], la previsión no se explicaría sin una bajada de precios en esas familias de productos.
Según explicó Koenig y me cuenta Mario Kotler desde Las Vegas, está previsto que en 2014 se vendan 340 millones de tabletas, en lugar de los 242 millones del año pasado, y se estima que la media de PVP estará en torno a los 150 dólares por unidad. En principio, se venderán 1.200 millones de smartphones, tras un cierre de 1.007 millones en 2013, pero el precio medio bajará a 297 dólares. Esta es la razón por la que un aumento del volumen corresponde a un descenso del valor.
La bajada del precio medio no debe entenderse como un contratiempo para los fabricantes – o no para todos – sino que está dictada por la necesidad de ampliar la presencia de estas categorías en los mercados emergentes. Pero, al mismo tiempo, refleja el hecho de que el frenesí de las marcas por situarse en la cúspide de la gama alta empieza a perjudicar los intereses de esos fabricantes, obligados a extender sus catálogos hacia abajo, ante los signos de saturación (relativa) en los mercados desarrollados.
Hay en el estudio de la CEA otra información que el imaginario tuit no puede recoger: Estados Unidos ha sido desplazado por China como primer mercado para la tecnología de consumo. Es fácil de entender: son 1.300 millones de habitantes en un país que tiene 160 ciudades con más de un millón de residentes, comparado con sólo nueve en EEUU, precisó Koenig. Un poco de sociología: cuando se les pregunta si la tecnología es para ellos imprescindible, el 90% de los chinos responden afirmativamente, frente a sólo el 55% de los estadounidenses. Por lo que la entidad que organiza el CES – antaño una feria americana – se carga de razones para haber cambiado su nombre por el de International CES.
Otra observación que se desprende del informe es que se acentúa el peso de la movilidad como factor dominante del mercado de la electrónica de consumo. Nuevamente http://www.norbertogallego.com/8ene/2013/01/08/ , en Las Vegas se presentan este año televisores 4K, se anuncian nuevos PC – Chromebook, sobre todo – cámaras y otros dispositivos, se habla mucho de coches conectados, wearable computing, Internet de las cosas e impresoras 3D, pero lo esencial es que la revolución del smartphone y su derivada, las tabletas, han transformado radicalmente este mercado: quédense con el dato, 43% de un billón de dólares.
No espere el lector que este blog se precipite en el análisis de novedades del CES 2014. Como ya he escrito aquí, tampoco este año he viajado a Las Vegas porque a) no me gusta la ciudad ni el barullo del CES, b) en ese guirigay multitudinario es casi imposible tener una conversación inteligible con gente abrumada por el ambiente y c) prefiero dedicar el 6 de enero a disfrutar de los niños de mi familia. Pero el amigo Kotler ya me está enviando sus informes, que iré destilando en los próximos días y semanas.
Salud, dinero y amor. La trilogía clásica de los deseos humanos inicia una nueva ronda, y está muy bien que así sea. 2014 se abre con una clara, pero vacilante, expectativa de mejoría con respecto a la que teníamos hace un año. Los indicadores económicos empiezan a reflejar una situación menos negativa, y las proyecciones del PIB para el nuevo año oscilan entre el 0,5% y el 1% de crecimiento, modesta meta pero de celebrar si se compara con el -1,3% estimado como cierre del 2013. En cambio, los indicadores sociales siguen en el fondo de un agujero negro, sin ningún signo de subir hacia la lejana superficie; sería irresponsable ver algo positivo en un mercado laboral compuesto por 22,7 millones de activos de los que 5,9 millones están desempleados [el Banco de España expresa la esperanza de que este año se crearán empleos netos, ojalá sea así].
Por ahora, la demanda interna no da apenas signos de salir de su debilidad [véanse los indicadores de consumo de energía, de producción industrial y de ventas minoristas] y en honor a la verdad tampoco la política presupuestaria alimenta el optimismo . Por el lado bueno, hay mucho consumo aplazado en las capas de población que se han mantenido a flote, y esto podría dar buenas noticias a ciertos sectores, entre ellos el de las TI. Mis interlocutores en la industria dicen confiar en que habrá una reactivación del gasto en tecnología por parte de las empresas, algo lógico porque sería difícil seguir postergando decisiones de las que, en la mayoría de los casos, dependerá su adaptación al nuevo contexto global.
Porque la exportación sí que está dando motivos de satisfacción, aunque en muchos capítulos ha alcanzado máximos históricos después de tres años al alza, lo que hace dudar de que pueda aguantar el ritmo; mucho, casi todo, depende de cómo le vaya a la economía alemana, a la china y a algunas latinoamericanas que son clave para la empresa española. La balanza de servicios arroja un superávit de casi 1.000 millones. Si, como se espera, el dólar se aprecia en los próximos meses, ahí tendríamos un factor adicional de devaluación no interna (siempre que la política monetaria sea menos restrictiva) que favorecería las ventas dentro y fuera de la eurozona.
Para un sector económico como el que sirve este blog, el contexto internacional será clave. Los desequilibrios podrían reducirse en 2014, pero no necesariamente en el sentido que nos interesa. China tiene que privilegiar la demanda interna, pero esto no significa que deje de presionar para inundar el mundo con sus mercancías, de lo que se deduce que la ecuación de su competitividad está cambiando a la vez que modera su crecimiento. Habrá que mirar hacia Alemania, cuyo nuevo gobierno de coalición podría dar un cierto giro expansivo – se desconoce de qué intensidad – que facilitaría mucho una corrección de los desequilibrios intraeuropeos. Brasil, tan de actualidad por tantas razones, necesita corregir el suyo urgentemente, así que mucho ojo con los entusiasmos.
Va a ser difícil que España pueda cumplir con el objetivo de déficit público, y tendrá que rendir pleitesía a Berlin para conseguir un aflojamiento [imagine el lector en qué condiciones]. A pesar de la bajada de la prima de riesgo, el nivel de la deuda está peligrosamente cercano al 100% del PIB. Con este panorama, pocos estímulos ´keynesianos´ se pueden esperar; como mucho, podemos confiar en que los que aplican otros (la Fed americana) lleguen a influir intelectualmente en la discusión dentro del BCE, más temeroso de la inflación que de la deflación, que es lo que en realidad tenemos a la vista.
De un artículo de Bradford Delong [Financial crisis stretches meaning of short term] extraigo esta frase que viene al caso: «si lo que se desea para la economía es un mayor desapalancamiento, el resultado es un boom inflacionario; si la economía en su conjunto busca el desapalancamiento, lo que se obtiene es una depresión […] nuestro problema ahora es que el tipo de interés ´natural´ es inferior a cero, y el banco central no puede presionar en esa dirección. Hasta que algo pase y provoque el aumento del tipo de interés natural, la economía seguirá instalada en la recesión».
Entre nosotros se usa mucho, demasiado, el comodín de las reformas. Una palabra que suena bien pero que tiene trampa ideológica, y ya se sabe que la economía es la ciencia más ideológica: no todas las reformas son buenas ni todas son oportunas [que se lo digan a los educadores, al sistema sanitario y a los científicos españoles, que están tragando grandes dosis de ricino ´reformista´]. La pregunta que ningún economista que yo conozca se atreve a responder es si la muy alabada reforma del sistema financiero y la muy discutida unión bancaria europea conseguirán que el crédito llegue a las empresas. Será paulatino, en cualquier caso, porque el desapalancamiento está lejos de haber concluído y porque la autoridad supervisora mira con lupa las rayas rojas del riesgo. En lo que parece haber bastante coincidencia es en que los balances de las empresas, y sus cuentas de resultados, han mejorado y seguirán mejorando [para eso se han recortado los costes y ha aumentado la productividad reduciendo plantillas y salarios] en 2014.
En fin, créanme que lamento haberme extendido tanto sobre el dinero, esa mercancía de la que el tópico dice que no hace la felicidad pero ayuda a conseguirla. Me queda sólo una línea para desear salud a los lectores. En cuanto al amor… allá cada cual.
Acabo de recibir este mensaje de un antiguo lector: «que 2014 nos traiga lo que hemos echado en falta en 2013». Me sumo al deseo, sabiendo como sé que echa en falta su puesto de trabajo, perdido en 2013. Buena suerte, amigo.
«2014 no puede ser peor que 2013, y por tanto tengo que tomar en serio el aviso de que los indicadores van a mejorar», se sinceró el otro día un alto directivo del sector tras un brindis con la prensa. «Pero el destrozo está hecho – añadió – y tenemos que reconstruir entre todos lo que han roto». Uno de sus competidores me diría más o menos lo mismo un rato después, de lo que puedo deducir que flota en el ambiente un pronóstico «moderadamente optimista». Esa noche, un cronista bien relacionado me contó lo que le habían dicho en su visita a un think tank: han corregido al alza su mínima previsión del 2014, y tal vez volverán a corregirla (al alza) antes de mediar el año, si para entonces el gobierno no afloja – por razones electorales, se supone – en la reforma laboral. A pesar de ser un currante como yo (y de la misma generación), el colega dijo compartir la advertencia de su interlocutor. Personalmente no la comparto, pero tomo nota y así la transmito.
De modo que, por vías distintas, los mensajes navideños que me llegan dan fe de lo que se quiere decir con los indicadores abstractos. Yo sigo dándole vueltas a aquella frase, «el destrozo ya está hecho». Pensando en ella he escrito la crónica de hoy, la última del año, en la que se me ha ocurrido relacionar los indicadores económicos con la conocida paradoja del gato de Schrödinger. Esta es, como se sabe, un juego teórico con el que el austríaco trataba de refutar ciertas hipótesis de la física cuántica: no sabremos si las noticias son buenas, si el gato está vivo o muerto, hasta que cambien las circunstancias. Sólo entonces el observador podrá verificar el estado del gato.
No quisiera, por favor, que se me tome por pesimista: yo también soy «moderadamente optimista», pero no conformista. Este es mi último newsletter de 2013. Antes de poner el enlace al pie, quiero agradecer una vez más la paciencia de los lectores, la calidad y discreción de sus comentarios, que son la materia prima de la que se alimentan mis ganas de dialogar y aprender de ellos cada día. Les deseo que no echen nada en falta, que tengan lo mejor en sus empleos, lo mejor para sus empresas y sobre todo lo mejor para ellos y sus familias. Brindo por ello, y pretendo estar de vuelta el martes 7 de enero a la hora de costumbre.
La noción de una ´mano invisible` que mueve los mercados bursátiles conlleva cierto aroma a teoría conspirativa, de esas que a priori generan desconfianza porque tienden a atribuir todos los males a una sola causa. La semana pasada, leí una información de Reuters en la que esa supuesta mano invisible tomaba cuerpo. A partir del lunes 9, los dos mercados de Wall Street (Nasdaq y NY Stock Exchange) han empezado a publicar datos sobre las transacciones que se hacen en lotes de menos de 100 acciones, que hasta ahora permanecían ocultas al público. Es pronto para saber qué consecuencias tendrá la decisión sobre los índices de ambas bolsas, pero ya se sabe algo sobre la influencia que han tenido esos lotes – a los que se ha considerado marginales o de poca trascendencia – en la cotización de ciertas acciones que han sido favorecidas (o perjudicadas) por los algoritmos en los que se basan las operaciones de alta frecuencia.
Para no enredarme en cuestiones en las que soy profano, me limitaré a contar que, según la agencia, la negociación en lotes pequeños se ha quintuplicado desde 2007, año en el que se consolidó el mercado electrónico en Estados Unidos, y que en estos seis años se ha registrado el auge de la práctica – polémica para unos, rentable para otros – de valerse superordenadores de gran potencia para ordenar transacciones a tal velocidad que ningún operador humano podría replicar.
Un estudio de Cornell University halló en 2011 que esos algoritmos se valen de miles de órdenes pequeñas (y por serlo, «invisibles») como catas para enmascarar operaciones de gran volumen, emanadas de inversores institucionales y susceptibles de alterar – al alza o a la baja según la conveniencia del momento – el precio de una acción determinada. Según los casos – dice el estudio – esas catas, o pinging –son responsables por el 30% del volumen medio negociado de una acción.
¿Dónde está el problema? En la asimetría de información: a menos que se trate de un especulador profesional, el inversor normal y corriente sólo conoce las cotizaciones una o dos veces al día, por lo general al cierre. Quienes controlan los ordenadores que generan movimientos de alta frecuencia, procesan velozmente cada inflexión del precio y sacan partido al instante. Al final, esto influye en la percepción que el público tiene del comportamiento de tal o cual acción.
Tomemos dos casos notorios. Apple, que cotizaba ayer a 557 dólares por acción, o Google (1.072 dólares). Un lote de 100 acciones tiene poco peso en la capitalización de estas empresas y, por tanto, no despierta sospechas, pero equivale a entre 50.000 y 100.000 dólares en números redondos. Cantidad que no está al alcance de un inversor normal y corriente, pero que, una vez multiplicado por cierto número de lotes confiere un poder excepcional al inversor institucional (y a su agente) para arbitrar cuál ha de ser la cotización que más le conviene en cada momento del día, o varias veces en un día.
Luego, los comentaristas nos tomaremos en serio (o no) la cotización como reflejo de esta o aquella circunstancia de la economía real de las empresas; noticias como la de Reuters demuestran que el ejercicio puede resultar falaz o, en el mejor de los casos, ingenuo. Saque cada uno sus conclusiones, pero antes sepa que: a) esos lotes supuestamente marginales acumulan el 5% de la capitalización total en el mercado electrónico, b) que representan el 45% del valor de Apple que se negocia diariamente y c) en el caso de Google, ese porcentaje oscila entre el 50 y el 60%.
Pasarán un par de semanas antes de que el regulador americano, la SEC, publique su consolidación de los lotes de menor cuantía en su registro total de operaciones, algo que autores razonables han reclamado durante años. Sólo entonces podrá decirse con certeza si la mano invisible aprieta mucho o poco. Pero ya podemos decir que existe.
El forzado optimismo que suele prevalecer – y prevalece – por estas fechas, ha pillado con el pie cambiado a los directivos de Cisco, que en su conferencia con analistas de la semana pasada han tenido que poner por encima de todo el potencial de la compañía, tras admitir que el crecimiento durante los próximos tres a cinco años será inferior al que esperaban. De un rango previsto del 5 al 7% anual medio, han rebajado el pronóstico hasta el 3 a 6%. Frank Calderoni, CFO, lo explicó por las condiciones macroeconómicas en los mercados emergentes, la transición que viven algunas líneas de productos y «ciertos retos que observamos entre los proveedores de servicios» [léase telecos].
Los resultados del primer trimestre fiscal arrojaron un descenso del 12% en los ingresos, con una fuerte caída en cinco mercados emergentes – Brasil, México, India, China y Rusia – pero Calderoni ya advirtió que en el siguiente (el actual) los ingresos podrían caer un 8 o quizás un 10%.
Si los problemas de Cisco son sistémicos o esporádicos, es una discusión que se plantea periódicamente, y por eso algunos le han adjudicado el adjetivo bellwether (cabestro), por su cualidad de marcar la dirección de la manada. John Chambers repitió el jueves algo que ha dicho otras veces: Cisco refleja las circunstancias del mercado dos trimestres antes que sus competidores. ¿Está diciendo que a otros les pasará lo mismo en algún momento del 2014? No sería una buena noticia la reaparición del ciclo negativo.
Algunos analistas han dramatizado, al señalar que Cisco tiene demasiados frentes abiertos, que combina divisiones fuertes con otras muy débiles y que, por tanto, estaría abocada a perder cuota de mercado. Como consecuencia de esta prédica, la cotización ha caído un 14% en seis meses; pese a que, si se considera ortodoxamente el precio y el PER, la acción estaría infravalorada: con más de 30.000 millones de tesorería y un ritmo de beneficio en torno al 8%, el catastrofismo no está justificado, a menos que primen intereses bursátiles.
Por otro lado, vuelven a aflorar los comentarios sobre la amenaza que SDN (software-defined networks) podría representar como arma con la que los competidores pretenden destronar a Cisco de su dominio en el mercado de networking. Ciertamente, esa tecnología ha abierto la partida a más jugadores, y Cisco ha tenido que reaccionar Según Chambers, «estamos preparados para los cambios en el mercado; ya pueden verlo ustedes, y lo verán el año próximo con los anuncios de nuevos productos». En lo inmediato, frente a SDN, Cisco ha presentado su alternativa ACI, una arquitectura para centros de datos que pretende responder a esa aparente amenaza y con ello proteger su negocio tradicional.
Según Chambers, Cisco es el «líder natural» en networking. Citó como prueba que desde su lanzamiento hace cinco semanas, junto con la nueva línea de routers Nexus 900, «ACI ha atraído el interés de 300 clientes serios, y hemos cerrado varios pedidos de entre 40 y 100 millones de dólares cada uno». Está en juego mucho más que un cambio de arquitectura, subrayó: «se trata de facilitar a los proveedores de servicio ahorros considerables en sus gastos operativos», tras lo que desafió exaltado: «¿alguien puede creer seriamente que estos clientes nuestros de toda la vida, que confían en nuestras capacidades, nos van a abandonar para apostar por Juniper, Alcatel o Huawei? Esta es una batalla que vamos a ganar cada vez que se plantee»
El catálogo de Cisco se ampliará próximamente en otra dirección: en el primer trimestre se espera el anuncio de la segunda generación de sus servidores UCS, que desde su lanzamiento han conquistado un 5% de un mercado del que hace cuatro años estaban ausentes. Optimizados para Big Data, los nuevos UCS 2.0 serán la punta de lanza de Cisco en el fenómeno de las infraestructuras convergentes, de las que ningún proveedor importante quiere quedarse al margen.
Francamente, no me parece verosímil la versión según la cual Nokia, a pocas semanas de integrarse efectivamente en Microsoft, sigue adelante con el desarrollo interno de un smartphone Android, que estaría destinado a ocupar en su catálogo el espacio que hoy ocupan los modelos Asha, de bajo precio, basados remotamente en el antiguo Sistema 40. No es la primera vez que se postula un acercamiento de Nokia a Android, pero la idea quedó descartada en 2010 y un año después, se produjo el gran giro estratégico con la adopción de Windows Phone y finalmente la capitulación ante Microsoft.
Es agua pasada, pero se diría que aún mueve molino. Para mi gusto, sería una enorme sorpresa que Microsoft avale un movimiento que reforzaría la imagen de su adversario.
Se dice que Microsoft no tendría que pasar por el trago de llamar a la puerta de Google. Le bastaría con hacer lo mismo que Amazon, cuyas tabletas Kindle usan una «bifurcación» de Android gracias a la cual elimina los servicios de Google y, por alguna razón, no genera la obligación de pagar como otros fabricantes un canon por las patentes de las que es titular Microsoft y que de hecho constituyen una subvención de Android a Windows Phone.
Aun en ese caso, Nokia/Microsoft debería poner sobre Android su propia capa de software para que fueran explotables servicios como Bing, Skype, Office, SkyDrive y otros que forman parte de la experiencia de usuario que preconiza Microsoft. Va de suyo que los datos sobre los usuarios no podrían caer en manos del enemigo, que los explotaría para sus propios fines.
La cuestión de las marcas es todavía una incógnita. Sólo se sabe que Lumia y Asha forman parte de los activos comprados por Microsoft, lo que significa que podrá usarlas o desactivarlas, mientras que ha acordado pagar una licencia a la antigua matriz finlandesa para seguir usando la marca Nokia.
La hipotética conexión entre Nokia y Android suscita serias objeciones, y me atrevo a decir que será vetada por Microsoft en cuanto tome el control de la primera. Veo como primera objeción que equivaldría a reconocer que Windows Phone no es capaz de acercar sus prestaciones a las necesidades de los mercados emergentes ni de bajar sus precios sin apoyarse en el sistema operativo de Google. Pésimo mensaje. Además, dejaría en tierra de nadie al Lumia 520, el modelo más económico de la última camada de Nokia basada en Windows Phone.
La supuesta facilidad para que los desarrolladores de aplicaciones Android adapten sus creaciones originales a una variante patrocinada por Microsoft, sería disuasiva para aquellos que estuvieran dispuestos a desarrollar para Windows Phone, justamente ahora, cuando su cuota de mercado repunta.
Aparte, circula otra versión más plausible. En un esfuerzo destinado a contrarrestar el dominio de Android, Micrososft estaría considerando la idea de ofrecer Windows Phone y Windows RT gratuitamente a los fabricantes de smartphones y tabletas. Si fueran gratuitos, las marcas que le han dado la espalda tal vez cambiarían de actitud [entre nosotros: lo dudo] lo que tendría la virtud de atraer el interés de más desarrolladores.
Exageran quienes dicen que esa iniciativa de gratuidad es una respuesta a la iniciativa de Apple de ofrecer gratis sus sistemas operativos. La verdad es que Windows, en todas sus vertientes, es demasiado rentable para renunciar a su precio. Quizá tendría sentido ofrecer la actualización gratuita desde Windows 7, para neutralizar el hecho de que es este, y no su sucesor, el que se está llevando al huerto la mayor parte de la base instalada de Windows XP. Si se unen los puntos de todas estas iniciativas, reales o no, uno puede trazar un mapa actualizado de las maniobras de unos y otros que van a alterar los equilibrios que durante años se han dado por estables.
Como casi todo lo que se refiere al mercado chino, el acuerdo entre Apple y China Mobile ha despertado expectativas casi seguramente exageradas. Después de años de negociaciones frustradas, parece que el operador chino se ha salido con la suya y la compañía americana ha rebajado sus pretensiones de aplicar en China las condiciones económicas que ha impuesto en los mercados occidentales. A partir de hoy, China Mobile va a apuntar las órdenes de pedido de sus clientes, y esto ha bastado para que se barajen cifras multimillonarias al gusto de cada uno. Ciertamente, hay motivos: con 759 millones de clientes, China Mobile es el mayor operador del mundo y, aunque la comparación esté fuera de lugar, esa cifra duplica la población total de Estados Unidos.
Es cierto que la red de China Mobile tiene una baja penetración de 3G (el 23%), a diferencia de sus dos competidores, cuyas ratios son del 42 y el 54% respectivamente, pero eso mismo quiere decir que mientras China Unicom y China Telecom corren más riesgo de saturación, China Mobile arranca con un gran potencial inmediato; además, su lanzamiento de los nuevos iPhone va a coincidir en el tiempo con la puesta en marcha de su red 4G, la semana que viene, y como simultáneamente está extendiendo la de 3G a nuevas áreas geográficas, la perspectiva es brillante. Llevará tiempo, pero es brillante.
Una objeción posible es que el precio de venta de un iPhone no está al alcance de cualquiera. Pero los datos demográficos apoyan la apuesta: un estudio de McKinsey estima que el consumo de la población urbana – 10 billones de yuanes (1,2 billones de euros) en 2012 – se multiplicará por 2,3 en los próximos diez años. Por baja que fuera la hipótesis que se adopte, es previsible que el acuerdo con China Mobile significará un incremento de ingresos para Apple.
El día en que se anunció el acuerdo, la acción de Apple se cotizaba a 520 dólares; ayer estaba a 562 dólares, y en buena medida se debe al efecto positivo de la noticia. El analista Gene Munster, de Piper Jaffray, matiza su habitual entusiasmo en todo lo que concierne a Apple, para escribir que el impacto hubiera sido mayor – aritméticamente – de haberse firmado hace un año. Pero se ha firmado en 2013 y repercutirá en los resultados del año fiscal 2014. ¿De cuánto será la repercusión? En lugar de hacer cábalas, lo mejor es recordar que la cuota de mercado del iPhone en China era a finales de octubre inferior a los niveles de 2012, mientras que la de los múltiples Android – Samsung, Lenovo, Huawei y otras marcas locales – supera el 78%. Los voraces consumidores chinos que se mueren de ganas por tener un iPhone han podido comprarlo a uno de los otros operadores o en el mercado «libre». O sea que no es un mercado virgen.
Esto no implica minimizar el acuerdo. Todo lo contrario: la experiencia de Apple en Japón, gracias al éxito de su acuerdo con DoCoMo indica que el contar con el operador adecuado en el momento adecuado hace una gran diferencia. Yendo al grano, y ya era hora, ¿cuántos iPhone puede vender China Mobile? Según Munster, 17 millones, que se añadirían a los 45 millones que han sido comprados por otras vías pero se conectan a través de la red este operador. Lo que no se ha dicho – ni se dirá – es qué fórmula han acordado las partes acerca de la compartición de los ingresos que generen los servicios sobre esa masa de móviles. La madre del cordero.
Android subvenciona a Windows Phone. Como suena. Es una de las tantas paradojas sorprendentes de este mundillo: Microsoft recauda más dinero por el canon que cobra a los fabricantes adheridos al sistema operativo de Google que por las ventas del suyo propio. Unos 2.000 millones de dólares anuales, según ha calculado un analista de Nomura Research. El cálculo puede ser exagerado, porque en las cuentas de Microsoft el segmento Device & Consumer Licensing, en el que se incluye el canon, registró en el trimestre cerrado en setiembre ingresos totales de 4.343 millones de dólares.
Exagerada o no la cifra, en ausencia de datos oficiales se estima que el canon oscila entre 5 y 10 dólares por dispositivo Android vendido, según la negociación con cada uno. De lo que se deduce que el mayor pagano es Samsung, que sólo en el pasado trimestre vendió 88 millones (no todos Android, sin embargo).
No menos sorprendente es el hecho de que Google no ha considerado que le corresponda intervenir en defensa de Android, actitud con lo que ha evitado enfrentrarse a Microsoft en los tribunales, pero ha dejado que cada fabricante se las arregle como pueda: pagar o litigar son las opciones, y la mayoría ha elegido la primera. Con una notable excepción, Motorola, propiedad de Google, que se resiste.
Según leo en el blog de Florian Müller, especialista en patentes y consultor de la industria en esta materia, un tribunal alemán ha dado la razón a Motorola en su reclamación de invalidación de una patente de la que es titular Microsoft, y que cubre el sistema FAT (File Allocation Table). El juez del caso ha determinado que esa patente no responde al “criterio de tecnicidad” que exige la convención europea, y en consecuencia declara su nulidad.
La sentencia de primera instancia puede ser apelada, y es exactamente lo que hará Microsoft. Müller señala que los antecedentes apuntan a que la corte suprema alemana revierta la sentencia, pero aun ese caso no deja de ser un atisbo de brecha en el articulado mecanismo jurídico montado por los abogados de Redmond. Y 2.000 millones no son calderilla.
Llevo unos cuantos días pensando en comentar la situación del mercado de servidores, y la ocasión es los informes de IDC y Gartner, dos fuentes habituales con distintos métodos que arrojan resultados apenas diferentes. Según IDC, el mercado mundial ha sufrido en el tercer trimestre un retroceso del 3,7%. En rigor, cuesta hablar de caída, porque es una mejoría si se compara con el 6,2% negativo del trimestre anterior. Gartner, por su parte, suaviza algo la tendencia: -2,1% después de -3,8%. No son buenas noticias para la industria, o al menos no lo son para los fabricantes establecidos.
Si se rasca la superficie, aparece otra realidad: los contratistas asiáticos que producen servidores para los gigantes de web y la nube (es decir, Amazon, Google y Facebook, entre otros) pueden presumir de un ascenso que IDC estima en el 45%, con lo que han alcanzado una cuota del 6,5% del mercado mundial medido en ingresos.
Entre las marcas tradicionales, la novedad más notable es el declive de IBM – y ya suma varios trimestres así – cuyos ingresos han sido un 17% más bajos que hace un año. A menos que encuentre una solución, o un comprador que la libere de las pérdidas, este problema seguirá siendo una carga para las cuentas del así llamado gigante azul. Quien puede darse por satisfecha es Intel, porque la arquitectura x86 ha vuelto a ganar cuota en el conjunto.
La otra novedad, en este caso positiva, es el renacer de HP, que se adjudica un 28,1% del mercado mundial, cinco puntos porcentuales por delante del llamado gigante azul. La clave de la diferencia entre los dos líderes estaría en un nuevo ciclo ascendente – ya veremos si se confirma – de la demanda de servidores x86, en los que HP confirma su liderazgo (una tercer parte del mercado) así como en el formato blade (43,6%). Según las cifras publicadas, esa ventaja se extendería a los servidores de densidad optimizada (con los que HP cree mantener su capacidad competitiva frente en las nuevas corrientes de la demanda.
Esta semana, en Barcelona, HP volvera a hablar con énfasis de su proyecto Moonshot, una de las propuestas más interesantes de los últimos tiempos. Pero, francamente, es todavía una apuesta larga, en la que no puede confiar como correctora de cualquier banzado que pudiera alterar su posición actual en el mercado. De momento, ejerce su liderazgo en un mercado que decrece.
Por su parte, Dell y Oracle han vuelto a retroceder en este negocio, aunque por razones distintas. La primera por los meses de incertidumbre sobre la ´privatización` de la empresa tejana, que al menos desde este punto de vista ha ocurrido en el peor momento. Para Oracle, se trata de un declive programado, o eso dicen los lugartenientes de Larry Ellison: por un lado, pérdida de apetito por la venta de servidores x86, una herencia envenenada que le dejó Sun; por otro, las familias SPARC/Unix no han tenido un buen trimestre, pero esto puede cambiar cuando lleguen al mercado las novedades expuestas en OpenWorld. Cisco sigue disfrutando del crecimiento de ventas de UCS, que ya tienen un 5% del mercado mundial
La tendencia general es por sí misma inquietante. porque indica una veloz ´comoditización` del mercado de servidores. No es que esta categoría vaya a desaparecer, ni mucho menos, pero el mercado está rotando en una dirección diferente a la que convendría a los fabricantes mencionados, por lo que una adaptación es imprescindible. Doblemente inquietante, quizás, porque el mismo fenómeno de trivialización empieza a observarse en el hardware de almacenamiento, aunque con menos rapidez. Pero esta sería otra historia, para otro día.
Pregunta: ¿qué empresa aumentó un 90,2% sus ingresos entre 2011 y 2012? Respuesta: la pregunta tiene trampa, porque no alude a una empresa sino a una organización sin fines de lucro. En un informe que ha hecho público, la Fundación Mozilla desvela que en un año pasó de ingresar 163 millones de dólares en 2011 a 311 millones en 2012, y que su saldo financiero neto ha subido de 13,4 a 70,3 millones de dólares.
Las finanzas de Mozilla, con las que sostiene su desarrollo de software, tienen como fuente principal y casi única el tráfico que desde la página de entrada al navegador Firefox deriva a distintos buscadores, entre ellos Google por defecto. Los beneficiarios le compensan con una parte de los ingresos publicitarios que les procura el acuerdo. Como Google aporta entre el 80 y el 90% de los ingresos totales de Mozilla, puede decirse que, recíprocamente, la supervivencia de Mozilla depende de Google.
La nueva directora ejecutiva de la fundación, Mitchell Baker, ha explicado que el brusco incremento de los royalties – así los llama – obedece a la renegociación del contrato entre las partes, que no se había retocado durante tres años. En otras palabras, la aportación de Google se ha incrementado, pero Baker consideró necesario recordar que no es el único partner de Mozilla, ya que tiene acuerdos similares – y de poco monto se deduce – con Amazon, Microsoft (es decir, Bing), eBay, Yahoo y Yandex.
Dicho así, no habría nada que objetar, si no fuera porque, además de ser el que paga las facturas de Mozilla, Google es un poderoso competidor: Chrome ha superado a Firefox como navegador más popular de la web, y cada vez que un usuario migra de Chrome a Firefox, este tiene un usuario menos que añadir a la cuenta de royalties. Se puede interpretar que esta generosidad de Google compensa a Mozilla por los ingresos que Firefox pierde en favor de Chrome.
No es creíble, la verdad. No lo es porque las cosas pasan en su contexto: los hábitos de navegación por Internet se están desplazando del PC convencional a los móviles, y vemos que en estos la cuota de Chrome/Android supera con mucha diferencia a la de Firefox/Android. Por consiguiente, Mozilla tiene realmente más motivos para competir con Google en los móviles que los que ha tenido históricamente contra Explorer en los PC.
Conviene recordar que el principal objetivo de Firefox OS, sistema operativo para móviles que Mozilla ha puesto en el mercado con ayuda de Telefónica y de varios fabricantes, no es otro que disputar a Android una parte significativa del mercado de terminales de bajo precio.
Por esto no tiene sentido la aparente generosidad de Google hacia Mozilla. En 2008, la vez anterior en que renovaron su acuerdo, Firefox tenía el 22% del mercado de navegadores mientras Chrome, todavía reciente, no pintaba contra un Explorer que perdía gas: si Google quería hacer daño a Microsoft, debía apoyar a Mozilla. Pero a finales de 2011 – presunta referencia para la última renovación – las tornas habían cambiado, y Chrome ya contaba con un 19% del mercado de navegadores, sólo dos puntos menos que Firefox. Desde entonces, Chrome ha seguido subiendo, en perjuicio de Firefox.
No es extraño que circule por ahí una suspicacia. Según versiones, Microsoft se habría acercado a Gary Kovacs, director de ejecutivo de Mozilla (hasta abril, cuando fue reemplazado por Baker), para proponer un acuerdo por el cual, a cambio de sustituir Chrome por Bing como buscador por defecto en Firefox, sustituiría a Google como principal apoyo financiero de la fundación. Hubiera tenido sentido, porque Firefox conserva una importante capacidad de prescripción Siguiendo el hilo de la sospecha, Google habría reaccionado aumentando la paga.
Escriben los analistas políticos que Barack Obama, en este segundo mandato, se ha quedado sin más cartuchos que su reforma sanitaria, la ley de asistencia sanitaria asequible, que todos conocen como Obamacare. Aprobada en 2010, ha sido torpedeada por el ala derecha de los republicanos, que finalmente se han quedado también sin munición tras el fiasco del bloqueo presupuestario. Pero, resueltos los problemas políticos, han estallado otros nuevos por donde no se los esperaba, por el portal web healthcare.gov, puesto en marcha el 1 de octubre. Un auténtico papelón, que hasta el fin de semana no se había resuelto el servicio a satisfacción de los usuarios.
El sitio web ha resultado ser el punto crítico de Obamacare, porque en él han de registrarse los individuos que soliciten un seguro médico subsidiado por el gobierno federal o, en su caso, por los estados que se han sumado a la iniciativa (algunos siguen resistiéndose por razones ideológicas). El sistema debería soportar 50.000 usuarios al día, lo que no es poca cosa habida cuenta de la compleja casuística del trámite. Pero ha habido días en los que apenas un centenar de solicitantes lo consiguieron. Apagones, fallos de software y retrasos han sido la norma desde que se puso en servicio, y la Casa Blanca lanzó un ultimátum para recuperar al menos el 80% de su capacidad, lo que parece haberse conseguido durante el fin de semana, aunque hay quien teme que vuelvan a ocurrir. Políticamente, el numerito podría ser gordo: el 23 de diciembre es la fecha límite para que los inscritos en el programa adquieran derechos a partir del 1 de enero. También está en juego la atención online a las empresas de menos de 50 empleados, que suscribirán pólizas para su personal, a cambio de desgravaciones fiscales.
Si un proyecto políticamente crucial para el gobierno de la primera potencia tecnológica falla tan estrepitosamente, hay que preguntarse qué ha pasado con la tecnología desplegada. A poco de aprobarse la ley, el gobierno federal externalizó la operación y encomendó su desarrollo, despliegue y gestión a Terremark, empresa de servicios subsidiaria de Verizon. La factura habrá sido necesariamente multimillonaria, a juzgar por la magnitud de la tarea, pero no son los ceros de la cifra los que determinan la importancia del enredo. Según el Wall Street Journal, “docenas de ingenieros de Oracle, RedHat y Google han sido convocados de urgencia” para echar una mano en la solución del problema. El comentario de Larry Ellison ha sido muy significativo: “es un asunto de alto voltaje político, en el que no estamos involucrados, pero daremos toda la ayuda profesional que esté a nuestro alcance”.
Para Terremark es un desastre sin paliativos. Contaba con esgrimir su participación en Obamacare como credencial para competir con Amazon y otros proveedores de cloud que pugnan por ganar contratos gubernamentales. Todos los grandes están en esa carrera. Recientemente, fue muy comentado el choque entre Amazon e IBM acerca de un contrato con la CIA adjudicado a la primera. Es bien sabido que Microsoft y Google pelean palmo a palmo por cada concurso público en Estados Unidos. El gran perdedor – aparte de la imagen de Obama – es Terremark, a la que no le han renovado el contrato. No ahora, sino en julio, lo que parece indicar la insatisfacción del cliente. A partir del próximo marzo, el contratista será la rama de servicios de HP, y algo debía estar pasando desde hace meses, porque en julio se adjudicó a HP. Hay un riesgo, pero si lo hace bien, la credencial será para ella.