Newsletter

Formulario de suscripción

7 de mayo, 2013

El Reino Unido, donde empezó la liberalización de las telecomunicaciones en Europa, está dando un giro sorprendente, aunque no inesperado, hacia la consolidación entre operadores. El último síntoma es este: BT, el antaño incumbente British Telecom, ha cerrado un acuerdo con O2, su hijo pródigo, segregado en 2001 y hoy propiedad de Telefónica. Puede que sea un ejercicio de otras noticias que llegarán, y sería un error no prestarle atención pensando que se trata de algo estrictamente británico.

El acuerdo, con diez años de vigencia, implica que BT y O2 compartirán la red de cuarta generación que se desarrollará sobre las licencias de espectro LTE adquiridas por BT en una subasta en la que pujó agresivamente, mientras la filial de Telefónica mantenía una actitud cautelosa. Como resultado, BT se adjudicó 30 MHz en la banda de 2,6, la más valiosa, mientras O2 se conformaba con 20 MHz en la de 800 y nada de nada en la de 2,6. Ya entonces se especuló que algo raro pasaba para que BT pagara 200 millones de libras por frecuencias que no necesita para su limitado negocio móvil. Al leer los estereotipados comunicados de prensa – que ni siquiera mencionan la palabra espectro – uno se entera de que la rama mayorista de BT pondrá a disposición de O2 la infraestructura necesaria para ofrecer a sus clientes una nueva experiencia, etcétera.

El trasfondo es la previsión de que el tráfico de datos móviles en Reino Unido se multiplicará por cuatro antes de 2016, y BT cuenta con la mejor tajada de LTE y con una densa red wifi complementaria. El operador EE (sociedad de Orange y T-Mobile) ha salido de sus penurias gracias a que ha podido explotar antes que sus rivales una primera franja de espectro 4G, mientras Vodafone y O2, además de protestar, se dedicaban a buscar alternativas. Una de ellas, la integración de sus estaciones base, que habrá que ver en qué queda tras esta última peripecia.

Hay una rica historia detrás de la noticia. BT segregó su red móvil en 1985 bajo la marca Cellnet, que se transformaría en O2 y, en 2005, sería adquirida por Telefónica por 18.000 millones de libras. En tal contexto, BT cerró un acuerdo con Vodafone para usar la red de esta en la prestación de servicios móviles a sus clientes corporativos; pero las cosas se torcieron cuando, el año pasado, Vodafone adquirió Cable & Wireless para prestar servicios de banda ancha fija a empresas, en abierta competencia con BT. Esta trayectoria ha ayudado a que BT y O2 vuelvan a abrazarse después de tantos años y quizá podrían plantearse otras iniciativas en común, por ejemplo en el negocio de la televisión de pago, en el país que tiene el mercado más valioso de Europa, pero en el que hay overbooking de oferta.

6 de mayo, 2013

El segmento de los servidores es uno de los más agitados de la industria en estos tiempos. Un movimiento altamente llamativo es la decisión de HP de consolidar sus familias ProLiant, Integrity, BladeSystem y los nuevos Moonshot bajo una misma organización, llamada Servers Division, dentro del Enterprise Group. Estratégicamente, encaja en la política marcada por Meg Whitman de concentrar las unidades de negocio en grandes bloques, algo que complace a los inversores, a juzgar por la evolución bursátil. Tácticamente, parece estar inducida por la oportunidad de ganar terreno ante la incertidumbre que rodea a IBM y Dell, sus principales adversarios.

Si esta división hubiera existido como tal el pasado año fiscal, su aportación a las cuentas de HP habría sumado 14.000 millones de dólares. Las adversas consecuencias de la disputa legal con Oracle, y el retroceso en el mercado de máquinas x86 no obstan para que HP sea el primero de la tabla del mercado de servidores, por unidades, y que su posición incluso podría mejorar, dependiendo de lo que pase con IBM.

De momento, parece que se han roto las negociaciones – no reconocidas oficialmente – por las que Lenovo compraría el negocio de servidores x86 de IBM. Si este fuera el desenlace, IBM habría quedado en una posición desairada, con todos sabiendo que quiere vender pero no lo ha conseguido. El ranking del primer trimestre no refleja esta hipótesis – aunque IBM ha vuelto a caer en esa categoría – pero los ejecutivos de HP creen que pueden sacar tajada del desconcierto que puedan sentir los clientes de su competidor.

Distinto, muy distinto, es el caso de Dell. La compañía está en una fase delicada de su ´privatización´: la transacción propuesta por Michael Dell no está cerrada, pero mientras tanto tiene que dar la cara en bolsa por la evolución de sus ventas, y tranquilizar al canal acerca de la continuidad. Ocurre que, precisamente en los servidores, Dell ha encontrado un argumento de marketing precioso en estas circunstancias: Gartner e IDC conciden en que ha avanzado porcentualmente durante el primer trimestre, recortando la distancia que la separa de HP, líder del mercado.

Esta no ha tardado en reaccionar, recordando que «un trimestre no hace tendencia». En su auxilio ha acudido IDC: la consultora ha confirmado que HP ha encabezado el ranking de venta de servidores durante 68 trimestres consecutivos. Lo que impide ratificar que este mercado se encuentra en medio de una transición – la propia HP ha sido uno de los primeros fabricantes que la ha visto venir – que puede dar más de un vuelco inesperado.

3 de mayo, 2013

Se acabaron las conjeturas. Al final, el elegido no ha sido un outsider ni habrá retorno del hijo pródigo; el nuevo CEO de Intel será Brian Krzanich (52), un veterano que ha pasado la integridad de su carrera dentro de la compañía, a la que ingresó en 1982, nada más acabar sus estudios. En 31 años habrá hecho de casi todo, pero su curriculum sugiere que no es un visionario ni un hombre de marketing, sino un consumado especialista en hacer que el proceso de fabricación funcione. Es un mérito enorme, dadas las circunstancias: Intel no puede permitirse el confiar en un crecimiento lineal sobre los mismos supuestos que ha seguido durante décadas. El mercado está dando un vuelco, o varios, y la compañía da la sensación de haber perdido fuelle. Por eso, dicen, se va Paul Otellini, su antecesor

Otellini se retira anticipadamente con el mal sabor de un decepcionante primer trimestre, en el que tanto los ingresos como los beneficios han bajado. La mitad de los 2.000 millones de beneficios ha sido destinada a dividendo y a recomprar acciones para sostener la cotización. Al margen de las finanzas, Kraznich heredará de Otellini tres problemas pendientes: 1) ganar una posición competitiva, que nunca tuvo, en el floreciente negocio de los procesadores para móviles; 2) contrarrestar – se supone que con la ayuda de Microsoft – el retroceso del mercado de PC; y 3) reaccionar ante el cambio drástico en el diseño de los servidores, para preservar su papel en los centros de datos, que es la llave de su beneficio.

En todos estos terrenos, Intel disfruta de un rasgo exclusivo: es el único fabricante de chips que tiene integradas todas las fases de producción, mientras el resto de la industria se ha decantado unánimemente [con la excepción parcial de Samsung] por el modelo fabless, en el que ´fabricantes´ como Qualcomm, Nvidia y otros, se reservan el diseño de sus procesadores, generalmente siguiendo la arquitectura por la que pagan licencia a la británica ARM, y dejan la verdadera fabricación en manos de foundries especializadas. Varias veces se ha dicho que Intel estaría dispuesta a competir con estas y poner su enorme capacidad fabril al servicio de terceros. Se comenta que el primer cliente de un contrato de fabricación podría ser Cisco.

Entre esos terceros habría uno que puede ser relevante para su estrategia, y se llama Apple. Nunca le ha gustado tener que comprar chips ajenos, y si bien tiene capacidad de diseño, su volumen no es suficiente para abordar la fabricación. Tal vez Intel sería un socio industrial más fiable que TSMC.

Estrechar lazos con Apple es un anhelo que Otellini consiguió sólo a medias. Será casualidad, pero coincidiendo con el anuncio de la elección de Krzanich, Intel ha presentado la cuarta generación de su familia Core – hasta ahora conocida por el apodo Haswell – con una impresionante performance de integración gráfica. Por el momento, baste citar la predicción de que estos procesadores equiparán los nuevos Macbook Pro y Macbook Air, que Apple anunciará probablemente en junio.

2 de mayo, 2013

Se acabaron las conjeturas. Al final, el elegido no ha sido un outsider ni habrá retorno del hijo pródigo; el nuevo CEO de Intel será Brian Krzanich (52), un veterano que ha pasado la integridad de su carrera dentro de la compañía, a la que ingresó en 1982, nada más acabar sus estudios. En 31 años habrá hecho de casi todo, pero su curriculum sugiere que no es un visionario ni un hombre de marketing, sino un consumado especialista en hacer que el proceso de fabricación funcione. Es un mérito enorme, dadas las circunstancias: Intel no puede permitirse el confiar en un crecimiento lineal sobre los mismos supuestos que ha seguido durante décadas. El mercado está dando un vuelco, o varios, y la compañía da la sensación de haber perdido fuelle. Por eso, dicen, se va Paul Otellini, su antecesor.

Otellini se retira anticipadamente con el mal sabor de un decepcionante primer trimestre, en el que tanto los ingresos como los beneficios han bajado. La mitad de los 2.000 millones de beneficios ha sido destinada a dividendo y a recomprar acciones para sostener la cotización. Al margen de las finanzas, Kraznich heredará de Otellini tres problemas pendientes: 1) ganar una posición competitiva, que nunca tuvo, en el floreciente negocio de los procesadores para móviles; 2) contrarrestar – se supone que con la ayuda de Microsoft – el retroceso del mercado de PC; y 3) reaccionar ante el cambio drástico en el diseño de los servidores, para preservar su papel en los centros de datos, que es la llave de su beneficio.

En todos estos terrenos, Intel disfruta de un rasgo exclusivo: es el único fabricante de chips que tiene integradas todas las fases de producción, mientras el resto de la industria se ha decantado unánimemente [con la excepción parcial de Samsung] por el modelo fabless, en el que ´fabricantes´ como Qualcomm, Nvidia y otros, se reservan el diseño de sus procesadores, generalmente siguiendo la arquitectura por la que pagan licencia a la británica ARM, y dejan la verdadera fabricación en manos de foundries especializadas. Varias veces se ha dicho que Intel estaría dispuesta a competir con estas y poner su enorme capacidad fabril al servicio de terceros. Se comenta que el primer cliente de un contrato de fabricación podría ser Cisco.

Entre esos terceros habría uno que puede ser relevante para su estrategia, y se llama Apple. Nunca le ha gustado tener que comprar chips ajenos, y si bien tiene capacidad de diseño, su volumen no es suficiente para abordar la fabricación. Tal vez Intel sería un socio industrial más fiable que TSMC.

Estrechar lazos con Apple es un anhelo que Otellini consiguió sólo a medias. Será casualidad, pero coincidiendo con el anuncio de la elección de Krzanich, Intel ha presentado la cuarta generación de su familia Core – hasta ahora conocida por el apodo Haswell – con una impresionante performance de integración gráfica. Por el momento, baste citar la predicción de que estos procesadores equiparán los nuevos Macbook Pro y Macbook Air, que Apple anunciará probablemente en junio.

29 de abril, 2013

Me han pedido que explique mejor por qué Apple, pese a disponer de una tesorería de activos líquidos por valor de 145.000 millones de dólares [en bancos o en títulos realizables de inmediato] ha decidido emitir bonos de deuda, que un titular ingenioso ha bautizado como iBonds. Como he dicho, no es un caso excepcional. Y como no soy experto en ingeniería fiscal, recurro a fuentes externas, que confirman lo dicho: la clave está en que endeudarse es barato, en todo caso mucho más barato que tributar por la repatriación del dinero radicado fuera de Estados Unidos.

Supongamos que Apple decide repatriar 30.000 millones, pagando al fisco una tasa del 26%: recuperaría unos 22.000 millones con los que comprar acciones propias. Ahora supongamos que las adquiere a 440 dólares por acción (una prima razonable sobre la cotización actual), lo que le permitiría absorber un 5% aproximadamente para su autocartera. Si, en cambio, tomara prestados 30.000 millones, recompraría el 7%. Ahora bien, gracias a la excelente calificación que merecen sus bonos, pagaría un tipo de interés de entre el 2,5% y el 3%, y además podría desgravar parcialmente esos intereses. El fruto previsible de la maniobra sería un alza de las acciones. Negocio redondo. Porque el dinero que se queda fuera sigue generando intereses que engordan el tesoro.

Pero Apple no es una empresa financiera, advierte Nacho G: ¿qué sentido tiene esta maniobra? Dos en uno: remunerar a sus accionistas y devolver a la acción el brillo que ha perdido en los últimos meses. Según el programa de buyback anunciado, entre agosto de 2012 y diciembre de 2015, la compañía habrá recomprado unos 60.000 millones de dólares en acciones ordinarias, valor que sumado al incremento ya aprobado del dividendo, completaría los 100.000 millones que Tim Cook ha prometido devolver a los inversores antes de finales del 2015.

Mientras tanto, Apple seguirá generando cash – es verosímil que dos tercios se queden fuera de Estados Unidos, pero esa es otra historia – con lo que podría dedicar tan ingente cantidad de dinero a comprar empresas o invertirla en desarrollar nuevos productos que le ayuden a compensar la erosión de márgenes que inexorablemente sufrirán los actuales. A partir de aquí, la interpretación es libre: Nacho opina que si Apple tiene que recurrir a trucos financieros para sostener el valor de sus acciones es porque a) sabe que no volverán a trepar hasta los niveles que alcanzaron el año pasado, y b) premiar con dinero a los accionistas es una manera de decirles que se ha quedado corta de ideas innovadoras. En las dos hipótesis, que son exclusivamente suyas, el lector lamenta, que Apple se convierta en «una empresa como las demás».

26 de abril, 2013

Recuerdo un cartel que ví hace años en una tienda: «sólo fiamos a los ricos», decía. Lo he recordado al leer que Apple está preparando una emisión de deuda para obtener recursos con los que aumentar la dotación de su programa de compra de acciones propias, una táctica que está visiblemente destinada a calmar a los accionistas que llevan tiempo quejándose de la tacaña política de dividendos, y ansiosos por recibir su tajada de los 148.000 millones de activos líquidos atesorados por la compañía. Han entendido bien: tiene 148.000 millones disponibles, pero se va a endeudar emitiendo bonos [a los que S&P y Moody´s han dado altas calificaciones] por unos cuantos miles de millones.

Los inversores revoltosos ya han dicho que, por ellos, encantados. Y tienen motivo: Steve Jobs les hubiera acallado – lo hizo, y envainaron – que con la revalorización de sus acciones ya tenían retorno más que suficiente; Tim Cook, en otro contexto, ha preferido por ceder a esas demandas.

Apple no es una excepción ni mucho menos: la tesorería de Cisco y Oracle, por ejemplo, supera los 80.000 millones, mientras sus deudas suman 35.000 millones. Microsoft, otro de los ricachones del sector, emite regularmente bonos desde 2009, y contabiliza 14.000 millones de deuda, que equivalen más o menos al 10% de su robusta tesorería.

En parte, esta ingeniería financiera obedece al hecho de que esos activos líquidos – saldo bancario y titulos a corto plazo – no están realmente disponibles, porque sus titulares los han retenido fuera de Estados Unidos – un 71% del total en el caso de Apple – debido a que su repatriación tendría un coste fiscal de hasta el 35%. Esta es la otra cara del pragmatismo que ha incitado a tantas multinacionales americanas a canalizar sus operaciones exteriores a través de sociedades instrumentales con sede en paìses – Irlanda, Luxemburgo, etc – atractivos por su baja imposición.

La discusión sobre el asunto lleva mucho tiempo rondando, y no hay síntomas de que la administración Obama vaya a hacer en su segundo mandato lo que no hizo en el primero: aprobar unas vacaciones fiscales a cambio de facilitar el regreso del dinero a EEUU: parece que no se ha creído el consabido argumento de que con esos recursos se crearían empleos «americanos».

Se puede deducir que la emisión de deuda no deja de ser una manera indirecta de repatriar recursos offshore, sólo que desplazando el sujeto fiscal. Y que con esos recursos se puede, llegado el caso, paliar los fallos de generación de cash flow dentro de Estados Unidos, o bien usarlos para financiar adquisiciones.

Un caso peculiar es Cisco, cuyo presidente John Chambers, tras reclamar a menudo un cambio de actitud del gobierno hacia los fondos offshore, ha cortado por lo sano y en pocos meses ha comprado empresas no estadounidenses: Intucell (israelí), Cognitive Security (checa), SolveDirect (austríaca) y Ubiquisys (británica). Vaya uno a saber si Cisco u otras multinacionales tendrán en su punto de mira más empresas europeas.

Volvamos a Apple con una última frase: aunque la inquietud entre los accionistas amainara gracias a esta inteligente maniobra financiera, con ella no habrá resuelto el problema acuciante que afronta Tim Cook: las cuentas de la compañía revelan una erosión sistemática de los márgenes, y esta es una dolencia difícil de erradicar.

25 de abril, 2013

Aun suponiendo que uno no sepa a qué diablos se dedica Apple, y sin conocer los antecedentes, le costaría explicarse la decepción que los resultados publicados el martes han provocado entre analistas normalmente proclives a la compañía y plumillas incondicionales de la marca. Estas reacciones, inesperadas en ellos, revelarían que Apple ha perdido (o no ha sabido conservar) una de las grandes bazas con las que ha contado: la reputación de imbatible entre los inversores, la iniciativa ante los medios, eso que inglés llaman momentum. Escribe Tim Bradshaw que desde el pasado otoño, cuando la acción tocó techo a 700 dólares, «Tim Cook ha pasado más tiempo pidiendo disculpas por algún error que presentando una innovación».

En una nota a sus clientes [publicada antes de conocerse los resultados], Barclays recorta en un 20% su previsión de beneficio por acción, y estima que los ingresos totales crecerán un 7% este año (cierre en septiembre) y sólo un 2% el siguiente.

Hay tipos menos impresionable: ni incondicionales ayer, ni escépticos hoy, que trabajan en las agencias de calificación de crédito S&P y Moody´s, de infausta gama en España. Justamente el lunes, asignaron a Apple las calificaciones AA+/Aa1. Algunos de sus fundamentos son elocuentes: 1) «a diferencia de otros fabricantes de PC y de móviles, Apple ha sido capaz de diferenciar sus productos, y creemos que esta cualidad permite pensar en una ventaja sostenible a largo plazo [7 a 10 años, según S&P]; 2) «la cohesión de hardware y software en torno a sus sistemas operativos, ha generado una fuerte lealtad entre los consumidores, que para el resto del sector es cosa del pasado […] esto produce un flujo de ingresos recurrente a lo largo de los sucesivos ciclos de producto».

Si lo anterior se hubiera escrito en vida de Steve Jobs, nadie habría prestado demasiada atención, pero en las actuales circunstancias, se puede leer como un aval a la estrategia de Tim Cook, y una advertencia a los inversores para que hagan oídos sordos al graznido colectivo de blogueros y especuladores (que a menudo son la misma fauna).

Encuentro interesante la siguiente advertencia, firmada por el analista Gerald Granovsky, de Moody´s: «dados los riesgos inherentes a la rápida evolución de la tecnología en este sector, no tenemos previsto por ahora corregir al alza nuestro rating [elevarlo a AAA] pero podría ocurrir si Apple demostrara que es sostenible su capacidad de generación de cash, y observáramos evidencias tangibles de que los usuarios se mantienen fieles a través de las subsiguientes actualizaciones y novedades en sus líneas de productos». Para que nadie saque conclusiones apresuradas, hay que hacer constar que sólo cuatro empresas no financieras tienen la calificación AAA, y una de ellas es Microsoft.

24 de abril, 2013

Ya estarán enterados de la asombrosa historia de la hoja Excel equivocada con la que se ha justificado una tesis nada inocente: que el crecimiento económico de los países desciende abruptamente una vez que su deuda pública supera el umbral del 90%. La publicaron en American Review of Economics en 2010, dos prestigiosos profesores de Hardvard, Carmen Reinhardt y Kenneth Rogoff; como por ensalmo, pasó a ser uno de los argumentos favoritos de los partidarios de la austeridad como eje de la política económica.

Otros economistas se propusieron revisar la tesis de Reinhardt y Rogoff para verificar si, efectivamente, el precipicio pasaba por la línea del 90%. Los autores, gallardamente, reconocieron haberse equivocado al eliminar de su hoja de hoja de cálculo cinco celdas correspondientes a sendos países que, en principio, debían entrar en la fórmula. Al reinsertarlas, se descubre que la deuda podría ser más alta sin hundir por ello el crecimiento.

Esta semana, Bill Gross, que dirige Pimco, el mayor fondo especializado en bonos [gestiona 290.000 millones de dólares) se ha convertido en un crítico severo de las políticas de austeridad. Nunca sabremos si su conversión obedece a una revisión de su propia hoja de cálculo, pero en 2010 Gross afirmó que con su nivel de deuda – inferior a la actual – Reino Unido estaba sentado sobre un barril de nitroglicerina.

No desvelo un secreto si digo que cada día en las empresas se manipulan las hojas de cálculo – «Excel aguanta todo», suele decirse – con el objetivo de simular resultados alternativos y, llegado el caso, forzar aquel que mejor se adapta al objetivo buscado. Sin voluntad de engaño, se acepta que se trata de una aproximación, y que la realidad pondrá las cosas en su sitio. ¿Por qué no hacerlo en el supuestamente aséptico ambiente académico? ¿Por qué no explotar de mala fe una conclusión ideológica basada en una supuesta premisa objetiva?

Vamos, que parecía difícil imaginar que cinco celdas de Excel pudieran influir en la política económica y abrir una brecha tan grande entre los objetivos que se dice perseguir y los resultados que realmente se están obteniendo. Les contaré que, cuando yo estudiaba Economía [no se habían inventado VisiCalc ni Excel], personalmente no me sentía a gusto con la econometría, me apasionaban las clases de Estructura Económica. Luego la vida me llevó al periodismo, y no tengo muy claro en qué momento los estudios de esa ciencia social llamada economía se distanciaron de la tradición secular de pensamiento [La gran búsqueda, de Silvia Nasar, Ed. Debate, da valiosas pistas, pero se detiene a principios de los 70, y esta es una frontera crucial].

22 de abril, 2013

Me han señalado que el comentario del viernes acerca de las negociaciones entre IBM y Lenovo ha tenido interpretaciones que parten de un error en mi texto. Según el acuerdo, Lenovo compraría el negocio de servidores x86 a IBM, de lo que alguien podría deducir que la empresa china aspira a conquistar rápidamente una posición similar a la que tiene en los PC: segunda de la tabla a un pelo de HP y dejando muy atrás a Dell. Como digo, el origen es un error que quiero rectificar cuanto antes: IBM no es líder mundial del mercado de servidores x86, como decía mi comentario. Lo que cambia mucho las cosas.

Según IDC, «los ingresos de HP a precios de fábrica en la categoría x86 se incrementaron un 4% y siguieron liderando el mercado con un 32,7% de cuota. Dell experimentó un 5,7% de aumento interanual y retuvo la segunda plaza con una cuota del 22,9% de los ingresos. El tercer puesto fue para IBM, con un 16,7% después de un descenso del 2,3%» En la cuarta posición se ha colocado Cisco, gracias a un 50,7% de crecimiento, y la quinta es compartida por Fujitsu y Oracle. En conjunto, los ingresos de esta industria aumentaron en 2012 un 4,1% hasta 35.800 millones de dólares, mientras los despachos declinaban 0,4% para quedarse en 8 millones de unidades.

Me excuso por el error, y sólo quisiera añadir que el interés de la noticia tiene otras aristas. Una, obvia, es la retirada de IBM, cuyos resultados del primer trimestre indican que el Systems and Technology Group (hardware, para entendernos) ha perdido 405 millones sobre ventas externas de 3.100 millones. Algún recorte es previsible para alinear esta anómala proporción con los objetivos de la hoja de ruta 2015. Puede que, al eliminar de sus activos los servidores de la serie x, IBM quiera redoblar esfuerzos en favor de sus sistemas Power (procesador propio), con Linux como sistema operativo y ocupar el espacio de x86 para cargas de trabajo analíticas y de bases de datos que hoy son muy demandadas. Al parecer, la transacción no va a incluir los FlexSystems, servidores modulares presentados hace ahora un año y de los que casi no ha vuelto a hablar; los rumores añaden que de su fabricación podría hacerse cargo Lenovo, pero seguirían vendiéndose con la marca de IBM. O sea que no es tan simple como parece.

¿Qué ganaria Lenovo? Cuota, presencia en los mercados, negocio para su canal, etc. Sería ingenuo suponer que aunque incorporase – presuntamente – un 16,7% de cuota de servidores x86, podría imitar el camino que recorriera en los PC durante doce años: las circunstancias son muy distintas, y los rivales no carecen de estrategias. Por otro lado, al comparar los márgenes de HP y Lenovo en sus ventas de PC – con la dificultad que entraña hacer esta segmentación – algunos analistas han observado que los primeros son más altos, lo que implica descubrir que con tal de subir en la tabla de un mercado commoditizado, la empresa china ha sacrificado rentabilidad. No es para sorprenderse, pero resulta lo contrario de lo que se dice que haría ahora.

19 de abril, 2013

Si la operación se concreta, que eso parecía ayer, tendrá muchísima lógica. IBM estaría a punto de cerrar la venta de una parte de su negocio de servidores, la línea System x, basados en procesadores x86 (Intel o AMD, según los casos). Y el comprador, cómo no adivinarlo, sería Lenovo, que pagaría entre 5.000 y 6.000 millones de dólares. Una parte del personal del centro de ingeniería de servidores que IBM tiene en Carolina del Norte, ha sido advertido de que pronto pasará a depender del vecino [Lenovo tiene su cuartel general a pocos kilómetros, donde se instaló al comprar en 2004 la división de PC de IBM]

No es la geografía lo importante, sino el deseo de IBM de desprenderse de las actividades de hardware de bajo margen [los sistemas i, p y z mantendrán su estatus actual]. Pero sólo estaría dispuesta a venderlos a alguien que garantice que no usará esos activos para amenazar sus posiciones en otros negocios rentables. Lenovo cumple esa condición, además de la excelente relación mutua. Sería un arreglo que en cierto modo evoca al que en su día acordaron sobre los Thinkpad: IBM seguiría suministrando a sus clientes soluciones basadas en servidores x86, ahora fabricados por la compañía china.

Según los últimos datos de IDC, el valor del mercado mundial de servidores x86 creció por razones excepcionales en cuarto trimestre, gracias a los nuevos chips Sandy Bridge, pero siguió declinando en unidades. En el caso de IBM, líder del mercado [puesto que perdería], la caída fue del 2% y el 3,7% respectivamente. Lenovo, por su lado, no es un competidor notorio, porque sus máquinas Thinkserver se venden fundamentalmente en China. La transición del mercado con la abundancia de marcas blancas – y quizá su confianza en que sabrá gestionar los costes mejor que IBM – le animan a dar el salto. Sería, asimismo, una oportunidad para reforzar su canal con un catálogo más robusto. El precio que se ha mencionado parece elevado, pero las partes sabrán calcular el valor de la oportunidad.

Si acaso, la única sombra podría ser provocada por la colisión con otro acuerdo, el que Lenovo firmó con EMC el año pasado, que la habilita para vender – sobre todo en China – equipos de almacenamiento de bajo nivel, integrados con sus propios servidores. Pudiera ser que esta circunstancia chocara con la rivalidad que mantienen IBM y EMC, pero tampoco sería un caso excepcional de promiscuidad tolerable, a la vista de abundantes ejemplos que ahora mismo no vienen al caso.

17 de abril, 2013

Lo normal es, o era, que el primer trimestre de un ejercicio fuera sereno para Intel. El de 2013 se ha visto perturbado por dos circunstancias: la caída de ingresos y márgenes – me referiré a ello más adelante – y la decisión de Paul Otellini de dejar su puesto de CEO dentro de exactamente 30 días, en coincidencia con la junta general. Como disertar es gratis, hay quien escribe que lo que Intel necesita es un Louis Gerstner – legendario líder de la transformación de IBM, retirado desde 2002 – pero nadie dice dónde encontrar un Gerstner en 2013. Cualquier outsider, correría el riesgo de provocar fricciones. Por otro lado, seguramente hay candidatos internos que no han asomado la nariz, y se comenta que Otellini no está interesado en pasar de CEO a chairman, como hicieran Moore, Grove y Barrett, lo que privaría a su sucesor de una tutela que puede ser muy conveniente.

Quedaría, en teoría, la posibilidad de retorno de un hijo pródigo, y aquí salta una vez más el nombre de Pat Gelsinger, antiguo CTO de la compañía. Desde luego, conoce Intel por dentro y por fuera, pero no se sabe si sería bienvenido, y sería universalmente criticado por abandonar el puesto de CEO de VMware tan pronto y en medio de una reorganización de calado. Como he dicho, quedan 30 días, y es lógico preguntarse qué hay tras la opción de no seguir un proceso de sucesión convencional, lo que hubiera implicado más transparencia.

En cuanto a los resultados anunciados anoche, se los ha relacionado con la caída del mercado de PC, que IDC y Gartner han identificado entre el 11 y el 14 por ciento. Su influencia es real, pero no directa: más que los PC del pasado, los ingresos declarados por Intel cubren los chips que los fabricantes aún no han ensamblado, y según los analistas ha reducido de manera concienzuda sus inventarios, para hacer frente a los cambios que se avecinan en la oferta. Los 8.000 millones de dólares de facturación del grupo especializado en PC representan un descenso del 6%, que Otellini describió como «bueno, dentro de la debilidad que nos rodea». Por su parte, el grupo de productos para datacenter subió un 7,5%. Lo peor es que el beneficio neto se ha achicado un 25%, pero la previsión oficial para el trimestre abril-junio se mantiene en unos ingresos totales de 12.900 millones de dólares (3.000 millones más que en el que comentamos). Duro trabajo espera al sucesor, sea quien sea.

15 de abril, 2013

De vez en cuando, me gusta citar a mi amigo Ramón Aymerich (y a él le divierte que lo cite). El sábado, comentaba en su columna de La Vanguardia el cierre de Genfins, empresa textil catalana con medio siglo a sus espaldas: «había hecho (casi) todo lo que dicen que hay que hacer para adaptar el negocio a los nuevos tiempos […] lo que sorprende de su final no son las causas – una de las cuales, el haberse concentrado en el mercado español – como el balance presentado al juzgado». Resumo: no debe nada a los trabajadores, ni a Hacienda ni a la Seguridad Social, «y ya me perdonarán -apostilla Ramón- pero esto no es frecuente. Todo lo que debe, lo que finalmente la ha llevado a la liquidación y al cierre, es la deuda bancaria».

¿Por qué me ha llamado la atención este comentario? Porque no se puede seguir hablando de crecimiento (lean las desoladoras crónicas sobre el Ecofin de la semana pasad) sin hablar de financiación del así llamado tejido empresarial español. En mis conversaciones con directivos del sector TI he observado últimamente que casi nadie menciona a las pymes, que – según el tópico arraigado – eran la columna vertebral de la economía española. Hoy el tema obsesivo de esos directivos es qué, cómo y cuánto invierten (o no) las 50 grandes empresas del país. La banca ha quedado fuera de juego hasta que termine de sanearse, ya sabemos cómo; descartada la inversión pública, no hay más que rascar. Así que todos a una.

Quien repase la lista de esas 50 corporaciones, verá que, por abrumadora mayoría, están embarcadas en planes de diversificación exterior. Esto, que en sí mismo sería una señal positiva, quiere decir que, con los matices que se quiera, se están fugando de España; no fiscalmente (bueno, tampoco puedo asegurarlo) pero no generan empleo aquí, donde lo necesitamos.

Ya puede el economista Laborda contarnos en su crónica de color salmón que España ha ganado en competitividad durante 2012; cómo no, si ha habido una devaluación interna vía salarios, se ha aplicado un ajuste de empleo brutal (oficialmente llamado reforma laboral), se han acentuado los rasgos regresivos de la fiscalidad y, aunque «esto no es Grecia ni Portugal», como se dice ritualmente, lo evidente es que el «austericidio» ha destruído el consumo, y está dejando un tendal de empresas cerradas como Genfins, que a estos efectos es sólo un ejemplo más. Ignoro quiénes son sus accionistas, y lo que harán tras el cierre de la empresa, pero dudo mucho de que tengan ganas de invertir en tecnologías de la información.

12 de abril, 2013

Las prisas por dejar redactado mi comentario de ayer son culpables de no haber registrado los datos publicados por IDC y Gartner acerca del mercado de PC en el primer trimestre. Aun así, no me arrepiento porque lo fundamental está escrito en el texto. Aunque las consultoras difieren en el modo de cálculo y, por tanto, sus cifras no coinciden, da igual: se han vendido menos de 80 millones de unidades [un 13,9% menos según IDC, un 11,2% de caída según Gartner] y no se trata de un problema estacional porque la cuesta abajo lleva ya cuatro trimestres consecutivos.

Los análisis que acompañan las cifras subrayan que, tras un arranque poco brioso, Windows 8 ha defraudado las expectativas puestas en él como supuesto revulsivo del mercado. Y, peor aún, que no hay señales de que la demanda vaya a cambiar de actitud en estos próximos meses; por consiguiente, cuando se publiquen los resultados de Microsoft – el jueves 18 – es prácticamente seguro que la división Windows habrá bajado otro peldaño, y habrá que ver si otros segmentos compensan la caída. Recordemos que el año fiscal de Microsoft concluye en junio.

Hasta ahora, se ha medido el mercado en estos términos: Windows domina el 90% del mercado del PC. Pero IDC y Gartner, a rebufo de Canalys, han empezado a publicar agregados de PC y tabletas, de modo que esa foto fija se disipará. Con todas las consecuencias: los usuarios dejarán de prestar atención a las diferencias, todavía importantes, entre las categorías. «Si tienes tres PC en casa, es muy probable que acabes cambiando dos por tabletas», sentencia elocuentemente la analista Mikako Kitagawa, de Gartner.

A la fecha, sigue siendo falsa la cantinela sobre la muerte del PC: en realidad, la demanda entre las empresas ha aumentado, aunque no como para compensar la fuga de consumidores. Para recuperar su imagen entre estos, Windows necesita un cambio urgente de hoja de ruta, que se iniciaría con Windows 8.1.

No puede hacerlo sola, sin el apoyo de la industria. Con Windows 8 se ha repetido algo ya observado con Windows Phone: los fabricantes tienden a pensar que el esfuerzo de marketing debe recaer en Microsoft, que para eso ellos pagan un canon por licenciar el sistema operativo. Microsoft les reprocha que se mojen tan poco, y así han pasado meses críticos.

No pasarán muchos más antes de que Microsoft se vea en la disyuntiva de seguir adelante con su propio hardware, una estrategia por ahora fallida, o hacer lo necesario para restaurar la confianza de la industria y su modelo de negocio de toda la vida. Si no hace, más marcas estarán tentadas de sumarse a Chromebook como alternativa. El reajuste de precios de sus licencias a OEM, puede ser un paso, pero también tiene que tender la mano a Intel – otro que se la juega, como se verá el martes en sus resultados – y restablecer la alianza Wintel, ahora congelada. No obstante, se poco serviría si Windows no aparece pronto en el mercado con nuevos formatos; por eso invito a releer mi newsletter de ayer.

11 de abril, 2013

Ya podemos dar por confirmada oficialmente la proximidad de Windows Blue http://www.norbertogallego.com/windows-9-no-esta-tan-verde/2013/03/11/; confirmada, pero con truco: el director de comunicación de Microsoft, Frank Shaw, ha escrito en su blog que «los grupos de producto están trabajando en común sobre planes para hacer avanzar nuestros dispositivos y servicios, planes a los que internamente nos referimos como Blue». De manera que Shaw evita nombrar a Windows, porque si lo hiciera estaría confirmando que está en camino una actualización de Windows 8 [y quizá, en el mismo viraje, del cuestionado Windows RT http://www.norbertogallego.com/19mar/2013/03/19/].

Por lo visto, no será un service pack al uso, sino algo mucho más ambicioso. Microsoft lanzó en octubre Windows 8 con su interfaz táctil (Metro) para portátiles y tabletas; en enero, informó haber vendido 60 millones de licencias en diez semanas de disponibilidad, cifra que pareció satisfacer a la compañía pero no tanto a los analistas. Se espera que el próximo agosto distribuya a los fabricantes la primera release de actualización, para que pueda llegar al mercado en octubre o noviembre, un año después de la original.

La cuestión del timing tiene su miga: al parecer, en la discusión interna sobre el nombre, han prevalecido los partidarios de llamarlo Windows 8.1 en lugar de Windows 9. Según el blog de Shaw, «un ciclo de desarrollo continuo es ahora lo normal para nosotros», vale, pero un cambio tan rápido de numeral pudiera transmitir una idea de insatisfacción con los resultados de Windows 8.

Al margen, ha trascendido que Microsoft rebajará los requisitos de resolución mínima para tabletas [de 1366×768 a 1024×768] de lo que se deduce su disposición a competir en los formatos de 7 a 8 pulgadas [iPad Mini, Kindle Fire, Nexus 7, etc]. Es lógico: según los estudios de mercado, este formato representará el 65% de las tabletas que se vendan en 2015, y Windows estará ausente si no quita esa limitación autoimpuesta. En los portátiles, podría insuflar dinamismo a la demanda si, como se dice, admitiera que el tamaño mínimo baje a 11,1/11,6 pulgadas: permitiría crear una categoría – no faltará quien la llame netbook 2.0 – con precios más agresivos, por debajo de los 499 dólares.

A ello contribuirá – desde luego, no es oficial – una rebaja a 30 dólares del canon por licencia de los OEM por este formato reducido, en lugar del rango de 75 a 120 dólares que pagan por los portátiles mayores. Digital Times informa que la industria taiwanesa da por sentado que en la segunda mitad del año los portátiles bajarán un 20% su precio medio. Es una buena noticia, pero no precisamente estimulante para la demanda de los próximos meses.

Todo confluye: Windows 8.1 será mucho más que una actualización: una inflexión en la hoja de ruta de Microsoft. Esta habría comprendido que insistir en mantener alto el precio de los portátiles sólo contribuiría a favorecer a las tabletas. Es un hecho que los usuarios van abandonando el deslinde entre multimedia y productividad, y las tabletas – con más razón si incorporan Windows 8 – son apropiadas para el uso profesional.

10 de abril, 2013

Los resultados trimestrales de HTC han originado titulares dramáticos, al borde del catastrofismo. Es inevitable: los datos son malos sin paliativos y, resumiendo, la compañía taiwanesa lleva 18 meses cuesta abajo. En este ambiente, una fuente le cuenta al Wall Street Journal que Peter Chou, CEO y cofundador de HTC, habría dicho en privado que dimitirá si el nuevo smartphone One fracasa en el mercado. Entrevisté hace años a Chou en Londres, y luego nos cruzamos un par de veces en Barcelona; la verdad es que no puedo imaginar HTC sin él al frente: si sus socios lo reemplazan, será para venderla. Tomo nota de que Florian Seiche, quien fuera su mano derecha en los mercados europeos, acaba de anunciar que se marcha, y de que sale a relucir el nombre de Lenovo como eventual comprador. Es el candidato ideal de los rumores.

El caso es que HTC tiene una reputación intachable que defender: fue un puntal de Windows Phone, pero luego ayudó a Google a lanzar Android. Hasta 2010, su marca era la más vendida de esta plataforma… pero entonces empezó el imparable ascenso de Samsung. HTC ha sufrido en carne propia el éxito de su competidor coreano, y ahora sufre el de los ascendentes chinos. Para sobrevivir en un mercado de estas dimensiones y supuestamente duopólico, hace falta una escala que HTC no tiene. Según ha admitido Chou, su marketing no ha sido capaz de aguantar el pulso con Samsung.

A mi juicio, el primer problema de HTC es que sigue anclada subjetivamente en una época de condescendencia de los operadores hacia los fabricantes. Miren si habrán cambiado las cosas que Telefónica – supongo que otros también – ha recibido un crédito canadiense para financiar sus compras de BlackBerry [se comenta que Huawei y Sony hacen lo mismo]. Sin la muleta de las subvenciones, el marketing depende exclusivamente de la fuerza de cada marca.

Ya he escrito aquí sobre la importancia de acertar en la gestión del ciclo de productos. En ausencia de escala, HTC ha tendido a volcar sus esfuerzos en un modelo estrella cada año, algo que sólo puede salirle bien a Apple (y ya veremos). La estrella del 2012, su tabla de salvación, debería ser el HTC One, y muchos comentaristas lo han puesto mejor que al Galaxy S4; pero la verdad es que el de Samsung llegará antes a los mercados, y a más mercados. Queda por ver lo que da de sí la otra apuesta de HTC, su colaboración con Facebook Home, pero hay motivos para pensar que si esa movida fuera rentable, lo será para la empresa de Zuckerberg y muy secundariamente para HTC.

9 de abril, 2013

Con la presentación de un segundo servidor del proyecto Moonshot, HP concreta una tendencia que este blog viene anunciando hace tiempo pero puede haber pasado inadvertida a los lectores ajenos a este segmento de la industria. Los servidores convencionales – y con ellos las primeras marcas del ranking – están cediendo terreno a máquinas especializadas en ciertas cargas de trabajo en centros de datos que presentan grandes exigencias de escalabilidad.

El empujón viene dado por los gigantes de Internet y la nube [Google, Facebook, Amazon, etc], dueños de gigantescas granjas de servidores, que diseñan y configuran sus máquinas – «de densidad optimizada» – con los componentes justos y baratos, cuyo montaje encargan por millares a poco conocidos fabricantes asiáticos (que, a veces, son los mismos que fabrican para las marcas de postín).

¿Significa que el concepto de servidor estándar se muere? Ni hablar: los centros de datos han crecido en los últimos diez años y crecerán aún más en los próximos diez. Pero serán distintos, porque deberán atender los requisitos de nuevos tipos de dispositivos, como los smartphones o esa difusa galaxia bautizada ´internet de las cosas`, todos ellos conectados a un servidor para su control, gestión y análisis. Esto implica heterogeneidad, especialización en cargas diversas. Por consiguiente, lo que está en marcha es un giro gradual en un mercado que factura 52.000 millones de dólares; la influencia de ese giro no dejará de hacerse sentir en las empresas y en sus centros de datos.

HP habló públicamente por primera vez de Moonshot en noviembre de 2011. Ha tenido la visión de saltar sobre la oportunidad y adelantarse al pelotón, en lugar de sentarse a ver cómo la demanda se achica poco a poco o se escapa a Taiwan. Según IDC, los ingresos de HP por venta de servidores cayeron un 7,5% el año pasado [y aun así son 14.100 millones de dólares], de manera que el segundo puesto de la tabla ha tenido magro premio. Hay que parar esta sangría, se habrá dicho Meg Whitman, necesitada como está de mostrar a los inversores que la empresa conserva su capacidad de lanzar nuevos productos al mercado.

Hay que reconocerle otro mérito, el de federar alrededor de su proyecto a distintos fabricantes de semiconductores, y ampliar el abanico de arquitecturas: el primero de la serie, lo desarrolló con Calxeda según una licencia de ARM, y muchos lo interpretaron (lo interpretamos) como un distanciamiento de Intel. Por el contrario, el que se conoció ayer – por buen nombre Gemini – es inconfundiblemente x86, un procesador Atom 1200. Antes de finales de año, se espera el tercero construído sobre AMD [¿será x86 o ARM?] y un cuarto con un Texas Instruments/ARM. Todo indica que el plan táctico de HP consiste en responder a diferentes necesidades con diferentes diseños, y sin casarse con nadie en particular. No hay constancia de cuál pueda ser la táctica de sus competidores.

8 de abril, 2013

No hay que tomar a la ligera las historias acerca de esa criptomoneda que llaman Bitcoin, como si fuera sólo una reedición de aquella ocurrencia que fue SecondLife hace varios años. Ni una ni otra experiencias merece ser tratada como moneda fiduciaria, pero ambas han recibido un tratamiento mediático desproporcionado. Más allá, no se parecen en nada. Bitcoin se define como una divisa electrónica que se intercambia de manera anónima entre ordenadores, no se le reconoce paridad con ninguna moneda real, no está controlada por un regulador (en realidad, ni siquiera se sabe quién está detrás ni qué pretende, aparte de alucinar a cierto número de frikis).

Se ha contado mil veces que su origen está en un paper firmado con seudónimo, que se basa en un protocolo en doble criptografía, que las unidades se generan a medida que una red P2P resuelve algoritmos planteados por el sistema, y que en teoría hay un máximo fijo de moneda virtual «acuñada» que debería alcanzarse en 2040. Como trabajo de fin de carrera, es interesante. Lo insensato es, en coincidencia con el corralito chipriota, a alguien se le haya ocurrido la tesis de que Bitcoin [o algo por el estilo] pudiera ser la base de una alternativa económica libertaria, acorde con ciertas teorizaciones sobre el efecto red o Internet como comunidad autogestionada.

El problema del razonamiento es que un bitcoin no cumple el primer requisito de cualquier unidad monetaria, que es servir para el intercambio: si sólo se puede atesorar, no crea incentivos para gastar, por tanto no genera flujo económico, no crea ni distribuye riqueza. Desde luego que estamos muy habituados a los intangibles; la mayor parte de nuestra actividad pecuniaria cotidiana son apuntes en cuenta, relacionados con tarjetas de crédito o débito, transferencias electrónicas, etc. pero siempre tienen detrás unos activos reales, y si nos merecen confianza, individual y colectivamente, es porque están regulados y respaldados por (relativas) garantías de conversión.

El tratamiento fiscal y la eventualidad de que sirvan para actividades ilícitas, no es materia de este comentario. Sí lo es, en cambio, que la volatilidad de los bitcoins en ese supuesto mercado donde supuestamente han subido como la espuma, es el resultado de su iliquidez; son deflacionarios por naturaleza. Dejando a un lado las diferencias con SecondLife, veo que tienen dos cosas en común: acabará tristemente, pero unos cuantos habrán pasado un rato divertido con sus algoritmos. Mis respetos.

5 de abril, 2013

Demasiadas expectativas. El esperado anuncio de Facebook Home no ha hecho más que confirmar algo de sobra sabido, su necesidad de explotar el hecho de que al menos la mitad de los usuarios acceden a través de dispositivos móviles. Pero Mark Zuckerberg no se ha atrevido – y puede que lleve razón – a ir tan lejos como le recomendaban algunos prosélitos: es improbable que, con tan poca materia como la anunciada, los inversores cambien de actitud y se entusiasmen por la acción de una compañía que aún sigue explorando el alcance de lo que tiene entre manos.

Desde su frustrante salida a bolsa, Facebook ha estado bajo constante presión para mostrar sus cualidades como modelo publicitario. Y lo ha hecho, pero no a la altura de las esperanzas iniciales. De ahí que sus iniciativas despierten a la vez ansiedad y desconfianza. El nuevo intento tiene al menos el acierto de presentarse como una capa social para los usuarios de móviles, con la sagacidad de no actuar como competidor de Apple, Google o los fabricantes y de no enfadar a los operadores.

Casi seguramente, un fphone hubiera sido una experiencia desastrosa, y nadie hubiera entendido que desarrollara un sistema operativo propio. Se ha quedado a medio camino: crear un launcher para Android, una colección de aplicaciones y servicios propios – entre ellos una de mensajería – que conectan a los usuarios de Facebook directamente, usando a Google como plataforma pero sin darle negocio. Será preinstalado en dispositivos de varias marcas, pero la primacía la tendrá un modelo desarrollado ad hoc por HTC, a la que buena falta le hace un empujón de popularidad.

¿Y esto para qué? Para delimitar una plataforma propia, habitada por millones de usuarios ensimismados que – se puede imaginar – se comportarán como consumidores compulsivos de Facebook [esto quiere decir mensajes, fotos, vídeos] casi sin necesidad de aventurarse fuera de ese territorio donde están sus ´amigos´. Durante la presentación, alguien preguntó a Zuckerberg por la monetización de esta iniciativa, y el muy pícaro fingió no haber pensado en ello.

Pues claro que lo tiene pensado. Se calcula que un 14% de los ingresos publicitarios de Facebook proceden de los usuarios que acceden al servicio desde sus móviles, un porcentaje realmente bajo – dicen los analistas – y por tanto prometedor. La manera de elevar el porcentaje es promover el uso, lo que quiere decir más tráfico. Es pronto para saber qué piensan al respecto los operadores – AT&T y Orange han sido los primeros en apuntarse – y no sería raro que llegaran a tener mejores relaciones con Facebook que con Google. Podrían, quizá, ofrecer planes de datos baratos, diseñados a la medida de ese público cautivo. Todo se andará.

3 de abril, 2013

Estoy en deuda con un par de lectores que reclaman una actualización acerca de software-defined networks (SDN), un área en constante evolución. Como entremés, les ofrezco el resumen del resumen de un informe de UBS que ha llegado a mis manos. El autor opina que pasarán un par de años antes de pasar de los pilotos a los despliegues importantes de SDN, pero ya vale con que se hable de ello para extender la idea de una disrupción inminente en el mercado de networking. Por consiguiente, UBS prevé una fiebre de adquisiciones, no necesariamente de empresas jóvenes, más o menos relacionadas con esa perspectiva.

Con 30.000 millones en tesorería, Cisco no se dejará amedrentar por la ´amenaza´ de Nicira (ya integrada en VMware) y aprovechará cualquier oportunidad que se le presente para lo que el informe de UBS denomina (sin duda exagerando) «una navegación por aguas revueltas». Tiempo habrá de analizar aquí la estrategia de Cisco, pero de momento no se trata sólo de SDN, ni mucho menos: prácticamente todos los nombres importantes de la industria TI tratan de asentarse en el antes restringido espacio del networking. Y entre esos nombres aparece el de Oracle.

Valgan como ejemplo dos adquisiciones recientes con las que Oracle quiere hacer crecer su cartera entre las telecos. Muchos hemos reparado en esa publicidad de Oracle en los aeropuertos, según la cual nueve de cada diez operadores son clientes de la compañía. De lo que ahora se trata no es de venderles más de lo mismo – comenta Dana Cooperson, analista de Ovum – sino de «penetrar en áreas estratégicas como la gestión de la experiencia de usuario, despliegue de aplicaciones, análisis de big data, gestión de abonados y el control inteligente de las redes». Probablemente, no descarta venderles también hardware.

Larry Ellison extiende así la larga lista de sus adversarios: Ericsson, Alcatel Lucent,Huawei y Cisco son rivales de no menor categoría que IBM, HP y SAP; a por ellos va Oracle en esta nueva fase. Dos adquisiciones clave de los últimos meses – seguramente habrá más – lo ponen de manifiesto. Oracle ha acordado desembolsar más de 3.000 millones de dólares para comprar Acme Packet y Tekelec, que no son precisamente startups desconocidas para las telecos de medio mundo: llevan muchos años suministrándoles software para optimizar la gestión de sus infraestructuras, y este es un nicho interesante que Oracle quiere añadir a su catálogo.

2 de abril, 2013

El plan articulado por Michael Dell para ´privatizar` la compañía que lleva su nombre, se ha complicado en los últimos días. Además de su oferta, que valora la empresa en 24.400 millones de dólares, han aparecido otras dos que tienen carácter preliminar: una de Blackstone – que cometió la torpeza de sugerir que contrataría a Mark Hurd para tomar el mando en lugar del fundador, lo que de entrada privaría a su propuesta del 14% de capital en manos de este – y otra, manifiestamente oportunista, presentada por Carl Icahn, un bucanero de Wall Street. Ambas, por supuesto, cortejan a los accionistas con un precio aparentemente superior, pero la impresión que prevalece es que acabaran retirándose. Porque, a poco que se piense, ¿qué otro sentido tendría cualquier operación que no fuera dar a su fundador el control incondicional de la compañía, sin enojosas interferencias bursátiles?

Para entender lo poco que se puede entender del asunto, hay que recordar que el PC, un negocio en declive, aporta aún la mayor parte de los ingresos de Dell, pese a los esfuerzos de diversificación. Como es impensable que alguien aceptara comprar esa parte y liberar a la empresa del peso de la carga, viene a resultar que lo único sensato sería llevar adelante el plan de Michael Dell (o lo se intuye que es su plan). Un documento presentado por el consorcio oferente ha dejado meridianamente claro que Dell no podría en ningún caso conseguir que su negocio de soluciones de empresa crezca al ritmo suficiente para compensar la caída de su negocio principal.

¿Qué hacer, entonces? Si acelerara la transformación más de lo que ha hecho hasta ahora, los números serían mal recibidos en la bolsa, porque las inversiones necesarias afectarían negativamente la rentabilidad durante años, y los accionistas minoritarios ya pueden ir olvidándose del precio (una prima del 25%) que ahora se les ofrece por sus títulos. Tal como pintan las cosas, la compañía es víctima de un deterioro operativo, pero su situación financiera es (todavía) relativamente sana. Ahora o nunca, se habrá dicho Michael Dell.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons