16May

16/05/2016

El evento que esta semana dejará un reguero de noticias será la clásica conferencia Google IO, que será la primera desde la conformación del holding Alphabet y, también por primera vez, no se celebrará en San Francisco sino en un anfiteatro de Mountain View, muy cerca del campus de la compañía. Son detalles que podrían tener su importancia, pero de momento la atención está puesta en elucubrar acerca de qué novedades habrá este año. Mario Kotler me ha ayudado in situ a separar el trigo de la paja en los rumores que proliferan acerca del futuro de Android.

En la conferencia de 2014, se presentó Android L, y un año después Android M. Pero, en 2016 se adelantó a marzo el anuncio de Android N en forma de un kit para desarrolladores. Sin embargo, esta última versión del sistema operativo dará un relieve especial al evento a partir del miércoles. Android N será, probablemente, la plataforma «para todo» en la que Google lleva tiempo trabajando, y que debería permitirle invadir el campo de las tradicionales de Microsoft y Apple. Desde hace tiempo se habla de «convergencia entre Android y Chrome» o incluso de «fusión entre Android y Chrome». dos formas de formular una tendencia.

El concepto original de Chrome OS fue pensado para acoger aplicaciones web, pero desde entonces las aplicaciones móviles se han comido el pastel: pueden hacer lo mismo que aquellas, con idéntica (o superior) facilidad para conectar con entornos cloud, y la ventaja de que funcionan ´en modo nativo` en un dispositivo móvil. Para decirlo en el lenguaje de la industria: aportan una mejor experiencia de usuario, comparadas con las aplicaciones web que corren en Chrome OS.

Lo que no se sabe todavía es cómo implementará Google la capacidad multiventana de Android N en las distintas categorías de dispositivos. En el caso de Apple, IoS 9 permite partir la pantalla del iPad, una decisión que – de momento – ha defraudado a muchos usuarios del iPhone. Obviamente, su eficacia está limitada por el tamaño de pantalla, además de requerir un procesador de la última generación, en principio un Snapdragon 820, si bien quedaría la opción de conectar el smartphone a un monitor para que cumpla, de hecho, las mismas funciones que Chrome OS en un desktop. Si se cumplen esas condiciones, la estrategia de Google sería similar a la de Microsoft con Windows 10 Continuum, con la diferencia de que Android es (casi) gratuito para los fabricantes. mientras la licencia del sistema operativo de Microsoft no está subvencionada por el negocio publicitario que mueve Google.

Apple podría, eventualmente, seguir la misma ruta, pero de momento está atada por el dogma anticonvergente, que impide acercar IoS a OSX. Aunque hay quien cree que podría relajarlo parcialmente en su conferencia convocada para el mes que viene. Porque esta sucesión de eventos son, en el fondo, trampas para cazar desarrolladores, y la onda actual es que quien tenga el entorno más versátil, entendiendo por tal que facilita crear aplicaciones para varias plataformas sin exclusividad ni inversión adicional.

Sería aventurado suponer que Android N va a resolver el clásico problema de la fragmentación que ha afectado a las sucesivas variantes del sistema operativo. Los fabricantes – y, por consiguiente los usuarios – siguen su propio ritmo de adopción de cada versión. Android M – o 6.0, también llamado Marshmellow – sólo está funcionando en el 7,5% del ´ecosistema`, mientras que el 35,6% del parque está equipado con L (de Lollipop) lanzado en 2014, y así sucesivamente: hay todavía un 2,2% de móviles Android con la versión Gingerbread de 2010.

Mover Android al desktop requiere que Google incita a los desarrolladores a crear aplicaciones pensadas para ese entorno (incluyendo teclado y ratón), como espejo de las que existen para otros sistemas operativos. La Google Play Store está pidiendo a gritos una invasión de sus rivales. No de IoS, muy controlado por Apple, pero se puede intentar con Windows, OSX y Linux. Este puede ser un buen argumento para los desarrolladores que ya están llegando a Mountain View.

Cada vez es más evidente que Google ha decidido extender su familia de hardware. Hace un par de semanas se anunció el fichaje de Rick Osteloh, que fuera presidente de Motorola Mobility mientras esta fue propiedad de Google y siguió en el puesto después de la venta a Lenovo. El cargo de Osterloh lo convierte en responsable de una nueva división de hardware sobre la que todavía se sabe poco. Lo que sí se sabe es que Google busca un partner industrial para desarrollar sus propios procesadores con la arquitectura ARM, un papel que en principio podría recaer en Qualcomm.

En la conferencia de esta semana habrá novedades sobre el proyecto Tango, al que por ahora sólo se ha sumado un fabricante, Lenovo. Se dice que aparecerá un asistente virtual empaquetado para competir con el Echo, lanzado por Amazon: combinará wifi, un altavoz, un micrófono y el software para configurar un appliance para búsquedas basadas en la voz.

La realidad virtual estará en el menú de Google IO. Contrariada por el progreso de Facebook y por el hecho de que Samsung llegara a un acuerdo para comercializar Oculis Rift, Google necesita replicar con algo más elaborado que su primer producto de VR, Cardboard. Hace varios meses, The Wall Street Journal informaba que Google preparaba una «nueva app de mensajería» que, presumiblemente, desalojará a su actual Hangouts. También aquí acecha la sombra de Facebook y el despertar de Microsoft, que trabaja sobre un concepto similar sobre Skype. Y estas es sólo una primera lista de las novedades que se esperan.

13May

13/05/2016

IBM está empeñada en desmentir el prejuicio de aquellos que la ven como una compañía venerable, pero al fin de cuentas decadente. En lo que va de año, ha anunciado un pacto con SAP por el que integrará su tecnología de computación cognitiva con la suite S/4HANA, y en los últimos días una plataforma de servicios cloud para entidades financieras basada en el protocolo blockchain; ha desvelado los avances de sus experimentos para el desarrollo de un computador cuántico e informaba de la puesta en marcha del proyecto Watson for Cyber Security. Un cuarteto de novedades que vendrían a demostrar que IBM está en la punta de la tecnología. Lo que no está tan claro es cómo piensa monetizar tanta ´disrupción`.

Destinar el computador cognitivo Watson al análisis, identificación y (ojalá) prevenir las amenazas contra la seguridad de redes y sistemas, es una misión que el mundo agradecerá, sin duda. Pero antes, la máquina asombrosa que ganó un concurso de preguntas y respuestas tendrá que volver al aprendizaje. Su especialidad es aportar respuestas, pero no se espera que las explique.

Es complicado – admite Caleb Barlow, vicepresidente de IBM Security – entrenar a Watson para que interprete datos no estructurados, que se generan sin cesar y desafían la capacidad de los seres humanos y de las máquinas convencionales. Ningún individuo sería capaz, ni con la ayuda de la computación convencional, de analizar los 200.000 eventos de seguridad que se producen cada día en una gran organización típica. Tampoco podría digerir las 75.000 vulnerabilidades conocidas (y sus variables) ni leer los 60.000 post que se publican cada mes (sólo en inglés) acerca de la cuestión.

Watson sí podría, siempre y cuando se le entrene para hacerlo. Según el sagaz comentario de Barlow, «la diferencia entre enseñar algo a Watson y enseñar algo a mis hijos está en que Watson no olvidará lo que ha aprendido».

Esto no quiere decir que Watson – a diferencia de otras invenciones – vaya a suprimir empleos. Si algo falta en estas materias es personal formado: IBM Security maneja una proyección según la cual en 2020 será necesario cubrir 1,5 millones de puestos de trabajo relacionados con la seguridad. La computación cognitiva puede mitigar el problema.

En esta primera fase, «enseñar a Watson», IBM ha firmado protocolos con ocho universidades de Estados Unidos. «Este no es un software corriente ni un trabajo de programación para cualquiera», añade Barlow. El trabajo ha comenzado por la ingesta de 15.000 documentos por mes, la conexión a varias bibliotecas y fuentes de noticias con las que se pretende que Watson esté al corriente, aprenda a razonar y a encontrar conexiones entre ´puntos de datos`antes de aplicar técnicas probabilísticas. Cuanto más conocimiento acumule, mejor cumplirá su misión. ¿Y cuál es esa misión? Actuar en cierto modo como un forense, para responder a dos preguntas: ¿cuál es el grado de urgencia? y ¿qué intervención prescribe?

Como cualquier otro mecanismo de ciberseguridad, el servicio cloud de Watson sólo puede identificar amenazas reales, pero se pretende explorar su potencial preventivo. No todos los ataques son fulminantes: lo normal es que lleven días, semanas o meses, lo que debería permitir captar los síntomas de un ataque prolongado y ayudar a cortarlo a tiempo. Y, con el tiempo, descubrir las pautas de las amenazas y las evidencias ocultas que no ha sido descubiertas por las plataformas existentes .

Según se ha informado, el servicio debería estar disponible a mediados de 2017. Watson for Cyber Security se suma así a anteriores iniciativas de IBM, que ha creado una unidad específica de negocio para ellas; las más conocidas en el área de la medicina, aunque también las hay dirigidas al sector financiero, y sin duda habrá otras. Ahora bien, ¿significa esto que IBM ha encontrado una nueva manera de ganar dinero, que buena falta le hace?

Hace cinco años, tras la repercusión de su triunfo en el programa Jeopardy, IBM pensó que tenía entre manos una máquina capaz de resolver grandes problemas de la humanidad que estaban fuera del alcance de los ordenadores existentes: desde acabar con el cáncer a promover el desarrollo de África. Muchas promesas – como un ambicioso partnership con Citibank – se quedaron por el camino. En 2014, se pasó a un enfoque pragmático: IBM fragmentó las capacidades de Watson, las «componentizó» para ofrecer soluciones y API, por lo general de orientación vertical.

Para reforzar esa nueva estrategia, IBM hizo varias adquisiciones que le aseguran reservas de datos con los que «alimentar a la bestia». Por ejemplo, la gigantesca colección de imágenes médidas de Merge Healthcare o los 2.000 millones pagados por los activos digitales de Weather Company.

Los analistas más suspicaces cuestionan que lo que IBM vende amparado por el nombre Watson tiene poco que ver con la máquina que ganó Jeopardy. IBM replica explicando que tiene un modelo de negocio para Watson. Según este modelo, generaría ingresos por dos vías: Watson API y Watson Analytics. IBM tiene un programa (Watson Ecosystem) en el cual los desarrolladoes participan creando aplicaciones cognitvas basadas en las API de Watson, cuyos frutos económicos se repartirán a razón de 70/30.

A la hora de la verdad, el problema que tiene IBM es su paulatino achicamiento, que ya no puede ser compensado con ingeniería bursátil. La buena noticia es que en el primer trimestre los ingresos bajaron un 2%, y la rama de soluciones cognitivas ha empezado a generar ingresos. Pocos, pero ingresos. Buen fin de semana

Norberto

Un año después, el Apple Watch aún no brilla

13/05/2016

Apple es muy dueña de no publicar las cifras de venta de su Watch, en el mercado desde hace ya un año. Lo que obliga a confiar en la estimación de IDC, según la cual en 2015 se despacharon 11,6 millones de unidades del reloj ´inteligente` de Apple. Puede que sea un cálculo tímido, comparado con los de varios analistas bursátiles, pero no es mal dato si se considera que duplica el número de iPhones que Apple despachó en el primer año de vida de su producto estrella. Todas las fuentes, quizá para no pillarse los dedos, vaticinan que en en 2016 venderá aún menos, pese a – o a causa de – la espera de un nuevo modelo. KGI Securities, por citar un ejemplo, no pasa de 7,5 millones de unidades. Leer más

11May

11/05/2016

Mucho se ha predicado, se predica y se predicará acerca de la ´uberización` de la banca. Esta misma semana se celebra en Madrid la enésima conferencia sobre fintech, que en la neolengua circulante condensa diversas amenazas para la supervivencia de la banca tal como la conocemos. O de oportunidades de transformación, según se mire. Pero, ay, también esta semana se ha conocido el colapso de la experiencia más conspicua y que ha servido de modelo a numerosos imitadores.

Renaud Laplanche, fundador y CEO de Lending Club, era considerado por sus pares como el «padre espiritual» de los créditos peer-to-peer, variante de la así llamada economía colaborativa aplicada a los servicios financieros. Una investigación interna, precipitada por artículos críticos en la prensa, dictaminó que Laplanche era responsable de irregularidades que – al decir de la compañía – violaban las buenas prácticas del sector (sic). Con todas las distancias imaginables, es como si Travis Kalanick, fundador y CEO de Uber, o Brian Chesky, el inventor de Airbnb, fuera pillados haciendo negocios propios con recursos de los inversores en sus empresas.

Exagero, y lo hago a conciencia, pero algo tienen en común: las tres operan en ausencia de regulación, un rasgo que en California mola mucho pero no necesariamente en el resto del mundo. Y también tienen algo que distingue a Lending Club: cotiza en bolsa, lo que no ocurre con Uber y Airbnb, cuyas hipotéticas valoraciones son astronómicas pero no probadas [y por eso no salen a bolsa].

La defenestración de Laplanche ha sido un mazazo para centenares de startups que en medio mundo envidiaban su modelo de negocio. Un chiringuito muy bien montado, todo hay que decirlo: según FactSet, Lending Club fue en 2015 una de las 10 compañías de más rápido crecimiento entre las 1.200 cotizadas de las que hace seguimiento. Un argumento tan convincente que le ha valido para fichar como miembros independientes de su consejo a personalidades relevantes como Larry Summers (ex secretario del Tesoro), John Mack (antiguo chairman de Morgan Stanley) o Mary Meeker (estrella de los analistas especializados en Internet).

El rápido ascenso de Lending Club, fundada en 2006 como plataforma de préstamos online, se explica por una combinación de circunstancias: la fuerte demanda de activos de alto rendimiento en un contexto de crisis financiera tras la cual la remuneración del circuito bancario es muy baja. La compañía funciona así como una intersección de prestamistas y prestatarios, y ya durante el año pasado se habló de las primeras deserciones de inversores.

Por aquello de que lo importante es exhibir crecimiento, para compensar el menor número de transacciones, Laplanche empezó a autorizar préstamos por valores cada vez más altos, saltándose a la torera las reglas, supuestamente a espaldas de otros directivos. Al mismo tiempo, daba entrevistas en las que prometía volver al espíritu original de P2P. Lo cierto es que a sus sucesores les va a costar encontrar los 8.000 millones de dólares de capital estable que necesitaría para mantener sus operaciones, según calcula un análisis de Sterne Agee, en el que se sugiere que el sistema de marketplace online de dinero podría estar herido de muerte, a menos que se regule asimilando prácticas menos ´disruptivas`.

Descubierto el enjuage, a Lending Club – y probablemente a sus émulos – les va a afectar indirectamente la regulación: los bancos han sido urgidos por la agencia federal de garantía (FDIC) a ser «celosamente vigilantes» con las plataformas online que respaldan con el dinero de sus depositantes. En los próximos días, a buenas horas, el Tesoro va a presentar un primer proyecto de regulación de esta actividad de la que Laplanche fue pionero hace diez años.

Quizá sea demasiado tarde para evitar que aparezcan otros cadáveres en los armarios. OnDeck, una plataforma rival, presentó días atrás unas cuentas trimestrales en caída libre. Otra adscrita al mismo modelo, SoFi – especializada en refinanciar préstamos contraídos por estudiantes para pagar sus carreras – admite que varios hedge funds que le daban cobertura se están replegando; y no puede esperar nada de los bancos, a los que ha acusado con desparpajo de ser resabios burocráticos de las prácticas económicas obsoletas e incapaces de usar la tecnología. El episodio está dejando claro que (también) en materia de fintech es más fácil predicar que dar trigo. Hasta mañana,

Norberto

Pronóstico del día: las nubes traen borrasca

10/05/2016

Los parabienes sobre el advenimiento del cloud computing tienden a exagerar las virtudes y disimular los problemas. Ensalzar las primeras es el papel del marketing, de señalar los segundos se ocupan las encuestas, que invariablemente apuntan a la seguridad como la primera causa de reticencias. Entre ambos extremos está la Cloud Security Alliance (CSA). La naturaleza compartida y el consumo bajo demanda de esta modalidad de servicios TI introduce amenazas de seguridad que pueden debilitar, cuando no eliminar, los beneficios derivados de su uso, advierte la CSA, que desde 2008 promueve las buenas prácticas en la materia entre proveedores y usuarios de lo que el mundo conoce como ´la nube`. Leer más

9May

9/05/2016

Esta semana, a más tardar la próxima, se conocerá la decisión final de la Comisión Europea acerca de la compra de O2, filial británica de Telefónica, por su rival Three, del grupo Hutchinson. Se da por seguro el rechazo, conforme a lo recomendado por la autoridad británica de la competencia. Hutchinson parece resignado y evita alzar la voz, porque tiene otra fusión pendiente en Italia; en cuanto a Telefónica, por boca de su nuevo presidente José María Álvarez-Pallete, ha dicho que una respuesta negativa sólo respondería a consideraciones de índole política, pero no sería explicable con argumentos económicos.

Sería ingenuo esperar que la decisión no estuviera motivada por la política: la comisaria europea de Competencia, la danesa Margrethe Vestager, tendría muy difícil desairar la petición del estado miembro directamente involucrado, con más razón en una coyuntura como la actual, teñida por el referéndum de junio sobre el Brexit.

O sea que la decisión es política. Aunque no en el sentido que le han querido dar quienes han ondeado la bandera al momento de señalar que el árbitro ha permitido a ´franceses y alemanes` [alusión a los copropietarios de EE, que vendieron sin objeciones a BT] lo que se niega a ´los españoles`.

No habrá patriotismo que valga el día en que Álvarez-Pallete se ponga a la tarea de convencer a los accionistas (muchos fondos extranjeros) y a las agencias de calificación de deuda (todas extranjeras) de que Telefónica tiene un plan B: encontrar otro comprador [ya tuvo a BT, que se echó atrás], sacar O2 a bolsa [solución lenta e incierta], vender otros activos, o vaya usted a saber. El objetivo, en todos los casos, sería el mismo, rebajar la deuda de la compañía. Más que urgente, es apremiante: la acción de Telefónica cotiza a menos de la mitad de su máximo de los últimos diez años, y muy cerca de su piso mínimo.

Valga como introducción al asunto de fondo: el estado de la política europea relacionada con las telecomunicaciones. De la triada de comisarios a cargo de sendas carteras afines, la danesa Margrethe Vestager lleva la de Competencia , con más obvia repercusión mundial, como lo prueba ahora mismo el procedimiento abierto contra Google. Pero, por eso mismo, Vestager ha vaciado de contenido las carteras del estonio Andrus Ansip [ridiculizado como un robot en su propio país] y el alemán Gunther Oettinger, ambos dedicados al papel evangelizador en cuanto seminario o conferencia se organizan en Europa (y son muchos) a propósito de una entelequia que llaman mercado único digital pero a la vista está que no arranca.

Toda política de competencia conlleva una dosis de subjetivismo en la búsqueda de equilibrio entre intereses contrapuestos, y con ello corre el riesgo de alejarse de las leyes económicas subyacentes. En materia de telecomunicaciones, la doctrina del equipo de Vestager [a la que hace eco Ansip] preconiza que son deseables las consolidaciones transfronterizas e indeseables las consolidaciones a escala nacional. Es una elipsis retórica para fijar en cuatro el número mágico de operadores en cada país: más serían multitud, menos provocarían una subida de precios, es la curiosa dramaturgia por la cual la competencia no se definiría por las reglas de juego sino por el número de actores en escena.

La verdad es que si no hay propuestas de consolidación transfronteriza, no es porque los operadores no sepan idiomas: ¿cuántas veces se ha hablado de la hipotética creación de un campeón francoalemán mediante la fusión de sus ´incumbentes`? Si no ha ocurrido es por la abismal diferencia de capitalización que hace carente de interés esa operación. ¿La aprobaría Margrethe Vestager?

La política de competencia prevalece sobre la sectorial hasta tal punto que el regulador británico competente (Ofcom) se pronunció en teoría y se inhibió en la práctica, dejando que la CMA (Competitive Markets Authority) se ocupara de enviar la patata caliente a Bruselas, no sin antes decirle qué ha de hacer con ella.

¿Qué dice la carta de la CMA a Vestager? Que la única solución aceptable para aprobar la compra de O2 por Three sería la desinversión [en favor de un comprador aprobado por la CE] de suficiente infraestructura o espectro como para asegurar la viabilidad de un cuarto operador en Reino Unido. Se repite el 4 como número capaz de lograr que los consumidores usen más datos y los operadores ganen más dinero.

La verdadera métrica de la salud de esta industria – con más razón en un mercado maduro – no es el número ce competidores sino el ingreso medio por usuario, que en Europa es hoy inferior al de hace quince años: pasar de 3G a 4G y dentro de poco a 5G no habrá servido para mejorar esa ratio, pero ha supuesto una febril carrera financiera.

Las fórmulas que a lo largo de años han buscado los operadores para bajar sus costes operativos (externalización, compartición de infraestructuras, compras centralizadas, búsqueda de nuevas fuentes de ingresos) no disimulan un hecho fundamental: hasta una cuarta parte de los costes han estado relacionados con la caza y captura de clientes de sus competidores. Hay más puntos sobre los que me gustaría reflexionar en torno al caso, pero lo mejor será tenerlos en remojo.

6May

6/05/2016

Mark Zuckerberg no pudo haber elegido mejor momento para desvelar que quiere asegurarse el control personal y vitalicio de Facebook. Los ingresos del primer trimestre han aumentado un 52%, contradiciendo una tendencia a la baja en empresas comparables [suponiendo que puedan compararse, que esta sería una buena discusión]. La propuesta que ha aprobado un comité del consejo contempla crear un tercer tipo de acción, Clase C, concebido a la medida del fundador, que mantendría su 60% de poder de voto aun cuando llegara a desprenderse de su mayoría actual.

Este cambio de modelo de gobernanza corporativa, a imagen y semejanza del introducido por Google (hoy Alphabet) para eternizar a sus fundadores, se ha justificado por la vocación filantrópica de Zuckerberg y su esposa Priscilla, quienes han decidido vender gradualmente el 99% de sus acciones de Facebook, lo que con el tiempo llevaría, en teoría, a bajar su poder de voto. Actualmente, Zuckerberg posee 4 millones de acciones de clase A (las que cotizan en bolsa) y 468 millones de clase B (el 85% de las que se reservaron él mismo y sus socios originales) que, a diciembre pasado, le otorgaban un 60,1% de los votos. El mecanismo imaginado por el comité implicaría que Zuckerberg mantendrá ese poder de voto aunque enajene sus acciones.

El sagaz columnista Robert Armstrong comentaba la noticia en el Financial Times, con un poco de mala baba (británica): «en un mundo incierto y hostil, ¿qué tendría de malo ser regidos por un dictador próspero a la par que generoso? Hoy no hay otro dictador tan próspero ni más generoso que Mark Zuckerberg […]». Armstrong añadía que «Facebook tiene tanto poder que podría ser definida como un clásico monopolio extractivo, con ingresos asegurador para muchos, muchos años. La estructura accionarial propuesta, que es en sí misma un insulto al capitalismo, no debería molestar a nadie».

O sí. Como les ocurrió en su día a Larry Page y Sergey Brin, demandados por un accionista que se sintió perjudicado por la estructura dual [y fue compensado extrajudicialmente con 522 millones] ya ha aparecido al menos un accionista de Facebook disconforme, que propone la existencia de una clase única de acciones, con el argumento de que no deberían separarse los derechos económicos de los de votar. Esta es, por cierto, la posición editorial del Financial Times, temeroso de que el ejemplo cunda.

La objeción tiene su aquél. Es común en las empresas del Silicon Valley la existencia de una doble escala de acciones, en la que suele coincidir el interés de los fundadores de startups y los inversores que les han apoyado inicialmente: se trata de amarrar la el máximo retorno tanto en caso de éxito como de fracaso. Lo más frecuente es que salgan perjudicados los ´pringados` que han aceptado trabajar a cambio de la promesa de recibir acciones. No todos los mercados ven con buenos ojos estas prácticas: la empresa china Alibaba optó por cotizar en Nueva York porque la bolsa de Hong Kong no aceptó el trato privilegiado conferido a su fundador, Jack Ma.

Los servicios jurídicos de Facebook predican que «una compañía controlada por su fundador [puede] cumplir mejor su misión y resistir las presiones cortoplacistas que pudieran debilitarla». Es obvio que ese control sin contrapeso ha facilitado que Mark Zuckerberg pudiera tomar personalmente iniciativas como las compras de WhatsApp, Instagram u Oculus, que – muy probablemente –habrían provocado una rebelión de accionistas en cualquier empresa gobernada a la manera tradicional.

Las acciones de clase C tienen que ser votada por la próxima junta de accionistas, y se puede dar por aprobada desde ya, a menos que el propio Zuckerberg tenga el gesto de no usar su 60% de voto. Los inversores han respaldado hasta ahora todas sus apuestas, y les ha ido bien: la cotización se ha triplicado en tres años.

5May

5/05/2016

No sé si es la expresión más adecuada, pero Brian Krzanich, CEO de Intel, ha decidido cortar por lo sano. La cirugía empezó por el anuncio de un recorte de 12.000 empleos y ha continuado con el abandono de la línea Atom de procesadores para smartphones y tabletas. Dicho llanamente, Intel viene a reconocer que sus productos y desarrollos en esa línea no son competitivos.

Al cierre del año fiscal 2014 los resultados de la división que entonces se llamaba Mobile and Communications Group (MCG) arrojaban pérdidas operativas de 4.206 millones de dólares sobre unos ingresos de 202 millones. Insostenible, pero aun así la compañía en su conjunto ganaba dinero. Por algún tiempo, Krzanich autorizó una práctica conocida como contra revenue, consistente en subsidiar a ciertos fabricantes [es notorio el caso de Asus ] sus compras de chips para que Intel ganara (artificialmente) cuota de mercado. El truco permitió incluso superar su previsión de unidades despachadas, pero esto sólo engrosó las pérdidas.

Un año más tarde, esas pérdidas ya eran invisibles porque, entretanto, el MCG había sido absorbido por el Client Computing Group, cuyos beneficios (cada vez menos) enmascaraban la situación, pero no tanto como para evitar preguntas.

Disculpe el lector, pero aquí tengo que recapitular. En el origen del enredo está el antiguo empeño de Intel en sostener que su arquitectura x86 era tan válida como la ARM que domina el mercado de los procesadores de aplicaciones para smartphones [y más tarde para tabletas]. Lo sangrante del caso es que Intel tuvo en tiempos una licencia sobre la arquitectura ARM, pero la vendió en 2003 a Marvell, quedando así descolgada de la corriente principal.

Intentó arreglarlo con la compra en 2010 de una parte de Infineon, que tenía el contrato para suministrar modems 3G para el iPhone, y con ese sostén desarrolló su propio modem 4G, con la suposición [falsa, por lo que se ve] de que sería una palanca para vender procesadores de aplicaciones.

Pero el mercado evoluciona en otra dirección, la integración de piezas (modem, CPU, GPU) en un único SoC (system-on-a-chip) y el proyecto SoFIA, que ya ha dado vida a productos comerciales en la gama baja de la familia Atom, se ha quedado corto. Según el anuncio, esos productos serán «descontinuados» [de todos modos, casi no tenían clientes]. Lo más llamativo es que también queda cancelado el proyecto Broxton, que debía ser la próxima fase de esa estrategia. Sería estéril tener un modem 5G discreto cuando la mayoría de los fabricantes apuestan por la integración.

En una entrada de su blog que sentó el ambiente para la noticia, Krzanich ha explicado que en adelante Intel se centrará en tres focos: datacenter/cloud, IoT y 5G. La cancelación del proyecto Broxton deberia liberar recursos para dedicarlos a la tecnología 5G, en la que tiene más posibilidades de éxito que en los ´comoditizados` dispositivos 4G. De dar la puntilla se ha encargado MediaTek, con su anuncio de un SoC integrado 4G para móviles Android de 50 dólares, que estarán disponible este verano. La «retirada táctica» de Intel es comprensible: no sólo no podría competir con Qualcomm o Samsung sino que tampoco podría aguantar una guerra de precios mediante subsidios.

5G, escribe Krzanich, «es la tecnología clave en un mundo que se mueve hacia la conexión permanente» y la estrategia de Intel apunta a desarrollar «sistemas 5G de extremo a extremo, desde los modems a las estaciones base, en todas las formas de conectividad existentes o que aparezcan en el futuro». Como la tecnología 5G es, en cierta medida, una continuidad, las capacidades de Intel en 4G pueden ser aprovechadas con una inversión adicional.

Algunos analistas especulan con que este paso atrás puede devenir en paso adelante hacia la adopción de la arquitectura ARM, que Intel ha denostado hasta ahora. Tampoco sería coser y cantar. El liderazgo en el uso de ARM está en manos de fabricantes que diseñan sus procesadores: Apple, Samsung y Qualcomm, y basta mencionarlos para entender por qué la cuesta sería empinada para Intel. El único elemento factual es la ejecución de la nueva estrategia estará a cargo de Murthy Renduchintala, ex directivo de Qualcomm, tal vez fichado para encabezar una marcha a la que la vieja guardia era reacia.

Si así fuera, podría estar en juego algo más que el mercado de chips para dispositivos móviles. Hoy por hoy, el futuro de Intel está uncido a su Data Center Group, que aporta el 27,8% de los ingresos totales y el 56,2% del beneficio operativo. Esta es la ´línea Maginot` de la arquitectura x86. Sus rivales – los de de toda la vida más los chinos que están llegando – andan buscando una brecha, que esperan encontrar adaptando la arquitectura ARM para diseñar procesadores con los que equipar nuevos servidores para una nueva era de las TI, en la que los requisitos han cambiado.

Retail: China en punta, España a la cola

4/05/2016

2016 es un año de inflexión para muchas de las tendencias que se han ido acumulando en el comercio electrónico durante los últimos años. Los consumidores están derribando los muros de los procesos tradicionales de compra. Esta es uno de los numerosos hallazgos (no siempre originales) del estudio Total Retail, elaborado por PwC tras encuestar a 23.000 consumidores en 25 países de cinco continentes. China es descrita como gran paladín del fenómeno, mientras el resto del mundo intenta copiar sus estrategias. España se mantiene a la zaga, con cifras sólo comparables a las de México o Sudáfrica. Una virtud que no se puede negar al estudio es la de llamar a las cosas por su nombre. Leer más


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2025 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons