wp_head() ?>
Desde hace meses, HP amagaba con entrar a saco en el mercado de la impresión 3D, y Meg Whitman llegó a prometer que en junio haría un anuncio sensacional, luego postergado a octubre. Ahora que se conoce el plan de escisión de la compañía, se puede suponer que la postergación ha respondido al deseo de dar relieve a HP Inc. nombre que llevará la herencia de la actual división Printing and Personal Systems (PPS). Finalmente, el anuncio se produjo al filo de acabar octubre, y ha sido suficiente para la cotización de los competidores. Subjetivamente, los inversores se han ponen la venda antes que la herida, porque los primeros productos de la tecnología Multi Jet Fusion no estarán disponibles hasta 2016, aunque ciertos clientes los probarán ya el año próximo.
Whitman dijo en marzo que las actuales impresoras 3D son lentas y hacen uso ineficiente de los materiales, antes de subrayar que los HP Labs han resuelto los dos problemas. Por lo visto durante las demos transmitidas ayer desde Nueva York, las futuras impresoras permitirán construir piezas a una velocidad diez veces superior a las técnicas convencionales de fabricación.
Al basarse en una tecnología de desarrollo propio, en la que el centro de la compañía en Sant Cugat ha tenido y tendrá un papel relevante, HP podrá disfrutar de ventajas de coste. Los cabezales pueden operar simultáneamente 10.000 inyectores a la vez, alcanzado una precisión de 5 micras. Esto, obviamente, supone una reducción de tiempo y de coste, que podría transformar los métodos de las industrias del plástico. Los analistas apuntan, sin embargo, que no sería apropiada para trabajar con otros materiales, en particular con aleaciones metálicas, un problema aún por resolver.
Evidentemente, HP ha optado por dar a esta iniciativa una orientación hacia los usos industriales, dejando para más adelante la decisión de penetrar o no en el mercado de consumo. Las ´impresoras` 3D industriales actuales tienen precios que oscilan entre 150.000 y medio millón de dólares, pero en la presentación sólo se dijo que las de HP estarán más cerca del umbral que del rango superior.
Consultado por mail, un consultor de Gartner, Pete Basiliere, me ha dado una lección que no he acabado de digerir: «ya sabrá usted que el mercado de impresión 3D no es nuevo, pero HP ha sabido esperar el momento de entrar en un punto de inflexión y, sobre todo, ha evitado el riesgo de abordarlo por abajo y centrarse en los aficionados al do-it-yourself, un segmento de ´commoditización` extrema, con precios que en muchos casos están por debajo de 500 dólares». Este no es, desde luego, el nicho al que se dirige HP, pero Basiliere no descarta que pueda hacerlo más adelante, si se decantara el número de competidores y una vez despeguen las técnicas plug and print: «no hay por qué desdeñar la importancia del movimiento makers, íntimamente asociado con el software open source»
Dion Weisler, que preside la división PPS y será responsable de montar la futura HP Inc., dijo durante la presentación que «estamos ante una gran oportunidad de participar en la emergencia de la próxima revolución industrial». Al margen del ambicioso propósito, el mercado de impresión 3D tiene aún proporciones modestas, pero los analistas de Morgan Stanley pronostican un ritmo de crecimiento del 34% anual hasta llegar en 2020 a los 20.000 millones de dólares. La mayor parte no será generada por el hardware sino por los servicios y los consumibles, una ecuación que HP conoce al dedillo. En todo caso, habrá que esperar al 2016, y entre medias tendrá que concretarse la laboriosa partición de HP.
Desde que Satya Nadella tomó posesión como CEO de Microsoft, se ha acelerado una nueva apertura de la compañía hacia alianzas que antes eran impensables, porque representan un talante de colaboración entre empresas que rivalizan incluso en el mismo segmento de mercado. Para que así ocurra, hace falta que el interlocutor tenga una actitud equivalente, y esto ocurre con frecuencia en las circunstancias del mercado. Uno de los últimos acuerdos que ha firmado Microsoft tiene como contraparte a IBM, por el que ambas ofrecerán aplicaciones de la otra en sus respectivas nubes. La moraleja es explícita: ninguna quiere aislarse, y esto requiere dejar de lado viejos resentimientos. Leer más
Vaya por delante que no me gusta la palabra ´paradigma`, como no me gustan ´ecosistema` o ´disruptivo´ ni otros tropos usuales en la industria de las TI. Que no sea de mi gusto no impide reconocer que, si tuviera que indicar una tendencia ´paradigmática` sin duda escogería cloud computing. Me he detenido en una frase de un documento elaborado por analistas de Gartner; escribe David Mitchell Smith que «cloud computing es, por su propia naturaleza, vulnerable a los riesgos del mito […] desde la perspectiva del público, ´la nube` evoca algo mágico, cuyos detalles de implementación permanecen ocultos; no es extraño que abunden los malentendidos».
Las inversiones en la adopción del cloud empiezan a notarse, y Gartner, siempre atenta a estos fenómenos, cree necesario enumerar diez mitos en torno al auge del cloud, siendo el primero la afirmación de que siempre es fuente de ahorro. Es verdad que los precios descienden en la infraestructura como servicio, pero no todos los servicios cloud siguen necesariamente la corriente, y aunque los beneficios son a menudo visibles, no debería darse por cierto que el resultado sea un ahorro de costes. El segundo mito sería la creencia de que una empresa no es realmente moderna si no tiene planes de llevar sus operaciones a la nube, de lo que se desprende el tercer mito del decálogo de Gartner: la confianza en que las características actuales del fenómeno cloud serán definitivas y, por tanto, aplicables (o deseables) para cualquier necesidad que se planteen las empresas.
Hay más. Cuando se pregunta por la estrategia corporativa en la materia, se descubre que muchas empresas carecen de ella o, peor aún, se dejan llevar por el primer impulso transformador de su CEO (puede que presionado por el CFO, raramente por el CIO), que tal vez no sea más que una ocurrencia sin mucho fundamento. Eso – advierte Gartner – no es tener estrategia, porque debería empezarse por identificar qué objetivos del negocio no tienen mejor solución que buscarlos en la nube.
Si una estrategia cloud debe alinearse con los objetivos del negocio, hay que empezar por aceptar que el fenómeno tiene manifestaciones muy diversas y niveles diferentes; un error corriente – avisa la consultora – es adoptar la oferta de un proveedor como eje de la estrategia propia no definida.
Según Gartner, hay tendencia a pensar que la nube es menos segura que los entornos on-premise, sin haber hecho previamente un análisis de las capacidades de la empresa en materia de seguridad. La verdad es que se conocen pocas rupturas en los servicios cloud, y la mayoría de las que se conocen afectan a instalaciones on-premise. Séptimo mito: cloud computing no es adecuado para cargas de misión crítica: es falso, porque depende de la herencia recibida, difícil de remover y por tanto una fuente de justificaciones.
Punto y seguido. La mayoría de las adopciones de cloud no sustituyen un datacenter (ni sería aconsejable que lo hicieran) ni es razonable suponer que la misma estrategia es válida en ambos ámbitos: cada movimiento que se hace, tiene implicaciones. El noveno mito de la lista de Gartner supone que migrar a la nube incorpora automáticamente sus atributos: hay pasos intermedios que no producen los mismos resultados.
Por fin, el documento reflexiona acerca de la relación entre virtualización y cloud computing, para decir que la primera no es un camino obligatorio que conduce a la nube: no es necesario ni tampoco suficiente. Es un debate que viene a cuento de la (presuntamente sencilla) conversión de entornos virtualizados y automatizados, a veces erróneamente descritos como «nubes privadas». Ideas que dejan mucho poso para pensar.
Las actuales proporciones de lo que llaman cóctel vital han acabado con el modelo laboral “de 9 a 6”. Tampoco hay coartada para la infidelidad: las excusas del tipo “hola cariño-volveré tarde-no me esperes despierto/a-tengo que finalizar un proyecto” han dejado de ser creíbles, porque el presunto trabajo urgente a esas horas también puede hacerse en el sofá del feliz hogar. Las vidas personales se entrelazan con las laborales, y la culpa de todo es la tecnología, claro que sí. Aporta ventajas, pero si su uso a todas horas no cuenta con el consentimiento de las empresas, puede provocar riesgos de seguridad. El estudio People-Inspired Security, patrocinado por Samsung, analiza el fenómeno. Leer más
Estimulante encuentro con Duncan Brown, analista que dirige en Londres la filial de la consultora Pierre Audoin Conseil. Tema: durante años, se ha preconizado la concentración de las empresas que atienden el mercado de ciberseguridad, pero en la práctica ha ocurrido lo opuesto: han proliferado las compañías nacidas para resolver nuevos problemas o aplicar nuevos conceptos a los problemas de siempre. La consolidación es inevitable, de todos modos, razona Duncan. «Si yo fuera CISO (chief information security officer) me gustaría tener un proveedor único, del mismo modo que mi empresa trabajara, es una hipótesis, con software de SAP o de Oracle, pero la seguridad no funciona así, y esto se debe en parte a la historia y en parte a su complejidad intrínseca». Pero la industria marcha hacia un marco de gestión unificada de la seguridad, las herramientas para llegar a ese extremo están en sazón, pero nadie está en condiciones de ofrecer la cesta completa.
¿Es realmente inevitable, Duncan? Sólo dos días antes de la conversación, Symantec decidía escindirse en dos compañías, una de ellas dedicada en exclusiva a la seguridad, volviendo a la situación de hace nueve años, «con una diferencia: en lugar de diversificarse, a Symantec le ha llegado la hora de ajustar el foco de su portfolio, por lo que esta rama probablemente hará una o más adquisiciones en los próximos 12 o 18 meses».
No será un caso excepcional, dice el analista. HP se ha convertido en una potencia en el mercado de seguridad, pero por eso mismo necesita tener una agenda para reforzar su oferta, y esto implicará adquisiciones. Cisco, en su estrategia expansiva, está haciendo lo mismo. IBM ha hecho no menos de tres adquisiciones en el segmento de seguridad durante los 12 últimos meses. En todos casos, la otra cara de la moneda son compañías pequeñas y con pocos clientes, pero interesantes desde la óptica de la propiedad intelectual. En este mismo plano, FireEye ha pasado a ser un actor estratégicamente importante desde que compró Mandiant. «En las transacciones que hemos conocido, destaco el hecho de que las compañías de seguridad se han valorizado, y por tanto quien quiera comprarlas ya sabe que pagará altos precios».
¿Qué problema tiene la fragmentación, Duncan? «Gestionar la seguridad con piezas dispares es una migraña permanente, y de ahí viene la tendencia a externalizarla como servicio. Pero a los CISOs no les gusta el outsourcing de sus funciones: defienden la visibilidad y control de aquello que está bajo su responsabilidad. En este momento, por mucho que se resistan, la dirección del viento lleva a la externalización, proyecto a proyecto. Esto favorece a los grandes de la industria TI, cada uno con su propia rama de seguridad».
Las alianzas forman parte del paisaje de esta industria. «En parte – apunta Brown – como respuesta a las demandas de los CISO, y en parte debido a las presiones de los gobiernos, cada vez más preocupados por lo que se les ha escapado de las manos». De allí viene, explica, la norma según la cual la compartición de la inteligencia sobre amenazas es un imperativo en esta industria: «aquel que encuentra una vulnerabilidad, la comparte con sus competidores, en lugar de extraer ventaja; otra cosa es que su marketing presuma de haber sido el primero, lo que carece de importancia real».
Otro problema, que me reservo para una crónica próxima, es el hecho de que los costes de los daños causados por fallos de seguridad son más altos y crecen más rápido que los presupuestos destinados a seguridad. El amigo Duncan tiene su punto de vista: «tradicionalmente, la seguridad se ha considerado una cuestión de infraestructura, y la gente que se ocupa de las aplicaciones no se habla con la de infraestructura, son equipos separados; este es un malentendido que se va superando lentamente, pero todavía no se ha encontrado el equilibrio necesario». Qué pena no haber tenido tiempo para más.
Se pueden aprender muchas lecciones de Facebook. Hasta 2007, no pasaba de ser una red social. Lo que estaba muy bien, pero no ofrecía grandes opciones de rentabilidad. A partir de ese momento, la compañía introdujo la plataforma a través de la cual los desarrolladores podrían introducir aplicaciones en el sitio web. Empezaron a florecer los juegos en la red social, los amigos se invitaban entre ellos y los usuarios adquirían bienes virtuales. Mark Zuckerberg dejó dicho que en el futuro habría compañías cuyo único producto sería una aplicación en Facebook. Han pasado siete años y ese modelo de empresa no solo existen sino que generan millones de dólares y emplean a cientos de personas. Leer más
Una de las singularidades de Jeff Bezos es que nunca prometió beneficios a los inversores en Amazon; su idea del ´valor para el accionista` consiste en perseguir el crecimiento constante y maximizar el free cash flow. Lo dijo el CFO de la compañía, Thomas Szkutak, ante la insistencia de los analistas en obtener explicaciones por los resultados del tercer trimestre: los 437 millones de dólares en pérdidas han sido un record en la historia de la compañía, a pesar de que los ingresos aumentaron un 20% hasta 20.580 millones de dólares. La última vez que Amazon cerró un trimestre con beneficios fue el tercero de 2012. Szkutak se mantuvo firme: incluso en un período rematamente flojo, el cash flow sigue aumentando y eso es lo que debería importar.
Para los analistas, la peor sorpresa no han sido las pérdidas, que daban por descontadas, sino la previsión a la baja del cuarto trimestre: los ingresos aumentarán, pero la horquilla resulta tan amplia (del 7% al 18%, según el CFO) que deja demasiadas dudas. Incluso en la mejor de las hipótesis, unos 30.000 millones de dólares, el incremento delataría una desaceleración, comparado con el frenesí del último cuarto de 2013. No hace falta añadir que el cuarto trimestre es el más importante del año, y si la propia compañía dice que será flojo, los inversores no van a remontar la caída de las acciones de Amazon en un 24% de declive desde enero.
La causa inmediata de los problemas es fácil de identificar: el lanzamiento de su smartphone Fire ha sido un rotundo fracaso, pese a la novedad de 3D y a una rebaja promocional del precio [0,99 a condición de firmar un contrato de dos años con AT&T]. Al final del trimestre, Amazon tuvo que cargar a pérdidas unos 170 millones de lo invertido en ese proyecto, y acumulaba 83 millones de dólares en inventario, que probablemente seguirán la misma suerte contable.
Para Amazon, el Fire Phone no es un objetivo en sí mismo, sino un instrumento para vender contenidos y servicios. Está visto que los consumidores no han picado, contra lo que dejaban esperar las buenas críticas de la prensa especializada. Uno de los rasgos de su personalidad, que Bezos ha impreso a su empresa, es que no puede quedarse quieto, y así ha ido construyendo un imperio en el que algunos empiezan a encontrar fisuras. Otras iniciativas de este año pesan mucho en el balance: 1.100 millones para comprar la plataforma de videojuegos Twitch, 2.000 millones para comprar y/o producir contenidos, una cifra desconocida para desarrollar un lector de tarjetas de crédito como medio de pago móvil, otra cantidad no relevada para lanzar la venta online y distribución física de alimentos frescos; otros 2.000 millones para hacerse un hueco en el mercado indio, ciertamente ávido de comercio electrónico pero donde tiene que luchar contra un potente competidor local, Flipkart.
Bezos sólo se deja ver cuando se trata de presentar nuevos productos y darse aires triunfales. Por tanto, tocó a Szkutak la tarea de transmitir el mensaje del fundador: Amazon está «en modo inversión», y así lleva veinte años. Hay tantas oportunidades ahí fuera – reconoció – que tal vez deberíamos ser más selectivos , vino a decir. Aparentemente, los ingresos no suministran suficiente cash para las ambiciones de esta compañía, que ha suscrito un crédito abierto de 2.000 millones con el Bank of America para financiar circulante, inversiones, adquisiciones «y otras necesidades».
Una rama del imperio de Bezos que no se desglosa en las cuentas de Amazon, su filial AWS de servicios cloud, suscita justificada curiosidad, proporcional a la opacidad de la empresa. Aparece bajo la categoría «otros». A falta de datos oficiales, los analistas estiman los ingresos de AWS con cifras dispares, pero una observación elemental revela que el capítulo «otros» facturó 1.382 millones en el tercer trimestre, un 37% más que el precedente, aproximadamente un 7% del total agregado de la compañía. No es suficiente como para dejar de etiquetar a Amazon como un retailer. ¿O es una empresa tecnológica?
Esta crónica pretende saldar una deuda contraída con los lectores que han echado en falta una cobertura de Open World, el evento que cada año, a finales de septiembre, cita Oracle en San Francisco. El de 2014 tenía el ingrediente de ser el primero en que el fundador de la compañía, Larry Ellison, ya no oficiaba de CEO, aunque estuvo tan presente y locuaz como siempre (excepto en 2013, ausente por razones deportivas). La importancia de Open World este año radica en la coincidencia con una fase delicada para Oracle, ni más ni menos delicada que para otros vendedores de la vieja escuela: a todos urge adaptarse a los nuevos rasgos del mercado, y evitar que empresas más pequeñas (y más ágiles) les coman la merienda. Leer más
Desde que Edward Snowden sacó a la luz las actividades de espionaje electrónico de la NSA, toda la industria ha tratado con mayor o menor acierto de desmarcarse. Apple no sólo ha negado cualquier complicidad o consentimiento pasados, sino que en su reciente presentación, ha asegurado solemnemente que sus nuevos iPhone 6 y 6 Plus son impenetrables para los espías. Una afirmación que, aparentemente, busca varios objetivos: tranquilizar al mercado chino, y facilitar la entrada de sus dispositivos en las grandes empresas, de la mano de los consumidores, esa práctica que llaman BYOD [bring your own device].
Contrasta con el empeño de Samsung, líder del mercado mundial, por obtener el visto bueno de los organismos del gobierno de EEUU. Cinco de sus dispositivos móviles acaban de recibir la autorización de la NSA (nada menos) que permite a los funcionarios del gobierno y las fuerzas armadas usarlos para transmitir documentos clasificados. Abarca los smartphones Galaxy S4 y S5, Galaxy Note y y 4, y la tableta Galaxy 10, a condición de que tengan implementada la plataforma de seguridad Knox.
Gran noticia para Samsung, en un momento difícil. Sus resultados trimestrales siguen bajando, y sus beneficios operativos han llegado a caer un 60%, declive atribuido a la división de móviles. En 2010, esta división aportaba el 75% del beneficio. Ahora… una foto del mercado mundial de smartphones muestra saturación en los mercados maduros (occidentales), que desplaza la expectativa de crecimiento hacia los países emergentes, con el paralelo avance de los competidores chinos [y Samsung ha perdido el primer puesto en China]. En este contexto, penetrar en los clientes corporativos es un imperativo, y la seguridad es un eje del marketing.
Samsung ha trabajado en el desarrollo de Knox desde 2011, pero el lanzamiento se produjo en febrero de este año en el Mobile World Congress. Los directivos de la compañía imaginaron demasiado rápidamente el asalto a la fortaleza de BlackBerry, pero hasta el momento no parece que hayan avanzado mucho: en mayo, Samsung mencionó que había 87 millones de dispositivos equipados con Knox, pero sólo 1,8 millones con sus funciones activadas; no ha actualizado esas cifras. Tampoco ha informado qué ha sido de su oferta para que algunos rasgos de Knox formen parte de una próxima versión de Android, sistema operativo manifiestamente vulnerable.
En la práctica, no basta con tener un software de seguridad; para que sea eficaz, hay que imbricarlo en el hardware, y este tiene que ser no menos seguro. Samsung goza del control total de sus procesos de fabricación, a diferencia de cualquier competidor. Luego, hay que disponer de una red de centros capaces de dar servicio a los clientes corporativos [ya existen en EEUU, Canadá, India, Reino Unido y Polonia] y, por último, hace falta que uno o más organismos especializados en seguridad bendigan la solución. La autorización de la NSA es, por tanto, un trampolín para ser aceptado por las grandes empresas y bancos.
Una de las virtudes de Knox es la tecnología de «contenedor virtual» que permite separar los usos y accesos personales de los corporativos. No obstante, puede haber otras objeciones: en el ambiente de sospechas y polémicas que rodea la actividad de la NSA, no van a faltar suspicaces que pregunten por las concesiones que pueda haber hecho Samsung a cambio de esa autorización que la pone tan contenta.
Entretanto, el líder del mercado corporativo, apetecido por Samsung (y por Apple, ahora en alianza con IBM) sigue siendo BlackBerry: trastabilla, pero nadie ha ocupado su lugar. La semana pasada, la prensa canadiense se hacía eco de un rumor – que se repite cada cierto tiempo – acerca de una (supuesta) adquisición inminente por parte de Lenovo. El rumor no es nuevo, como digo, pero se enfrió cuando la compañía china compró Motorola Mobility. Ahora bien, si esta adquisición aún no ha sido aprobada, ¿qué pegas no le pondrán las autoridades a la absorción de la única empresa que, hasta ahora, tenía un nivel de permisos equivalente al que se acaba de conceder a Samsung?