Ya somos digitales, ¿y ahora qué?

4/11/2014

El informe que se comenta en esta ocasión identifica a través de seis tendencias la figura del usuario español de tecnologías de la información: 1) es de los más digitales del mundo, 2) es multidispositivo, 3) exterioriza hábitos arraigados de acceso a contenidos digitales, 4) demanda velocidad y más velocidad, 5) no está dispuesto a aumentar su gasto en servicios digitales y 6) se dice preocupado por la seguridad y privacidad, pero tiene más confianza que la media global en sus proveedores de servicios digitales. Esta radiografía sucinta debería llevar a la industria de las TIC a un sinfín de oportunidades, pero estas no se manifiestan en las cifras del sector, tal como se presentan en el mismo documento. ¿Dónde está el problema?

Leer más

3Nov

3/11/2014

El miércoles de la semana pasada, la (todavía) primera economía mundial se despertó sin la metadona que desde 2008 ha evitado su recaída en la Gran Depresión. En concreto, la Reserva Federal ha dado por terminado el ciclo de estímulo monetario conocido como Quantitative Easying, en el que ha desembolsado 3,5 billones [trillions] de dólares. La presidenta de la entidad, Janet Yellen, ha amagado con volver próximamente a los tipos de interés positivos, por considerar que se están dando en Estados Unidos las condiciones para volver a la normalidad: crecimiento del 3,5% en el PIB en el tercer trimestre, inflación del 1,7%, desempleo del 6% y déficit público en proporciones manejables. Son macroindicadores, habrá que ver cómo funcionan a partir de ahora.

Sólo 48 horas después, el Banco de Japón tomaba la dirección contraria: ponía en marcha un programa de compra de bonos [similar al abandonado por la Fed pero desde luego muy inferior] con la finalidad de recortar sus rendimientos, provocar una devaluación del yen y, por este medio, promover las exportaciones, componente vital para las empresas japonesas, que han vuelto a subir en la bolsa de Tokio, y salvar el empleo.

Liquidez. Es la palabra clave en las dos noticias de signo y timing opuesto. En EEUU, las tres rondas de QE han servido para reactivar la economía, pero también han facilitado ese desajuste que suele resumirse como ´financierización` de la economía real, con una secuela de desigualdad muy grave y que acabará pasando factura política, como podrá comprobar Barack Obama mañana en las elecciones de mitad de mandato.

La dicotomía entre bloques económicos se está manifestado en forma de perturbaciones de sus respectivas divisas: el dólar sube, el yen baja y el euro se deprecia correlativamente. Por ahora, es lo normal, pero esconde el peligro de que países con estructuras económicas dispares se lancen a la emulación con el mismo truco al mismo tiempo, como avisa el agudo John Authers.

Queda así demostrado que los bancos centrales tienen, entre otras cualidades, el poder de crear y gestionar expectativas. Una lección que sin duda conoce Mario Draghi, presidente del Banco Central Europeo. Esta semana – por otro lado, la primera de funcionamiento de la nueva Comisión Europea – puede ser crucial, si Draghi consigue sacudirse la retórica, desafiar a sus críticos y dar un golpe de timón monetario. El programa de compra de activos LTRO [que nuestros ingenios autóctonos bautizaron como ´litrona`] ha sido tímido, y ha tropezado con los prejuicios ideológicos de quienes siguen diciendo que la austeridad habrá sido buena sólo si se continúan las llamadas reformas estructurales [el Wall Street Journal, impertérrito, editorializaba el otro día sobre la necesidad de que España liberalize aún más el mercado laboral].

La faena que tienen por delante Draghi y el BCE es delicada: evitar que el estancamiento cíclico en el que Europa se ha instalado se convierta en estancamiento secular, como se advierte desde el otro lado del Atlántico, y evitar una réplica de la década perdida japonesa, que por lo visto es el camino que llevamos. Ningún economista podría sostener seriamente que en Europa la inflación es un riesgo; sin embargo, esta es la doctrina que subyace en algunas opiniones recientes.

La gran pregunta es ¿hasta dónde puede llegar Draghi?, ¿cuántos activos debería incorporar el BCE a su balance? Se ha sugerido que sería necesario hasta el 1% del PIB conjunto de la eurozona durante un par de años [entre 500.000 y 750.000 millones de euros] y concentrar el esfuerzo en los países meridionales desfasados con los septentrionales; quizás podría empezar a desmontar la bomba de relojería de la deuda soberana, ahora que parece tener encauzada la solvencia de los bancos de la eurozona, alicatados de nuevas. Me temo que el zorruno presidente del BCE tendrá que vencer la resistencia de los partidarios de seguir con el escarmiento.

Mientras tanto, en este mundillo en que me muevo, seguimos hablando de eficiencia, de ´hacer más con menos`, de ´innovación disruptiva`, empredimiento, marketing online y aplicaciones mágicas [lean mi crónica de hoy]. Hay quien disimula su escepticismo con la supuesta recuperación, etcétera, etcétera.

No quiero ni puedo extenderme, sólo decir que la economía no es en absoluto off topic para este blog. Un lector y buen amigo, alto directivo de una multinacional en España, me incitaba estos días a perseverar, con – cito casi literalmente – esta frase de sobremesa: «Leo con mucho interés tu newsletter cuando escribes sobre mi empresa y mis competidores; lo aprecio, pero echo en falta tus comentarios económicos de antes del verano». Gracias, amigo NN [nomen nescio], me da mucho gusto retomar la costumbre hoy, en este otoño tan raro que nos ha tocado.

Taxistas contra Uber, batalla callejera

3/11/2014

Dice Travis Kalanick (38), fundador de Uber: «la industria del taxi estaba necesitando un revulsivo desde hace años, pero sólo la tecnología lo ha hecho realidad». Escribe John Gapper, columnista del Financial Times, «los taxistas [especialmente los de París, ya se sabe… cheesemongers] son una casta corporativa, incapaz de entender que la titularidad de una licencia no podrá por mucho tiempo ser un activo sustituto de un fondo de pensión». Con argumentos así, no extraña que los taxistas se revuelvan en las ciudades europeas donde opera Uber. El invento del emprendedor en serie Kalanick es el más elogiado y el más odiado de los nacidos en la era de las aplicaciones móviles. Leer más

31Oct

31/10/2014

Últimamente, EMC ha dado mucho que hablar. Tras disolverse el plan (supuesto) de fusión con HP (que ninguna de las partes ha reconocido), y de absorber casi totalmente la participación que Cisco tenía en la sociedad común VCE, el patriarca Joe Tucci ha encendido señales de una nueva estrategia para la compañía.

Rompiendo la cronología por eficacia narrativa, los hechos son los siguientes: esta semana ha anunciado su nueva Enterprise Hybrid Cloud Solution, en realidad un empaquetamiento de productos y servicios, con la que las empresas podrán automatizar su infraestructura y mover cargas y aplicaciones entre nubes privadas y públicas. Con este anuncio, EMC acaba con la extraña sensación de rezago que le daba el vivir predicando las virtudes de la nube sin contar con una oferta propia y facilitando que su ahijada VMware ocupara el centro de la escena.

Antes de anunciar EHCS, la compañía había procedido a reorganizarse, con lo que ha añadido complejidad a la ya difícil comprensión de su organigrama. Sin dejar de llamarse EMC2 (su nombre oficial incluye el superíndice), su rama, EMC II (Information Infrastructure) es una de las tres piezas de la federación diseñada por Tucci. A partir de ahora, EMC II se parte a su vez en dos divisiones. Recuerden sus nombres: Core Technology (CTD) y Emerging Technology (ETD), cada una con un presidente que depende de David Goulden, uno de los candidatos a suceder a Tucci.

Esquemáticamente, la CTD asume todo el almacenamiento primario y los activos de protección de datos, con la llamativa inclusión de XtremeIO, la línea de cabinas all-flash adquirida a la empresa israelí del mismo nombre. Por su lado, la ETD se queda con el almacenamiento no primario y los productos complementarios, en particular ScaleIO, Isilon y ViPR. A quienes no tenemos pistas para descifrar la lógica del puzle, se nos ha explicado que la estructura «se alinea con la forma en las que los clientes compran nuestros productos». Nada que opinar al respecto, si no fuera porque, a la sombra de la reordenación, se ha creado una unidad de negocio «especial» encargada de la línea de productos de gestión y orquestación cloud. Si esta unidad cumpliera las expectativas de negocio, podría llegar a ser una división de pleno derecho dentro de la estructura EMC II o como se llame entonces.

Estos movimientos se suman a una secuela de adquisiciones en cadena. Son de bajo valor monetario, pero interesantes por lo que aportan. Cloudscaling desarrolla una solución IaaS bajo OpenStack. Maginatics se define como «una tecnología de almacenamiento diseñada para datacenter y cloud, que facilita la gestión de los datos no estructurados». Spanning se especializa en sistemas de backup y recuperación para prevenir pérdidas de datos en aplicaciones cloud como Office 365, Salesforce o Google Apps.

Vistas en conjunto, estas iniciativas sugieren el interés de EMC de reunir una cartera propia que despeje su imagen, vinculada exclusivamente al almacenamiento, para ser reconocida como un actor con personalidad singular en el mercado cloud.

Sin haber revelado todavía estas cartas, Tucci había comparecido ante los analistas para presentar los sólidos resultados del tercer trimestre: incremento del 9% en los ingresos, mejora de todas las ramas de la federación, con VMware una vez más como estrella (17% de crecimiento). Estos datos, más un cash flow excelente, que han elevado la cotización, parece que han calmado las ansias del inversor ´activista` Paul Singer, quien ante la próxima retirada de Tucci presiona a este para adoptar medidas revulsivas. Tucci, por cierto, respondió a un analista que quizá no se retire en febrero de 2015 y se quede un tiempo más hasta completar su misión, asunto que dice estar discutiendo con el consejo. Hay gente que no sabe retirarse a tiempo, yo tampoco, pero esto no viene al caso.

30Oct

30/10/2014

Desde hace meses, HP amagaba con entrar a saco en el mercado de la impresión 3D, y Meg Whitman llegó a prometer que en junio haría un anuncio sensacional, luego postergado a octubre. Ahora que se conoce el plan de escisión de la compañía, se puede suponer que la postergación ha respondido al deseo de dar relieve a HP Inc. nombre que llevará la herencia de la actual división Printing and Personal Systems (PPS). Finalmente, el anuncio se produjo al filo de acabar octubre, y ha sido suficiente para la cotización de los competidores. Subjetivamente, los inversores se han ponen la venda antes que la herida, porque los primeros productos de la tecnología Multi Jet Fusion no estarán disponibles hasta 2016, aunque ciertos clientes los probarán ya el año próximo.

Whitman dijo en marzo que las actuales impresoras 3D son lentas y hacen uso ineficiente de los materiales, antes de subrayar que los HP Labs han resuelto los dos problemas. Por lo visto durante las demos transmitidas ayer desde Nueva York, las futuras impresoras permitirán construir piezas a una velocidad diez veces superior a las técnicas convencionales de fabricación.

Al basarse en una tecnología de desarrollo propio, en la que el centro de la compañía en Sant Cugat ha tenido y tendrá un papel relevante, HP podrá disfrutar de ventajas de coste. Los cabezales pueden operar simultáneamente 10.000 inyectores a la vez, alcanzado una precisión de 5 micras. Esto, obviamente, supone una reducción de tiempo y de coste, que podría transformar los métodos de las industrias del plástico. Los analistas apuntan, sin embargo, que no sería apropiada para trabajar con otros materiales, en particular con aleaciones metálicas, un problema aún por resolver.

Evidentemente, HP ha optado por dar a esta iniciativa una orientación hacia los usos industriales, dejando para más adelante la decisión de penetrar o no en el mercado de consumo. Las ´impresoras` 3D industriales actuales tienen precios que oscilan entre 150.000 y medio millón de dólares, pero en la presentación sólo se dijo que las de HP estarán más cerca del umbral que del rango superior.

Consultado por mail, un consultor de Gartner, Pete Basiliere, me ha dado una lección que no he acabado de digerir: «ya sabrá usted que el mercado de impresión 3D no es nuevo, pero HP ha sabido esperar el momento de entrar en un punto de inflexión y, sobre todo, ha evitado el riesgo de abordarlo por abajo y centrarse en los aficionados al do-it-yourself, un segmento de ´commoditización` extrema, con precios que en muchos casos están por debajo de 500 dólares». Este no es, desde luego, el nicho al que se dirige HP, pero Basiliere no descarta que pueda hacerlo más adelante, si se decantara el número de competidores y una vez despeguen las técnicas plug and print: «no hay por qué desdeñar la importancia del movimiento makers, íntimamente asociado con el software open source»

Dion Weisler, que preside la división PPS y será responsable de montar la futura HP Inc., dijo durante la presentación que «estamos ante una gran oportunidad de participar en la emergencia de la próxima revolución industrial». Al margen del ambicioso propósito, el mercado de impresión 3D tiene aún proporciones modestas, pero los analistas de Morgan Stanley pronostican un ritmo de crecimiento del 34% anual hasta llegar en 2020 a los 20.000 millones de dólares. La mayor parte no será generada por el hardware sino por los servicios y los consumibles, una ecuación que HP conoce al dedillo. En todo caso, habrá que esperar al 2016, y entre medias tendrá que concretarse la laboriosa partición de HP.

Del odio al amor puede haber sólo una nube

30/10/2014

Desde que Satya Nadella tomó posesión como CEO de Microsoft, se ha acelerado una nueva apertura de la compañía hacia alianzas que antes eran impensables, porque representan un talante de colaboración entre empresas que rivalizan incluso en el mismo segmento de mercado. Para que así ocurra, hace falta que el interlocutor tenga una actitud equivalente, y esto ocurre con frecuencia en las circunstancias del mercado. Uno de los últimos acuerdos que ha firmado Microsoft tiene como contraparte a IBM, por el que ambas ofrecerán aplicaciones de la otra en sus respectivas nubes. La moraleja es explícita: ninguna quiere aislarse, y esto requiere dejar de lado viejos resentimientos. Leer más

29Oct

29/10/2014

Vaya por delante que no me gusta la palabra ´paradigma`, como no me gustan ´ecosistema` o ´disruptivo´ ni otros tropos usuales en la industria de las TI. Que no sea de mi gusto no impide reconocer que, si tuviera que indicar una tendencia ´paradigmática` sin duda escogería cloud computing. Me he detenido en una frase de un documento elaborado por analistas de Gartner; escribe David Mitchell Smith que «cloud computing es, por su propia naturaleza, vulnerable a los riesgos del mito […] desde la perspectiva del público, ´la nube` evoca algo mágico, cuyos detalles de implementación permanecen ocultos; no es extraño que abunden los malentendidos».

Las inversiones en la adopción del cloud empiezan a notarse, y Gartner, siempre atenta a estos fenómenos, cree necesario enumerar diez mitos en torno al auge del cloud, siendo el primero la afirmación de que siempre es fuente de ahorro. Es verdad que los precios descienden en la infraestructura como servicio, pero no todos los servicios cloud siguen necesariamente la corriente, y aunque los beneficios son a menudo visibles, no debería darse por cierto que el resultado sea un ahorro de costes. El segundo mito sería la creencia de que una empresa no es realmente moderna si no tiene planes de llevar sus operaciones a la nube, de lo que se desprende el tercer mito del decálogo de Gartner: la confianza en que las características actuales del fenómeno cloud serán definitivas y, por tanto, aplicables (o deseables) para cualquier necesidad que se planteen las empresas.

Hay más. Cuando se pregunta por la estrategia corporativa en la materia, se descubre que muchas empresas carecen de ella o, peor aún, se dejan llevar por el primer impulso transformador de su CEO (puede que presionado por el CFO, raramente por el CIO), que tal vez no sea más que una ocurrencia sin mucho fundamento. Eso – advierte Gartner – no es tener estrategia, porque debería empezarse por identificar qué objetivos del negocio no tienen mejor solución que buscarlos en la nube.

Si una estrategia cloud debe alinearse con los objetivos del negocio, hay que empezar por aceptar que el fenómeno tiene manifestaciones muy diversas y niveles diferentes; un error corriente – avisa la consultora – es adoptar la oferta de un proveedor como eje de la estrategia propia no definida.

Según Gartner, hay tendencia a pensar que la nube es menos segura que los entornos on-premise, sin haber hecho previamente un análisis de las capacidades de la empresa en materia de seguridad. La verdad es que se conocen pocas rupturas en los servicios cloud, y la mayoría de las que se conocen afectan a instalaciones on-premise. Séptimo mito: cloud computing no es adecuado para cargas de misión crítica: es falso, porque depende de la herencia recibida, difícil de remover y por tanto una fuente de justificaciones.

Punto y seguido. La mayoría de las adopciones de cloud no sustituyen un datacenter (ni sería aconsejable que lo hicieran) ni es razonable suponer que la misma estrategia es válida en ambos ámbitos: cada movimiento que se hace, tiene implicaciones. El noveno mito de la lista de Gartner supone que migrar a la nube incorpora automáticamente sus atributos: hay pasos intermedios que no producen los mismos resultados.

Por fin, el documento reflexiona acerca de la relación entre virtualización y cloud computing, para decir que la primera no es un camino obligatorio que conduce a la nube: no es necesario ni tampoco suficiente. Es un debate que viene a cuento de la (presuntamente sencilla) conversión de entornos virtualizados y automatizados, a veces erróneamente descritos como «nubes privadas». Ideas que dejan mucho poso para pensar.

¿Preparados para conectar de sol a sol?

29/10/2014

Las actuales proporciones de lo que llaman cóctel vital han acabado con el modelo laboral “de 9 a 6”. Tampoco hay coartada para la infidelidad: las excusas del tipo “hola cariño-volveré tarde-no me esperes despierto/a-tengo que finalizar un proyecto” han dejado de ser creíbles, porque el presunto trabajo urgente a esas horas también puede hacerse en el sofá del feliz hogar. Las vidas personales se entrelazan con las laborales, y la culpa de todo es la tecnología, claro que sí. Aporta ventajas, pero si su uso a todas horas no cuenta con el consentimiento de las empresas, puede provocar riesgos de seguridad. El estudio People-Inspired Security, patrocinado por Samsung, analiza el fenómeno. Leer más

28Oct

28/10/2014

Estimulante encuentro con Duncan Brown, analista que dirige en Londres la filial de la consultora Pierre Audoin Conseil. Tema: durante años, se ha preconizado la concentración de las empresas que atienden el mercado de ciberseguridad, pero en la práctica ha ocurrido lo opuesto: han proliferado las compañías nacidas para resolver nuevos problemas o aplicar nuevos conceptos a los problemas de siempre. La consolidación es inevitable, de todos modos, razona Duncan. «Si yo fuera CISO (chief information security officer) me gustaría tener un proveedor único, del mismo modo que mi empresa trabajara, es una hipótesis, con software de SAP o de Oracle, pero la seguridad no funciona así, y esto se debe en parte a la historia y en parte a su complejidad intrínseca». Pero la industria marcha hacia un marco de gestión unificada de la seguridad, las herramientas para llegar a ese extremo están en sazón, pero nadie está en condiciones de ofrecer la cesta completa.

¿Es realmente inevitable, Duncan? Sólo dos días antes de la conversación, Symantec decidía escindirse en dos compañías, una de ellas dedicada en exclusiva a la seguridad, volviendo a la situación de hace nueve años, «con una diferencia: en lugar de diversificarse, a Symantec le ha llegado la hora de ajustar el foco de su portfolio, por lo que esta rama probablemente hará una o más adquisiciones en los próximos 12 o 18 meses».

No será un caso excepcional, dice el analista. HP se ha convertido en una potencia en el mercado de seguridad, pero por eso mismo necesita tener una agenda para reforzar su oferta, y esto implicará adquisiciones. Cisco, en su estrategia expansiva, está haciendo lo mismo. IBM ha hecho no menos de tres adquisiciones en el segmento de seguridad durante los 12 últimos meses. En todos casos, la otra cara de la moneda son compañías pequeñas y con pocos clientes, pero interesantes desde la óptica de la propiedad intelectual. En este mismo plano, FireEye ha pasado a ser un actor estratégicamente importante desde que compró Mandiant. «En las transacciones que hemos conocido, destaco el hecho de que las compañías de seguridad se han valorizado, y por tanto quien quiera comprarlas ya sabe que pagará altos precios».

¿Qué problema tiene la fragmentación, Duncan? «Gestionar la seguridad con piezas dispares es una migraña permanente, y de ahí viene la tendencia a externalizarla como servicio. Pero a los CISOs no les gusta el outsourcing de sus funciones: defienden la visibilidad y control de aquello que está bajo su responsabilidad. En este momento, por mucho que se resistan, la dirección del viento lleva a la externalización, proyecto a proyecto. Esto favorece a los grandes de la industria TI, cada uno con su propia rama de seguridad».

Las alianzas forman parte del paisaje de esta industria. «En parte – apunta Brown – como respuesta a las demandas de los CISO, y en parte debido a las presiones de los gobiernos, cada vez más preocupados por lo que se les ha escapado de las manos». De allí viene, explica, la norma según la cual la compartición de la inteligencia sobre amenazas es un imperativo en esta industria: «aquel que encuentra una vulnerabilidad, la comparte con sus competidores, en lugar de extraer ventaja; otra cosa es que su marketing presuma de haber sido el primero, lo que carece de importancia real».

Otro problema, que me reservo para una crónica próxima, es el hecho de que los costes de los daños causados por fallos de seguridad son más altos y crecen más rápido que los presupuestos destinados a seguridad. El amigo Duncan tiene su punto de vista: «tradicionalmente, la seguridad se ha considerado una cuestión de infraestructura, y la gente que se ocupa de las aplicaciones no se habla con la de infraestructura, son equipos separados; este es un malentendido que se va superando lentamente, pero todavía no se ha encontrado el equilibrio necesario». Qué pena no haber tenido tiempo para más.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2025 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons