wp_head() ?>
Sí, España sigue en el vagón de cola en materia de eInclusión. En el puesto decimosexto. Por detrás incluso de países de la Unión Europea que muestran peores indicadores de desarrollo, como Letonia, Lituania, Eslovaquia o Estonia. Muy lejos detrás de Suecia y Dinamarca, que registran el mayor nivel de inclusión digital de la UE. Y esto en contradicción con el hecho de que el país registra altos niveles en otras variables que el uso de las TIC por el conjunto de la población. ¿Cuáles son los factores que están detrás de esta marginación? La pregunta la formula y la responde el informe eEspaña, elaborado por la Fundación Orange, en su edición correspondiente a 2013. Leer más
Mi difunta madre hubiera dicho que esto “pasa de castaño oscuro”, y yo por una vez estaría de acuerdo. Si nada ni nadie lo remedia, la intimidad en Internet estará condenada. Google ha comunicado a sus no sé cuántos millones de usuarios, que el 11 de noviembre modificará por defecto las condiciones de sus servicios, empezando por Google+ y Google Play, pero ha tenido el gesto de avisar que si las nuevas condiciones fueran aceptadas (o sea, no rechazadas explícitamente por los individuos afectados), se reserva el derecho de poner en venta los perfiles de los usuarios, incluida su foto, si fuera el caso, así como las preferencias y comentarios expresados por ellos acerca de las marcas y productos de los anunciantes. El nombre que Google ha dado a esta práctica es ingenioso: “recomendaciones compartidas”.
No ha precisado si otros servicios, como YouTube o el propio buscador, serán o no incluidos en la nueva política, pero se puede suponer que una vez cruzado el primer umbral, por qué no traspasar los siguientes. Tampoco ha dicho Google cuándo iniciará la comercialización de ese caudal de información personal, tal vez porque prefiere esperar a ver cómo se lo toman los usuarios y hasta qué punto son permisivas las autoridades, en Estados Unidos y en Europa.
Para esto se ha acuñado la expresión “publicidad social”, y los analistas estiman que el mercado potencial valdría unos 9.500 millones de dólares. No es un exceso de imaginación deducir que lo que pretende Google es evitar que Facebook se apodere de la tajada más gorda del negocio. Como si se hubieran puesto de acuerdo – algo que no puedo ni quiero sospechar – Facebook ha dado un paso similar, anulando la posibilidad que hasta ahora tienen sus usuarios de bloquear el acceso a sus perfiles personales más allá de sus ´amigos´ en la red social. Como poco, habría que decir que Facebook deberá elaborar un nuevo argumento para justificar su política de privacidad. Ya ha tenido que pagar sumas millonarias para apagar casos llevados ante los tribunales.
Por su parte, Instagram, ahora propiedad de Facebook, ha anunciado que se propone “poner en valor” las fotografías que, con ingenuidad o imprudencia, suben los muchos usuarios de este servicio para narcisistas. Para no ser menos, Twitter – acuciada por la necesidad de mostrar su capacidad de monetizar la masa de usuarios, anticipa que también ajustará, sólo un poquito, sus reglas relativas a la privacidad.
Google+ es el intento de montar una red social capaz de competir con la de Facebook, pero la diferencia merece aquilatarse en sus justos términos: tiene 190 millones de usuarios (más 400 millones indirectos a través de otros sitios de Google) que, comparados con los casi 1.200 millones de Facebook parecen pocos, pero la capilaridad de Google es muy superior. Para corregir esta debilidad relativa, Facebook ha inventado Graph Search, que viene a ser una herramienta para trazar un mapa de las interconexiones de sus usuarios. ¿Para qué? Para convertirlas en un medio de vender publicidad.
Vayamos a lo conceptual: antes de caer en la hipnosis colectiva, cuando se teorizaba sobre las virtudes de Internet, habíamos convenido en que sus dos atributos principales eran la desintermediación y la desmaterialización. Luego, Google añadiría un tercero, la personalización. Ahora vemos en qué han ido a parar, pero reconozco que el asunto merece un tratamiento más extenso y un análisis para el que no me siento capaz esta noche, escribiendo en una habitación del hotel Grand Marina, de Barcelona [vaya, he vuelto a picar: esta información trivial podría tener valor monetario para Google]. Dejémoslo así.
La noticia del cierre por el FBI de un sitio web llamado Silk Road, seguido de la detención de su responsable, un tal Ross Ulbricht, ha oscilado entre las páginas de sucesos y las de tecnología. La parte más llamativa de la operación es comprobar cómo la información clasificada y las tecnologías que prometen privacidad, pueden convivir con actividades ilegales como el tráfico de drogas. La empresa de seguridad TrendMicro ha publicado un informe sobre la llamada deepweb, en el que discute el papel jugado por el navegador TOR. Desde junio, tras las filtraciones del caso Snowden, se ha disparado el tráfico de TOR, herramienta cuya principal virtud es el anonimato que ofrece a sus usuarios. Leer más
Es un detalle curioso: cuando se dice que Mariano Rajoy rehúye a la prensa y habla a través de una pantalla de plasma, la verdad es que se ha dejado ver (poco) en un televisor con pantalla de cristal líquido. Es que en el habla corriente, la tecnología de plasma (PDP) se identifica como nombre de la categoría, a pesar de que la de LCD absorbe el 87% del mercado mundial. Este comentario viene a cuento de la decisión de Panasonic de echar el cierre en marzo del año próximo a su fábrica de Amagasaki, la última que produce televisores de plasma. Es una decisión dolorosa, porque a mediados de la década pasada la compañía hizo cuantiosas inversiones para que esa factoría se pusiera a tono con los costes de la competencia coreana.
El problema de fondo era otro, y ha terminado estallando en las manos de Kazuhiro Tsuga, presidente de Panasonic desde hace 15 meses, quien ha hecho aprobar por el consejo una dotación de 120.000 millones de yenes (900 millones de euros) para suprimir una tercera parte de las líneas de negocio: el 30% de esa cuantía se empleará en abandonar la tecnología de plasma. Tsuga ha proclamado que sólo sobrevivirán las divisiones que dentro de tres años cumplan con el objetivo del 5% de margen operativo; el resto cerrarán o serán vendidas, si hubiera un comprador.
Parece que la política económica de Shinzo Abe ha llegado tarde para salvar a las marcas japonesas de televisión, agobiadas durante años por la dificultad de competir en la exportación por culpa de un yen demasiado caro. Resultado: la suma de las ventas de Sony, Panasonic y Sharp representa hoy menos del 20% del mercado mundial de TV planos, mientras Samsung se lleva una cuota del 27,7% y LG otro 15%. La división de TV de Panasonic ha perdido 800 millones de euros en los dos últimos años, pero la marca seguirá en el mercado con sus televisores LCD/LED de la familia Viera, que acaba de reforzarse con el lanzamiento de los nuevos modelos de ´ultra` definición 4K.
Hay un consenso muy extendido, según el cual el plasma tiene cualidades superiores al cristal líquido: los exigentes críticos de CNET han recibido la noticia con un lamento: «el modelo ZT60 tiene la mejor imagen de cualquier televisor que hayamos analizado, y el asequible S60 es uno de los dos que este año han merecido una valoración 10».
Es un drama para Panasonic, un problema para la industria japonesa y, en última instancia, una incógnita sobre el futuro del televisor. Kun Soo Lee, analista de IHS iSuppli, comenta que los despachos globales han caído por primera vez en 2012, un 6,3% en unidades, manifestación de que el mercado – una vez cerrada del todo la era del tubo catódico – ha entrado en la de saturación de la oferta de televisores planos. El intento de añadir interactividad e ´inteligencia´ está encontrando barreras inesperadas: muchos consumidores usan otras pantallas – ordenadores y tabletas – para ver contenidos bajo demanda, y la parte más joven de ese público deserta de la televisión. Apple y Google son los nuevos enemigos.
Samsung ha querido demostrar que domina el arte de crear una necesidad. La firma coreana tenía prisa por presentar su reloj ´inteligente` cuando antes, para que no se diga que es la segunda en llegar. El Galaxy Gear, desvelado en setiembre en la feria IFA, ha dejado impresiones contradictorias entre los asistentes al ruidoso espectáculo que la firma coreana montó en el Tempodrom berlinés , y al sobrio desfile de modelos con el que lo presentó en Madrid. Por un lado, la confirmación de que está naciendo una nueva categoría de gadgets; por otro, una casi unanimidad en que es un producto inmaduro, una suerte de prototipo que va a requerir cuanto antes una segunda versión. Leer más
La semana pasada, se difundió una noticia falsa. Una entre muchas, dirán algunos, pero esta ha tenido consecuencias que me animan a comentarla. BusinessWire, un sitio web que vive de publicar notas de prensa, reprodujo una según la cual Samsung había cerrado en firme un acuerdo para comprar la empresa sueca Fingerprint Card (FPC), especializada en tecnologías biométricas aplicadas a dispositivos móviles. Era falso, y ambas partes desmintieron la noticia cuando se enteraron. Entretanto, había circulado, y las acciones de FPC subieron casi un 50% en la bolsa de Estocolmo, antes de que se suspendiera su cotización. La sospecha es obvia: quien lanzó el bulo tenía como objetivo beneficiarse del efecto que la supuesta oferta de 650 millones de dólares tendría sobre el precio de la acción. La agencia de PR explica que fallaron sus filtros y no contrastó la veracidad de una llamada, supuestamente de su cliente FPC. ¿Por qué fallaron? Por la ansiedad de llegar antes que Twitter.
No es la primera vez que ocurre, ni será la última. El año pasado circuló otra noticia falsa, que atribuía a Google la intención de pagar 400 millones de dólares por una empresa de servicios wifi. También entonces, el vehículo del fraude fue una agencia de PR, engañada por una fuente con intereses. Aunque se trata de algo muy distinto, no está el recuerdo de la salida a bolsa de Facebook, en la que los bancos implicados manipularon órdenes de compra inexistentes para forzar un ascenso artificial en su primera sesión en el Nasdaq.
En el caso de FPC, la noticia tenía visos de realidad: es lógico que Samsung tenga interés en adquirir tecnologías biométricas – reconocimiento de huella digital, en este caso – para hacer frente a la novedad que Apple ha introducido en su iPhone 5S. Bien pensado, pero falso.
En mi opinión, lo relevante reside en la inmediatez con la que fluye este tipo de informaciones: puede dar lugar a engaños si no existen mecanismos profesionales de verificación. Perdonen que vuelva con mi batallita de viejo periodista, pero es lo que echa en falta: verificación. No hace muchos años, ningún medio de prensa respetable hubiera publicado una noticia semejante sin contraste. Ahora alcanza con colarla a un medio no tan respetable o, mejor aún, lanzarla en Twitter. Ni siquiera hay que tener intención fraudulenta: a alguien le dan un soplo, creíble o increíble, e instantáneamente lo publica en Twitter. Luego, si ese individuo es honrado, pedirá disculpas tardías.
No menciono a Twitter porque sí. Por esta red social no sólo circulan tuits espontáneos escritos entre dos estaciones de metro, opiniones más o menos peregrinas, y muchas chorradas de y sobre celebrities. Hay quienes sostienen que esa papilla de ingesta rápida será el formato de la información que consumiremos en el futuro. Quizá, pero está probada la capacidad que tiene un hashtag para mover los mercados bursátiles [en abril, un tuit multiplicado hizo que el índice Dow Jones perdiera 145 puntos en pocos minutos].
Ahora, Twitter está inmersa en su salida a bolsa, y los analistas miran estos asuntos con más cuidado: la cantidad de tráfico es un indicador, pero la calidad podría desalentar a muchos anunciantes, y el futuro de la compañía depende de la publicidad. El Financial Times comentaba este sábado un estudio académico que analiza el llamado «sentimiento» en las redes sociales y su influencia sobre el precio de las acciones. Según el artículo, hay varias compañías que hacen data mining sobre el contenido de Twitter y luego venden sus tablas a fondos de inversión y brokers de bolsa. Social Media Analytics, una de ellas, analiza el «sentimiento» que se expresa en Twitter acerca de 8.000 ítems y luego envía sus resúmenes a miles de profesionales. «Cada bit es una fuente potencial de ingresos», dice el fundador de esta empresa de Chicago.
Esta semana, VMware traerá a Barcelona, por segundo año consecutivo, la versión europea de VMworld, su evento para clientes y partners. No se esperan nuevos anuncios de relieve, pero sí la confirmación de los muchos que se hicieron en San Francisco a finales de agosto, y que estarán disponibles en los próximos meses. Pat Gelsinger, CEO de VMware, suele decir que «esta es la última compañía de la era cliente-servidor», llamada a ser protagonista relevante en la construcción de la arquitectura del datacenter de una nueva era. Lo viene pregonando desde hace más de un año – ocupa su puesto desde setiembre de 2012 – pero por el camino se le ha echado encima la hora en que tiene que pasar de predicar a dar trigo. Leer más
Pivotal es un adjetivo que últimamente se usa mucho en el sector de las TI. Según mi diccionario, se traduce como «cardinal, fundamental o céntrico». Pues bien, pivotal es el adjetivo que usó el miércoles Meg Whitman para decir que el año fiscal que acaba este mes de octubre, ha sido para HP de estabilización, lo que se traducirá en un descenso estimado del 3,1% en los ingresos, que ya es mejorar tras la caída precedente del 7,7%. Eso sí, el que empezará en noviembre traerá de vuelta el crecimiento. ¿Hay que entenderlo como una buena o como una mala noticia? La reacción positiva de la bolsa, en la que las acciones de HP subieron un 9% al término del Analyst Day, indica que los inversores han entendido el mensaje como esperanzador. Le disculpan, pues, por la rectificación a la que se ha sometido: el año pasado por estas fechas prometió que en el ejercicio actual, no en el próximo, los ingresos volverían a crecer. Pero en agosto advirtió, justo a tiempo, que probablemente no sería así.
Lo que está claro es que Whitman goza de la simpatía – o la paciencia, vaya uno a saber – de los accionistas. Porque ella es la única posibilidad de consumar el cambio de rumbo tras el aventurero Mark Hurd y el desastroso Leo Apotekher. Ha recortado drásticamente los costes – sugirió que la supresión de puestos de trabajo podría llegar a los 33.000, de los que ya ha eliminado 22.700 – y que espera conseguir un free cash flow de 6.000 a 6.500 millones de dólares, lo suficiente para premiar a los accionistas con un dividendo y, quizá, para cerrar el ejercicio con beneficios pese al descenso de los ingresos.
Meg Whitman sabe cómo tratar a los analistas. Dió la cara por su programa de reforma de la compañía, y prometió mantenerse firme en los objetivos quinquenales: «hace un año, nuestras unidades de negocio carecían de una estrategia clara e integrada; nuestra innovación no llegaba al mercado. Ahora, por fin, me siento confortada por lo que estamos haciendo». Por el camino, se ha desembarazado de varios pesos pesados de la compañía, el último Dave Donatelli, y ha promovido a Bill Veghte a la condición de mano derecha.
En el litúrgico repaso anual a las líneas de negocio, Whitman subrayó que los servicios son su principal motivo de preocupación, y es fácil entender lo que quiso decir: que se trata de una carga heredada. Por el contrario, ve el software como un área fundamental. Entre medias, insistió en que la solución integrada que ha bautizado como HAVEn (Hadoop, Autonomy, Vertica, Enterprise Security and nApps) ya está disponible, y que confía en ella para reforzar esa «bolsa de crecimiento» que atisba para el próximo ejercicio.
El mensaje de la convergencia lo dejó a cargo de Veghte, que sonó convincente: el Enterprise Group es… en fin, pivotal: «HP tiene todos los elementos para hacer valer su ventaja competitiva». Algún analista ha comentado que esta división se parece mucho a IBM por su visión, aunque no por su tamaño: 1.900 empresas trabajan con HP en proyectos cloud, y entre ellas está el 37% de las 500 del ranking de Fortune.
Muchos se preguntaban qué diría Whitman acerca de sus proyectos para la división de sistemas personales. Una de las cosas específicas que dijo es que Microsoft, un socio histórico de HP, se ha convertido en competidor. Esta semana, precisamente, HP anunció un notebook low cost con sistema operativo Android, después de haber presentado en Barcelona días atrás una batería de tabletas que subrayan su acercamiento a Google. También había alguna Windows 8, faltaría más.
¿Cloud? ¿Qué cloud? Microsoft acelera para acortar la distancia que separa Azure de Amazon Web Services, líder indiscutido del mercado cloud en su acepción de infraestructura como servicio. A su vez, AWS da pasos evidentes – que probablemente mostrará en su conferencia de noviembre – para superar los recelos de muchas empresas que no están muy convencidas de que su oferta sea apropiada para alojar aplicaciones críticas. A su vez, Microsoft, que no tiene ese problema de identidad, reconoce que AWS ha llegado primero, y ambas colaboran en algunos terrenos, pero están destinadas a competir con dureza. De este tono fue el discurso de Satya Nadella, VP Ejecutivo de Cloud & Enterprise de Microsoft, en una rueda de prensa en San Francisco [a la que asistió Mario Kotler, colaborador de este blog].
Como gusta a Microsoft, la presentación fue descrita como «una oleada» de novedades en torno a Azure, una táctica de marketing muy diferente de la que aplica AWS (un servicio cada vez, y actualizaciones casi mensuales). Azure es el número dos, insistió Nadella, pero su baza es que ofrece a los usuarios de su nube el software que conocen, y ejecutarlo bajo Azure en los servidores (o en los de sus partners) en una trama de datacenter alrededor del mundo. En teoría, esto simplifica la transferencia de cargas de trabajo y permite el despliegue de nubes híbridas.
Que el número dos reconozca la existencia del número uno puede parecer fair play, pero Nadella mezcló deliberadamente los planos: su táctica responde a la necesidad de combinar la conveniencia de acelerar su propuesta cloud con la necesidad de reconvertir el modelo de negocio convencional. La fortaleza de Microsoft, vino a decir, consiste en que las empresas quieren en la nube el equivalente a un régimen de licencias y los niveles de calidad a los que están acostumbrados on-premise, una manera casi directa de recordar que AWS ha tenido numerosos fallos en su servicio.
Es cierto que si el genérico cloud se reduce a la noción de IaaS, no hay competidor que se acerque a la oferta de los dos líderes, pero no es muy elegante ignorar que hay en el mercado otros actores importantes como OpenStack. Y si ningunear a Google puede entenderse en un directivo de Microsoft, el pelotón de competidores está nutrido por nombres como HP e IBM, Oracle, Salesforce, OpenStack y otros que apuestan – como Microsoft, por cierto – la carta de las nubes híbridas. Sin olvidar a VMware, que también corre para competiir con su propia estrategia cloud, que la semana que viene presentará en Barcelona a sus clientes y partners europeos.
Para no extenderme sobre la discutible dicotomía expuesta por Nadella, valdría la pena investigar una tendencia que creo observar: al calor del auge del cloud computing, han surgido iniciativas que intentan crecer a la sombra de los grandes. Joyent, es un modelo que trata de desarrollarse como marca blanca, pero también lo es (o era) Nirvanix, que más modestas, que apuestan por venderse como marcas blancas: Joyent es un buen ejemplo, pero también lo era Nirvanix, que ha optado por declararse en quiebra ante las dificultades de un mercado que, inevitablemente, se concentra.