22Ene

22/01/2015

He visto una imagen que vale realmente mil palabras. La primera página del Financial Times, con un retrato trucado de Mario Draghi y Angela Merkel, es un magnífico resumen gráfico de las tensiones que rodean la voluntad del Banco Central Europeo de lanzar su programa de compra de bonos, con el que Mario Draghi lleva meses amagando y que al parecer anunciará hoy. Una expectativa que ha disparado la demanda de los inversores por títulos de los países periféricos (con la excepción de Grecia, claro), empujando a la baja los rendimientos: el 4% que España tenía que aceptar hace un año para colocar sus bonos, ha caído esta semana al 1,66%. Pero lo que subraya la imagen del diario asalmonado es la inconmovible reticencia alemana.

Es inevitable volver a preguntarse por el estado de la economía europea. Las compras de activos por parte del BCE – se habla de unos 50.000 millones de euros en dos años, mucho menos que el quantitative easing de la Fed – reducirá los tipos de interés de los bonos denominados en euros, mecanismo que consolidará la depreciación de la moneda única frente al dólar. Se supone que estimulará las exportaciones, pero cabe alguna observación: 1) el comercio exterior de la eurozona es altamente endógeno, lo que neutraliza en buena medida ese efecto, 2) la UE produce un menor volumen de mercancías exportables y ha perdido la batalla de los servicios y 3) la experiencia japonesa demostraría que la devaluación premeditada del yen no ha estimulado las exportaciones tanto como se esperaba.

Está en juego la credibilidad del BCE, que no puede seguir enredando con la promesa de «hacer todo lo que sea necesario» (Draghi). La idea misma de los estímulos monetarios sólo es discutida por los prescriptores de aceite de ricino. Incluso los zelotes de la austeridad han redecorado su discurso: las medidas monetarias – dicen ahora – serán sólo un parche que podría atenuar la ´voluntad reformista` de los gobiernos. Axel Weber, que presidió el Bundesbank hasta 2011, dramatizaba ayer desde Davos, advirtiendo que si afloja el rigor, la liquidez que genere el BCE derrumbará el euro, un espantajo que se ha agitado durante años.

Lean a Martin Wolf: «[…] la eurozona está hundida, víctima del síndrome de deficiencia crónica de la demanda, y es la región más débil del mundo en este momento». Apunta Wolf que la demanda nominal fue apenas un 2% superior en el segundo trimestre de 2014 que en el primero de 2008, mientras que la demanda real fue un 5% más baja.

Si no he entendido mal, el banco central suizo ha disuelto el alineamiento del franco con el euro por temor a quedar atrapado en la maniobra de Draghi, y en esto los suizos actúan como si fueran alemanes. Se debate sobre el riesgo de deflación: los precios evolucionan en la eurozona a una media del 0,7%, muy por debajo del objetivo marcado por el BCE, cercano al 2%. A todo esto, ha empezado el World Economic Forum.

La única vez que estuve en Davos como enviado, hace años, el centro de la discusión era el encarecimiento del petróleo y sus consecuencias; hoy se vive una situación inversa, y a menos que uno piense sólo en su condición de automovilista, es discutible que el abaratamiento sea positivo para la economía mundial [homogéneamente positivo, quiero decir].

El habitual informe que PwC elabora para los organizadores del foro revela que sólo el 37% de los CEO encuestados confía en una mejora durante 2015 (en España es el 39%), siete puntos menos que el año pasado por estas fechas (once menos en España). En el foro alpino se discutirá de esto, sin ninguna duda, pero el tema estrella será otro clásico, la lista de riesgos, en la que gana puntos la ciberINseguridad. Por una vez, una imagen vale por 1.400 palabras.

El año que viviremos peligrosamente

22/01/2015

Sólo un dispositivo no conectado a la red o a otros dispositivos – es decir, no promiscuo – puede considerarse a salvo de infección. No es el caso, porque carecería de interés. En estas fechas propicias para los buenos propósitos y las predicciones, los especialistas en ciberseguridad presentan las suyas para 2015: de entrada hay que decir que son una pesadilla. Desde el malware que intentará colarse de mil maneras, hasta el ascenso del ransonware, pasando por la probabilidad de ciberguerra y el miedo a hackers patrocinados. Los chicos malos van por delante de los chicos buenos… y nadie se libra de su amenaza, ni siquiera los más ufanos como Apple o el mismísimo Pentágono. Leer más

21Ene

21/01/2015

El experimento ha terminado. Desde el martes, ya no es posible comprar unas Google Glass, un concepto fallido que vuelve al laboratorio para renacer (tal vez) como un producto distinto. Lanzadas por Google en abril de 2012, fueron proclamadas ´mejor innovación del año` por la revista Time y ´chorrada de la década` por el semanario satirico The Onion. Pero si el plan era abrirles un hueco en el mercado, no lo ha conseguido, al menos como producto de consumo.

Pero, al menos, el invento ha avivado la imaginación de unos cuantos desarrolladores, que ahora se sienten abandonados. Al primer post anunciando la retirada, siguió otro comunicado de Google puntualizando que nunca pretendió otra cosa que explorar cómo se usaría esta tecnología en la vida real; una vez recogido el feedback, el programa se cancela… por ahora. Es una excusa muy en el estilo de una compañía que nunca confiesa un fracaso, pese a tenerlos como cualquiera que intenta hacer algo nuevo.

¿Por qué han fracasado las Google Glass? Humildemente, me parece que nadie se atrevió a contradecir al cofundador de la compañía, Sergey Brin – menos dotado para los negocios que su socio Larry Page, se arrogó el rol de visionario en jefe – primer impulsor del invento. Por supuesto, Google puede permitirse tener un cofundador enredando con ideas exóticas, lo que no puede es transformar en oro todo lo que toca.

El segundo error ha consistido en no calibrar los «casos de uso» del nuevo producto. En lugar de preguntarse si respondía a alguna necesidad, se creyó que bastaría con que algunas celebrities se dejaron ver con las Google Glass para que se popularizaran, y así ocurrió, sólo que entre unos pocos audaces con el desparpajo que hace falta para lucirlas en público y aguantar pullas y protestas. Una caricatura de cómo debería pensarse el lanzamiento de un producto de consumo.

En Google hay muchos tipos geniales, y muchos «apasionados por la tecnología», combinación que ha producido futuribles destinados a no llegar nunca al mercado. Entre tanto capricho, alguno dará en el clavo, eso es todo. En la misma conferencia de 2012 en la que Brin presentó las Google Glass, también se mostró Nexus Q, una bola negra definida como «primer reproductor multimedia social»: un mes y medio después se postergó su comercialización, y nunca más se habló del invento. Ha pasado otras veces, y volverá a pasar. ¿Se puede confiar en el éxito del Proyecto Ara, de móviles modulares supuestamente para consumidores en los países emergentes?

Uno de los rasgos más llamativos de Google es su incongruente relación con el hardware, que en su modelo de negocio es la esfera de los partners. Quizá sea este su pecado original: el muy lucrativo negocio publicitario se ha construído observando comportamientos online, e ignorando que en la vida real tienen (todavía) más relevancia los artefactos. Curiosamente, el desarrollo de unas futuras Google Glass – presuntamente destinadas a aplicaciones profesionales, no al consumidor – pasa bajo responsabilidad de Tony Fadell, quien llegó a Google como inventor del termostato Nest pero antes había estado en Apple como miembro del equipo que diseñó el iPod.

A propósito: es notable la diferencia con Apple – que también tuvo fracasos sonados – donde todas las ideas debían pasar por la prueba suprema de convencer a Steve Jobs. Cuando se aduce que la desaparición de este ha detenido el impulso de innovación de la compañía, lo que se quiere decir es que ese mecanismo no ha sido bien reemplazado por el colectivo de acólitos huérfanos del genio. Desde su muerte, el único producto realmente nuevo será el Apple Watch… y aún le falta salir al mercado.

Estos días he leído que Phil Schiller, uno de los conspicuos colaboradores de Jobs, ha dicho que la muerte de las Google Glass era previsible: «nunca he podido entender cómo gente inteligente pudo pensar que esa cosa interesaría a la gente normal».

Microsoft abre el melón de Windows 10

21/01/2015

No será en San Francisco ni en Nueva York, sino en el campus de Redmond. Con menos ceremonia, pero igual repercusión. El anuncio de hoy debería ser otro hito en la historia de la compañía, porque de Windows 10 se espera mucho: corregir el desaguisado de Windows 8, mal arreglado por 8.1 [ni chicha ni limoná]. El reto que tiene por delante el nuevo sistema operativo es reconquistar a dos tipos de usuarios: las empresas, congénitamente conservadoras, y los consumidores, seducidos por su experiencia de movilidad. La presentación de octubre buscaba tranquilizar a las primeras, y la de hoy pondrá el acento en los segundos. Ambos públicos deberían sentirse igualmente cómodos; es un riesgo. Leer más

20Ene

20/01/2015

A propósito de la última crónica sobre BlackBerry, me han preguntado por qué no he mencionado la noticia de una oferta de compra que habría recibido de Samsung. La respuesta tiene dos partes: 1) porque esa crónica se publicó 24 horas antes que el despacho de Reuters sobre el asunto y 2) porque «los rumores no son noticia» y tengo sobre ellos un reflejo de escepticismo [anacrónico en la era de Twitter, lo sé]. Ambas empresas lo han desmentido, así que me atengo a los hechos. Pero no quiere decir que carezca de opinión propia

En primer lugar, ¿está BlackBerry en venta? No es la primera vez que se especula con ello, antes y después de la llegada de John Chen. Cuando este fue nombrado CEO, supuse que su misión sería rescatarla del hoyo en que se encontraba, limpiarla y revigorizarla para, en el momento oportuno, negociar su venta. Los financieros que lo pusieron en el cargo no tienen otra vocación que recuperar la inversión con plusvalía.

El comunicado emitido por BlackBerry sólo dice que no está negociando con Samsung, y esta también lo niega, así que es obligado creerles. Pero no sería fácil para Chen encontrar otro comprador más idóneo interesado en adquirir la totalidad de la empresa. De entrada, hay que excluir a cualquier candidato chino, porque los gobiernos occidentales que son el núcleo de la clientela de BlackBerry lo vetarían sin contemplaciones. Apple es, aparte de BlackBerry, la única marca norteamericana que queda en su mercado, pero un candidato muy improbable. Los fabricantes europeos se han extinguido y los japoneses se han replegado.

Lo anterior deja como únicos candidatos viables a Samsung y LG, que a priori, no merecen objeciones geopolíticas. De modo que el rumor tiene un buen fundamento. Lo que lleva a preguntarse qué tiene BlackBerry que pueda interesar a un eventual comprador, sea quien sea.

Primero: una clientela fiel y de calidad, formada por gobiernos y grandes corporaciones, y que abarca 90 millones de usuarios finales de su servicio de mensajería. Un botín apetecible, a pesar de que los ingresos por software y servicios han caído una tercera parte desde 2012.

Una nueva plataforma, BES12, fue lanzada en noviembre, arropada por varios acuerdos que podrían ampliar el alcance de su mercado más allá de los leales a la marca.

Un sistema operativo, QNX, que al margen de los smartphones está presente en dispositivos médicos y en la industria automovilística y, según Chen le abrirá las puertas de Intenet de las cosas (IoT).

Unas 40.000 patentes que tienen valor por sí mismas [según Wells Fargo, una cuarta parte del precio actual de la acción].

En la fase más crítica para BlackBerry, algún inversor propuso despiezarla para maximizar el precio de venta. Esta no es la estrategia de Chen ni de los accionistas de control. Un año es lo menos que necesitan para elevar el valor hasta un nivel que justifique pagar por la empresa íntegra un precio superior a los 7.500 millones de dólares de la presunta (y desmentida) oferta de Samsung.

Ahora bien, ¿sería Samsung el mejor comprador? Todo indica que sí. No por el hardware – cuyas ventas han caído un 75% desde 2012 – sino porque la compañía coreana tiene urgencia por asentarse en el mercado corporativo: su plataforma Knox todavía no ha conseguido los resultados esperados (por lo que ha optado por un pacto para que sus dispositivos Galaxy se integren en BES12, además de correr sobre Knox). Y ya tiene una amenaza explícita, el acuerdo entre Apple e IBM. Sin descuidar el hecho de que apoderarse de BE12 evitaría que cayera en manos de un competidor que pudiera hacerle daño. Por otro lado, QNX sería una pieza interesante para Samsung  en dos sentidos: para atenuar su dependencia con respecto a Android, y podría ser un punto de apoyo para entrar en eso que llaman IoT, en el que casi todo está por hacer.

En resumen, creo que BlackBerry se venderá entera, sin desguaces especulativos, aunque no ahora ni al precio que mencionan los rumores de los últimos días. También creo que Samsung se perfila como el mejor, si no el único, candidato posible. Puedo equivocarme, no se tome como un pronóstico, es sólo un razonamiento.

19Ene

19/01/2015

Hoy toca escribir sobre Intel, que el jueves a última hora presentó sus resultados. Record, proclama la diligente nota de prensa. Bien, ahora veamos los matices, que de ellos está hecho el cuadro.

Hace ahora un año, un objetivo de Intel era estabilizar las consecuencias del declive en las ventas de PC; esperaba que los ingresos bajaran algunos puntos y el beneficio operativo fuera plano en el mejor de los casos, y renovaba su confianza en Windows 8. Cómo no alegrarse ahora, cuando sus directivos pueden decir que, al final del ejercicio, los ingresos del PC Client Group crecieron un 4% y el beneficio operativo un 25%. Sólo que ahora depositan su confianza en Windows 10.

Hace ahora un año, Intel aspiraba a capitalizar el auge esperado de cloud y big data asentando su dominio de sus chips en el mercado de servidores, fijándose como objetivo de su Data Center Group que el incremento del beneficio operativo fuera algo inferior al 5% y aproximadamente igual en los ingresos. No sólo cumplió el objetivo, sino que se excedió en ambos parámetros: 18% y 31% respectivamente.

Hace un año, Brian Krzanich, CEO de la compañía, confiaba en que podría enderezar las cuentas del Mobile and Communications Group, pero en esto ha fallado: las pérdidas de 2014 han sido superiores a las de 2013. Para ser justos, hay que añadir que los ingresos fueron peores, pero ganó cuota de mercado: había prometido 40 millones de chips para tabletas y vendió 46 millones. Bueno, no hay tanto misterio: una parte de las pérdidas se deben a que subvenciona a ciertos fabricantes para que utilicen sus chips en lugar de los de arquitectura ARM.

Hace un año, Internet de las cosas era un segmento nuevo para Intel, y al cierre de 2014 los ingresos de esa rama pequeña ascendían a 2.000 millones de dólares. Confesó Renée James, número dos de la compañía, en un encuentro de prensa en Las Vegas, que es un negocio en el que quiere estar desde el principio, evitando el grave error cometido cuando se dejó pasar la ola de los móviles.

¿Qué se espera de 2015 en cada uno de estos tres campos? El mercado de PC se ha estabilizado, si por tal se entiende un declive de ´sólo` el 2,4% en los despachos contabilizados por IDC. En la presentación de resultados, Krzanich comentó que el mercado se revigoriza, pero se curó en salud añadiendo que Intel puede crecer aunque las ventas de PC no crezcan (que es lo ocurrido en el cuarto trimestre). En el mercado de servidores, el dominio de Intel se ha afianzado: pese a sus esfuerzos, AMD no consigue llegar siquiera al 10%, mientras la amenaza latente de ARM sigue siendo… pues eso, latente.

Estas dos divisiones concentran bastante más de la mitad del negocio de Intel, ese es precisamente el problema. Para 2015, Krzanich ha cambiado el tono de su compromiso con los accionistas: «mejorar la rentabilidad» de la división de móviles, que puede traducirse como «reducción sensible» de las pérdidas. Muchas esperanzas ha puesto el CEO en los dos acuerdos firmados con dos compañías chinas, Rockchip y Spreadtrum, para que estas implementen una versión de baja gama de SoFIA (un chip que integra procesador de aplicaciones y banda base en el mismo silicio) con el que confía en matar dos pájaros de un tiro: atrapar el mercado chino y detener el crecimiento de Qualcomm.

Los planes de Intel en Internet de las cosas han dado mucho que hablar en la reciente feria CES de Las Vegas y bien que merecen una crónica propia. No dejaré para otro día una breve nota acerca de las inversiones de capital de Intel, asunto tanto o más revelador que otros: en 2014 sumaron 10.562 millones de dólares (en proporción del 18,8% con los ingresos totales) y en 2015 no deberían crecer, según el CFO Stacy Smith. La explicación de Smith a quienes suponían que aumentarían, es que el precio medio de los equipos está bajando, y los rendimientos que obtienen las fábricas de la compañía suben. Como colofón, diré que 12 de 14 analistas que siguen de cerca la marcha de Intel opinan que 2015 será un año mejor que 2014. Aunque, claro, con matices.

Oracle coge altura en el marketing digital

19/01/2015

Las compras más recientes de Oracle no son grandiosas ni tan caras como las anteriores, pero no son menos relevantes para su ambición.  La última – por ahora – es DataLogix, que aporta una preciosa clientela en el negocio de consumer analytics. No se ha revelado el precio, pero sí que entre sus clientes están 82 de los 100 mayores anunciantes de Estados Unidos, además de una que tiene gran predicamento a la hora de la verdad: Facebook. A todas, DataLogix les sirve datos sobre 110 millones de hogares cuyo gasto agregado en consumo se estima en 2.000 millones de dólares. Con ella, Oracle se asegura una cuota de mercado en plataformas de gestión de datos B2B, en competencia directa con Adobe. Leer más

16Ene

16/01/2015

IBM se retiró de los PC en 2005, y de los servidores x86 este año, en ambos casos vendiendo el negocio a Lenovo. Pero no se le pasa por la cabeza retirarse del mainframe, aunque sólo aporta – directamente – el 3% de sus ingresos. De los comentarios que he leído acerca del anuncio del nuevo z13, me ha gustado mucho esta frase de Dave Vellante: «muchos en la industria han querido siempre construir un mainframe, pero IBM siempre ha tenido uno». En realidad, es el primero que presenta en los últimos tres años, y la importancia del z13 en la estrategia de IBM reside en que la actualización de la serie desmiente una noción muy extendida, la de quienes dicen que el hardware ha perdido importancia en la evolución de las TI. O a los simplistas que proponen, son más, «dejárselo a los chinos».

¿Ha perdido importancia el mainframe en los ingresos de IBM? Desde luego que sí. Lo que no quiere decir que sea superfluo. En primer lugar, los mainframes están profundamente embebidos en las estructuras de TI de las organizaciones, y esto significa muchos otros contratos. Un documento firmado por Matt Eastwood, analista de IDC, estima que los mainframes representan un 10% del gasto anual en la tecnología de servidores, pero un 10% que en la práctica no tiene alternativa: «son la plataforma más sólida existente para cargas de misión crítica, desde los procesos transaccionales a los datawarehouse más voluminosos».

Como argumento sobre la rabiosa actualidad del mainframe se esgrime que toda transacción de comercio electrónico afecta a decenas de interacciones entre sistemas diferentes, y la arquitectura de los servidores basados en Intel no ofrece la escalabilidad necesaria para manejarlas, especialmente si hay dispositivos móviles involucrados.

IBM describe su decimotercera generación de la serie z como específicamente diseñada para la ´economía móvil`, porque es capaz de soportar 2.500 millones de transacciones diarias con una rapidez y seguridad – desde la prevención del fraude hasta la validación de medios de pago – desconocidas hasta ahora. En sectores que han sido usuarios tradicionales de mainframes – banca, seguros, telecos, aerolíneas, retail – las transacciones móviles son crecientes, e IBM cree que esos clientes de muchos años estaban esperando soluciones como las que podrá ofrecer el ordenador z13.

Otro destino obvio del z13 está en el cloud. Desde que esta noción se popularizó, hemos escuchado a directivos de IBM sostener que «el mainframe es el cloud original», porque técnicas como la virtualización y las herramientas de gestión automatizada fueron inventadas hace décadas para los sistemas 360 y generaciones siguientes.

Para cumplir con esas expectativas, el z13 ha sido equipado con un tipo de procesador que contiene 300 veces más memoria que la que se puede encontrar en la mayoría de los servidores, y 100% de más banda ancha para acelerar las transacciones móviles.

No todo es potencia de hardware. Entre otros puntos reseñables de la presentación del z13, se confirma la pasión sobrevenida de IBM por el sofware open source: la nueva máquina es capaz de ejecutar hasta 8.000 servidores virtuales bajo Linux, soporta OpenStack y tareas analíticas con Hadoop. Un documento de la compañía señala que el uso de smartphones y tabletas se ha extendido tanto que compromete la capacidad de análisis con los procedimientos (y por ende las máquinas) convencionales.

Estratégicamente, para IBM tiene mucho sentido elevar el papel de su hardware más característico, hasta alinearlo con los servicios de alto margen en la era de cloud computing, eludiendo la trampa de la ´commoditización`. En este sentido, el movimiento puede asimilarse – con todas las salvedades que se quieran – a la vía escogida por Oracle con sus «sistemas de ingeniería conjunta», la gran familia Exa, de la que pronto se esperan anuncios.

Esta ha sido la noticia de la semana para IBM, pero no es incompatible con la reorganización que se está aplicando sin hacer ruido, sino todo lo contrario. Un analista de Bank of America Merrill Lynch escribe que «la compañía seguirá acentuando su foco en las áreas de crecimiento como cloud, big data y analítica, seguridad y movilidad, pero necesitará [la paciencia de los inversores] hasta que estas áreas lleguen a representar una cuarta parte de su facturación».

15ene

15/01/2015

Pregunta de Roser, lectora madrugadora, sobre mi newsletter de ayer: ¿por qué no hay todavía una regulación internacional sobre el bitcoin, que no es tan reciente como parece sugerir tu comentario? Es bien cierto que el invento de esta y otras criptomonedas – cuya historia no creo necesario repetir – no es de ahora, pero las estructuras de mercado en torno a ellas sí lo son, y van a más, como contaba ayer. El funcionamiento de los mercados sí que es susceptible de regulación. O debería serlo, pero la respuesta es que, hoy por hoy, no la hay. Es normal que esos procesos lleven tiempo.

La información más reciente que tengo registrada es de julio de 2014: la Autoridad Bancaria Europea (EBA) publicó un documento en el que identifica 70 «riesgos potenciales» derivados del uso de monedas virtuales, entre ellas el bitcoin, para los usuarios finales. La posibilidad de facilitar la comisión de delitos financieros es uno de esos riesgos. La EBA propone, en consecuencia, que se implante un régimen regulatorio pero advierte que, para ser útil, tiene que ser un cuerpo legal consistente [a substatial body of regulation] en asuntos como la gobernanza de las transacciones y los requisitos de capital exigibles a los actores de mercado.

El informe sugiere la necesidad de definir un «esquema de autoridad» responsable de vigilar la integridad de las infraestructuras al servicio de las monedas virtuales. Como desarrollar ese esquema llevaría tiempo, el informe aconseja a las entidades financieras que, entretanto, se abstengan de comprar, acumular o vender monedas virtuales o activos denominados en ellas.

En realidad, las autoridades financieras no prestaron demasiada atención al problema hasta la quiebra de Mt Gox, en febrero de 2014. La propia Bitcoin Foundation, lógicamente interesada en participar de las consultas que el informe de la EBA abrirá, ha subrayado que innovaciones como la firma múltiple y la prueba criptográfica de reservas, serían medidas que aportarían seguridad a las transacciones y confirmarían el papel de los mecanismos de negociación para asimilarlos a los mercados de divisas.

Resulta curioso que en Estados Unidos la cuestión no se haya planteado a nivel federal. Poco después de conocerse la posición europea, el Department of Financial Services (DFS) del estado de Nueva York decidió que ya era hora de proponer la creación de una llamada ´bitlicencia` que habilitaría a los participantes en los mercados de monedas virtuales. Una de las ideas sería la creación de un fideicomiso en dólares para reembolsar a los clientes en caso de perjuicios, así como la instauración de medidas contra el blanqueo de dinero de origen delictivo – una de las inquietudes que acompañan la existencia del bitcoin – y la obligación de presentar informes trimestrales.

Digo que resulta curioso porque – aun reconociendo la primacía de Nueva York como centro financiero, no hay precedentes de atribuirle funciones de control sobre el blanqueo de dinero. El DFS considera explícitamente que la legislación federal no es idónea para aplicarla al caso del bitcoin, y por tanto ha tomado la iniciativa. No ha dicho cómo piensa armonizar sus reglas con la regulación de otras instancias – incluída la internacional – ni qué piensa hacer si, como es lógico esperar, las compañías participantes en este mercado eligen simplemente operar fuera de Nueva York. De lo que se desprende que no habrá regulación por un buen tiempo, durante el cual los riesgos de operar en moneda virtual serán bien reales.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons