Andrew Grove, cofundador de Intel, no recuerda en qué ocasión dijo la frase que se le atribuye, “sólo los paranoicos sobreviven”, pero insiste en que una dosis de paranoia es muy conveniente en los negocios. Siguiendo sus pasos, el actual CEO de la compañía, Paul Otellini, ha puesto en marcha una iniciativa para evitar que el ascenso del cloud computing llegue a amenazar, directa o indirectamente, su posición dominante en el mercado de los chips para servidores. Cuál es la estrategia de Intel con respecto a la nube, es una pregunta invariablemente respondida con vaguedades, pero el gigante no puede asistir impasible al giro que está tomando toda la industria.
De momento, esta vaga estrategia empieza a tener visos de realidad, y consiste en amarrar por anticipado vínculos de colaboración con sus clientes y con empresas de software para diseñar y probar en laboratorio nuevas arquitecturas de referencia válidas para cloud computing. No es en absoluto comparable, pero apunta a no repetir el error que cometió al desdeñar durante demasiado tiempo la necesidad de desarrollar procesadores para dispositivos móviles, que aun hoy dejan un hueco en el catálogo de Intel. Por cierto, ese hueco ha hecho la fortuna de la empresa británica ARM, especializada en diseñar chips de bajo consumo energético utilizados por casi todos los fabricantes en los smartphones de la actual generación.
¿Por qué hablar de paranoia? Porque las máquinas basadas en la arquitectura x64 representan el 97,4% de los 2,3 millones de servidores despachados en el cuarto trimestre (según Gartner) y la cuota de Intel es del 93%. Pero Otellini se toma en serio la posibilidad de que “el nuevo paradigma de la nube” abra oportunidades a la competencia; precisamente, ARM no esconde su interés en extender el alcance de su tecnlogía al mercado de servidores, y en esa línea va el Proyecto Denver, que uno de sus socios, Nvidia, presentó en enero.
Puesto que, en promedio, los servidores representan el 50% del TCO (coste total de propiedad) de un centro de datos en un ciclo de tres años, y el consumo de energía otro 23%, serán bienvenidos todos los esfuerzos que contribuyan a rebajar esos costes, liberando recursos para que las empresas inviertan en nuevas máquinas. Pero esas nuevas máquinas no responderán al concepto que ha regido durante décadas: uno de los factores que estimula las ventas de servidores es el salto a infraestructuras de nube. Los servicios de cloud computing crecerán a una ratio anual de más del 20% entre 2010 y 2014 (nuevamente, es una estimación de Gartner). Las necesidades de almacenamiento se multiplicarán por 15 y las de networking por 8 antes de 2015. ¿Cómo quedarse de brazos cruzados?
Esta es la lógica que preside el programa Cloud Builders, que Otellini puso en marcha hace año y medio. En Portland (Oregon), Intel ha montado un centro de I+D que para finales de 2010 habrá desarrollado 50 arquitecturas de referencia para “una multitud de escenarios cloud”. En ese programa colaboran algunos partners de toda la vida, como Cisco, Dell, HP e IBM, además de otro reciente, el fabricante chino Huawei. Pero tal vez la parte más interesante es la que asocia a empresas de software como Microsoft, Citrix y VMware.
Dos ejemplos descritos durante una reciente visita de prensa: VMware participa en una demo consistente en definir un máximo de consumo eléctrico de cada servidor: cuando uno supera ese nivel, el software desplaza carga a otro servidor para balancear el consumo conjunto del datacenter. Otra arquitectura de referencia usa software de Citrix para migrar cargas de trabajo entre una nube pública y otra privada.
Además del centro de Portland, el programa cuenta con laboratorios pequeños en Bélgica, India y China para testear los diseños. En total, a Cloud Builders se han destinado 150 servidores de distintos fabricantes para simular unas 5.000 máquinas virtuales y más de 15.000 desktop también virtualizados.