No se conocen cifras fidedignas acerca de las inversiones recientes en centros de datos en España, una actividad al parecer hipertrofiada por anuncios de incierta concreción. No ocurre lo mismo con la capacidad instalada, que en los últimos tres años se ha multiplicado por 2,5 hasta alcanzar los 250 megavatios. Puede parecer mucho, pero no lo es: se estima en un 0,7% de la potencia instalada total en España, mientras en Alemania y Reino Unido el 4% y el 7% del consumo eléctrico se debe a los centros de datos. La multinacional Schneider Electric atribuye el fenómeno a cuatro macrotendencias simultáneas: globalización, emergencia climática, expansión del conocimiento y revolución digital.

Jordi García
Esas macrotendencias confluyen en el incremento del consumo de electricidad en estos tiempos de ingesta masiva de datos para entrenar y procesar la inteligencia artificial (IA). Y, habría que añadir, de inquietud por la vulnerabilidad de las infraestructuras. Por consiguiente, la electrificación exige soluciones que son el oficio de esta compañía.
Sostiene Jordi García, vicepresidente de Schneider Electric y responsable en Iberia del negocio que la compañía identifica como Secure Power & Services, que la IA genera una demanda adicional que requiere nueva inversión, pero a la vez estimula la innovación: “las empresas tienen que acometer cambios asociados íntimamente a la transición energética. Lo que hacemos es ayudarles a que esa evidente aceleración en la gestión de datos se haga con la debida eficiencia y que las inversiones sean resilientes”.
¿Han ganado peso los centros de datos en el negocio de Schneider Electric con el auge de proyectos en España?
En este momento, la mayor contribución al crecimiento de Schneider Electric tiene como fundamento la importante inversión en centros de datos. Si entramos en detalles, podemos distinguir entre los hiperescalares o grandes proveedores de Internet, la nube y de IA, por un lado, y por otro los centros de datos de empresas, en los que conviven varias categorías. Vemos crecimiento por ambos lados, con una fuerte aceleración en los dos últimos años y más la habrá en los próximos años si se confirman las optimistas previsiones sobre la inteligencia artificial.
Sobre la IA, hay opiniones para distintos gustos, pero ¿es para esta compañía la mayor fuente de demanda en un momento en el que algunos consideran que es exagerado el número de centros de datos previsto?
No hay duda de que la IA genera demanda. pero a la vez estimula la innovación, sobre todo en lo que concierne a las tecnologías de refrigeración, que son nuestra prioridad actual […] ¿Por qué? Pues, porque las máquinas basadas en GPU desprenden mucho calor […] Y estos sistemas se han disparado desde la IA generativa. La potencia por rack, por unidad de computación, crece constantemente y con esto aumenta el calor, lo que implica la necesidad de aislarlo de manera diferente a como se venía haciendo. Hoy, enfriar un centro de datos requiere tecnología innovadora, cuyo mejor ejemplo es el liquid cooling.
Todo tiene su contexto […]. La IA no nació con su variante generativa, que tampoco tiene por qué ser la última.
Estoy de acuerdo. Las empresas que quieran tener éxito en este contexto tienen que acometer tres transformaciones. la transformación energética es inseparable de la emergencia climática y está en marcha una transformación cultural sin la cual las otras no serían posibles o no serían visibles.
Lo visible es la aceleración. Otros rasgos son más discutidos […]
Los centros de datos tocan de lleno una cuestión propiamente digital: las empresas han de acometer un enorme cambio en la gestión de sus datos, asociada íntimamente a la transición energética. ¿Qué papel asume Schneider Electric en este proceso? En síntesis, hacemos que la aceleración se haga con eficiencia y que las inversiones sean resilientes, sobre todo que sean sostenibles. Al mismo tiempo, los centros de datos tienen la necesidad de ser flexibles para adaptarse a necesidades futuras.
ChatGPT, Gemini, Claude, DeepSeek, Mistral […] El énfasis inicial se puso en los grandes modelos lingüísticos (LLM) con gula por los grandes volúmenes de datos; luego, como era previsible, van apareciendo modelos más compactos y, ahora mismo, el fenómeno más reciente, son los agentes de IA ¿Qué consecuencias tiene esto sobre la electrificación, que es el oficio de Schneider Electric?
Que las empresas necesitan más (y diferentes) capacidades. Pueden trabajar con hiperescalares u optar por sus propios centros de datos, pero no quedarse como solían estar. Frente a esto, la compañía apoya su estrategia sobre tres pilares. El primero son las soluciones completas: ser capaces de cubrir desde la media tensión que conecta el centro de datos hasta la disipación del calor. Usamos una expresión en inglés para eso: from grip-to-chip and from- chip-to-chiller, con la que se pretende destacar la importancia del enfriamiento. Y nosotros cubrimos toda la solución, tanto desde el punto de vista del hardware como desde el software que es donde está la gestión eléctrica, así como la sala blanca que es la parte de las TI, recinto para los servidores y lugar para la computación.
[…] tres pilares, ha dicho.
El segundo es la sostenibilidad. Es evidente que los centros de datos consumen energía eléctrica, mucha electricidad. En el esquema de la legislación europea, por el que nos guiamos, el alcance [scope] 1 es prácticamente cero: se trata de un proceso que no emite CO2; el alcance 2 se relaciona con las compras de energía para los centros de datos mediante acuerdos PPA cubiertos por certificados de origen, con lo que esa energía tiende a ser cien por ciento sostenible y algunos de nuestros clientes cumplen con este requisito al completo. Queda un tercero, el alcance 3, donde está la verdadera asignatura pendiente […] y es importante porque, según las circunstancias, puede representar un 85% o un 90% del consumo.
¿No se puede reducir mediante el autoconsumo, con generación ad hoc o con plantas renovables anexas?
Efectivamente, pero el autoconsumo en centros de datos es muy limitado. Creemos que irá a más, pero hoy está centrado en los servicios auxiliares y poco más. La potencia del datacenter se abastece de la red contratada y seguramente evolucionará, pero hoy es así, por lo que el 85% de las emisiones de los centros de datos corresponden al alcance 3, tal como lo define la Unión Europea. Y como esto básicamente tiene que ver con los proveedores, es muy recomendable que las empresas propietarias o que explotan esos centros de datos trabajen con proveedores descarbonizados. En cuanto a la tercera, es la gestión del ciclo de vida del centro de datos durante la época de explotación. Todos los activos de un centro de datos deberían estar sensorizados y conectados en tiempo real para permitir estrategias de mantenimiento que llamamos “basado en condiciones”. Lo que significa que, mientras el mantenimiento tradicional era reactivo [si algo se estropea, llamas a quien tiene que repararlo y lo repara, punto] desde hace unos años se ha pasado del reactivo al preventivo, en el que el fabricante informa al cliente de que cada dos años habrá que reparar tal pieza de tal activo. Lo que está pasando en la práctica es que estamos dando un paso adicional: decimos que, más allá del preventivo previsto cada equis tiempo, gracias a que los activos están sensorizados, puede que alguno en particular no lo necesite porque no está sufriendo desgaste.
¿Hay casos reales que pueda mencionar?
Ya mismo: Nabiax [nota: empresa de los centros de datos que fueron de Telefónica, hoy propiedad de un fondo de inversión] tiene nuestra solución completa con activos sensorizados y está consiguiendo un ahorro de costes energéticos del 11% que, según ellos podrían bajar más los costes.
Acaba de emplear una palabra clave: costes.
A los fabricantes nos gusta bastante poner números sobre la mesa. Con las tres patas juntas, ahorramos en costes de diseño, primero, porque al tener una solución completa, podemos acelerar esa fase y lograr hasta un 30% de optimización medida en tiempo de diseño. Y en lo que respecta a la sostenibilidad, podemos ahorrar un 25% de emisiones, la métrica de eficiencia energética. En los costes operativos también hay impacto, ya que los servicios digitales con IA prometen bajar en un 25% el opex.
¿Hay nichos o parcelas en esta actividad?
Este es un sector conformado por especializaciones dentro del negocio de centros de datos en sentido amplio. Por eso se están produciendo alianzas entre compañías que se dedican a partes diferentes de la infraestructura. La estrategia de Schneider Electric difiere en el sentido de que buscamos disponer de soluciones completas, más que negociar alianzas de refuerzo.
Creo que eso formaba parte de la entrevista con Pablo [Ruiz Escribano, antecesor de García con el mismo cargo]
Correcto. Es una estrategia consistente desde hace bastantes años, que nos ha permitido estar preparados para dar ahora una solución completa. La compañía ha hecho varias adquisiciones y las pertinentes son dos. Hace más de diez años, la compra de Uniflair que desde entonces es el cimiento de nuestra oferta de refrigeración de centros de datos: en lugar de una alianza, la compañía prefirió una integración directa. Otra muy relevante, que se cerró este febrero, ha sido la compra del 75% de Motivair, líder mundial en la tecnología de liquid cooling y que en 2028 será propiedad al 100%.
Entiendo que la refrigeración líquida es donde se piensa acelerar. ¿O será una solución híbrida?
La refrigeración por aire no desaparece, desde luego, pero cuanta más inteligencia tenga un centro de datos más necesitará recurrir al liquid cooling. Sí, serán estructuras híbridas de aire y líquido, en las que este último crecerá proporcionalmente más.
[…] ¿Me lo explica, por favor?
Lo que se hace con liquid cooling es ir directamente al chip, que es donde se genera calor. Hay otras partes de la infraestructura que también generan calor, como la distribución eléctrica y necesitamos disiparlo más allá de los elementos de control y de la gestión de datos, de ahí la hibridez. La IA existe desde hace mucho tiempo, sólo que ahora se está generalizando fuera de los superordenadores que se pensaba eran su sitio natural. El del BSC (Barcelona Supercomputing Center) es un modelo a seguir porque se refrigera con agua desde hace dos o tres años, pero el liquid cooling a gran escala se está desplegando ahora. Técnicamente es más delicado que el enfriamiento por aire; para lograr la precisión buscada, hay que tener capacidades de diseño que no son fáciles de encontrar. Tenga en cuenta que la refrigeración tiene algo de servicio y representa entre el 30% y el 40% del consumo energético de un centro de datos.
¿Cómo situaría a Schneider Electric en el ascendente mercado de centros de datos?
El panorama empresarial en nuestro sector es más variado de lo que se ve desde fuera. Ahora hay nuevos actores: vemos llegar utilities como Iberdrola con su esquema CPD4Green, y también a Repsol, que se está preparando para disponer de una oferta en el mismo negocio. Y estoy seguro de que veremos más movimientos […] En cuanto a nosotros, se nos reconoce como proveedores de tecnología para que los centros de datos sean resilientes, sostenibles y flexibles. Nuestros clientes tienen en común la explotación de centros de datos. Primero eran los gigantes de Internet, luego aparecieron las colos [apócope de co-location, fórmula de capacidad compartida] como Equinix o Digital Realty y, más recientemente, compañías de real estate como Merlin […] Sin olvidar que la repatriación de cargas desde la nube a los centros de datos corporativos exige que estos se transformen en profundidad. Otra parte de nuestro negocio es el asesoramiento e intermediación en acuerdos de suministro de electricidad sostenible a largo plazo.
Hay ahora en España una percepción extendida según la cual los centros de datos serían predadores de un recurso escaso, el agua. ¿Tiene Schneider Electric una opinión al respecto?
Me encanta que haga esa pregunta [risas] y quiero ser taxativo en la respuesta: ese punto de vista es cierto solamente en aquellos datacenter que tienen tecnologías antiguas […] Usan sistemas adiabáticos, que enfrían el aire evaporando agua del aire caliente que sale del centro de datos, por lo que el consumo de agua es importante […] Hoy en día, los centros de datos que se están instalando en España son híbridos y de circuito cerrado, ya sea por aire o por líquido: funcionan por compresión y descompresión de gases, es decir que no evaporan agua, salvo en los sanitarios.
Esto nos lleva a valorar la antigüedad del parque instalado […]
Como he dicho, entre 2021 y 2024, en España la potencia se ha multiplicado por 2,5, de manera que la progresión da una idea de la modernización del parque, lo que significa inversiones.
¿Se debe a las inversiones de los hiperescalares: Amazon, Microsoft, Meta, Google, etcétera?
Es evidente que los hiperescalares son últimamente los que más han contribuido al aumento del número y potencia de los centros de datos. En esto agrego los gigantes de Internet y los colos que siguen albergando cargas de IA en sus facetas de entrenamiento y de inferencia. A pesar de una cierta tendencia a la repatriación de cargas hacia los centros de datos de empresa, los hiperescalares siguen creciendo sin pausa. Creemos que el resultado será un mundo híbrido con distintos modelos de negocio. La novedad es el pay per GPU, a la manera de CoreWeave, pero habrá otros.
Es decir que se está articulando un ecosistema en torno a la infraestructura para IA
Conforme van creciendo las capacidades de gestión de centros de datos, las empresas grandes tienen que decidirse entre pagar por uso de capacidad a un hiperescalar o montar su propio datacenter, lo que les supone invertir a cambio de la perspectiva de recortar costes. En cualquier caso, hace falta una masa crítica para que salga a cuenta. Una variante es que se trate de una infraestructura propia alojada en un tercero […]
¿Y qué efecto está teniendo en este mercado el edge computing?
Para mí, el concepto edge es computación descentralizada, que no está en la nube, […] La tecnología es la misma, pero la demanda que origina el edge no se puede comparar con la que originan los hiperescalaes. Además, no hay el mismo interés en liquid cooling porque en la inferencia no se necesita tanta capacidad de computación.
[…] pero se necesita conectividad
Exacto. Es un mercado muy interesante y dinámico, al que estamos atentos […] No habíamos estado en contacto con Nvidia, al menos no en nuestro negocio tradicional. Pues ahora sí, estamos en contacto y desarrollando juntos unos diseños de referencia. Es natural que Nvidia, con el rol que ha ido adquiriendo, necesite en sus despliegues tener un partner que le asegure que sus GPU funcionan óptimamente desde el punto de vista eléctrico. Otro actor importante es Dell, al que ya conocíamos por ser una marca relevante en los mercados de PC y servidores. Algo parecido ocurre con HPE, ambos tienen vínculos firmes con Nvidia.
Es relativamente off topic, pero quisiera conocer su opinión sobre las consecuencias de la irrupción de DeepSeek, que descolocó a muchos en la industria.
La vemos con naturalidad, porque en todo lo relativo al desarrollo de la IA la manera de desplegarla todavía tiene que evolucionar. Al parecer, DeepSeek ha encontrado la manera de ser más eficaz en el entrenamiento y de consumir menos recursos de computación. Lo que de una u otra manera se reflejará en nuestro negocio.