De los últimos resultados publicados hasta la fecha por Microsoft (cerrará su año fiscal este mes de junio) un puñado de porcentajes bastan para ilustrar las prioridades de la compañía que ostenta en este momento la mayor capitalización bursátil. El negocio cloud ha crecido un 21%, pero si se considerase sólo su nube Azure, sería el 31%. Y en este porcentaje, el 7% está relacionado con la inteligencia artificial. Ahí está, podría decirse, la crême de la crême de esta empresa que en los últimos nueve meses ha facturado más de 180.395 millones de dólares, el 4% más que un año antes, con un beneficio operativo de 81.508 millones (+ 26,8% interanual). Con esta premisa, adelante con la entrevista.
Alberto Granados, presidente de Microsoft España desde julio de 2021 empieza por comentar esas cifras. “Confirman nuestro enfoque pragmático de la IA generativa de la que todo el mundo habla. Tan pragmáticos somos que la compañía ya tiene enroladas 53.000 como clientas de Azure AI. Hablaremos de ellas
Hace unos días, Satya Nadella envió un memorando al personal de Microsoft advirtiendo que cuando se trata de IA generativa hay que privilegiar la ciberseguridad por encima de cualquier otra consideración. Muchos lo entendieron como una alusión a ciertas ideas distópicas que han aflorado desde el acuerdo con Open AI y que, me aventuro, Microsoft parece no compartir […]
Esas palabras de Satya han sido oportunas, pero si las ponemos en su contexto, en 2017 el propio Nadella creó dentro de Microsoft una Oficina de IA Responsable, inmediatamente después de haber presentado novedades como el reconocimiento de objetos y de voz, que pudieran incurrir en ciertos riesgos. De hecho, fuímos el primer actor de la industria en introducir un método que contrasta con una ´red adversaria` la identificación de agujeros que pueden esconderse en un sistema de inteligencia artificial. Jugando el papel de atacante, tratamos de vulnerar al adversario, como paso previo a la validación de una solución.
Es notorio que los riesgos existen
Lo dicho es la línea seguida por nuestra estrategia en la IA predictiva y con más razones en la generativa. Continuamos creciendo en número de personas dedicadas a ciberseguridad; de hecho, gran parte de lo anunciado el último año contienen medidas que permiten validar si un algoritmo tiene sesgos inapropiados, si es capaz de generar respuestas inaceptables o si un usuario hace preguntas sospechosas […] Lo que viene a decir el maill de Satya es que en Microsoft ponemos idéntica pasión en la ciberseguridad que en la innovación.
Otra preocupación corriente son los datos empleados en el aprendizaje […]
No hay una respuesta única a esa cuestión, pero yo subrayaría el correcto etiquetado de los datos como punto de partida de una buena gobernanza y a la vez de nuestras mejores prácticas. Nuestra intencion es que los 350.000 empleados de Microsoft tengan acceso a la IA a través de Copilot.
Bien, retomemos el argumento del pragmatismo […]
Que es completamente compatible con el ejercicio de un impacto real en el negocio de nuestros clientes. Más que compatible, constitutivo. El segundo punto es que nuestra plataforma de IA es abierta: puedes utilizar OpenAI, una empresa en la que Microsoft no tiene acciones pero con la que hacemos inversiones conjuntas de las que estamos satisfechos y a la que vamos a seguir apoyando. Pero Microsoft es Azure AI, con un planteamiento abierto: hemos llegado a un buen acuerdo con Mistral; mediante otro con Meta, soportamos Llama2 y esperamos avanzar hacia Llama3; hemos creado nuestros propios modelos lingüísticos Small Language Models, como Phi 3, con un rendimiento muy aceptable, que puede correr en el edge, en cualquier ordenador o en un iPhone, porque ni siquiera necesita GPU. De hecho, este es un tema de conversación con el gobierno español acerca de la posible adaptacion de modelos de lenguaje al castellano y otras lenguas oficiales.
Bueno es saberlo […] El nombre de Microsoft está asociado a la noción de Copilot.
Pensamos que la IA no viene a sustituir personas, pero puede acompañarlas en la función que les toque desarrollar dentro de una organización, lo que nos lleva a ofrecer masivamente Copilot a las empresas. Lo que queremos es que millones de usuarios tengan un Copilot que les ayude, por ejemplo en el uso de Teams con la sumarización de llamadas, que les ayude a generar documentos o a gestionar sus facturas, sus cobros, etcétera. Y que las industrias puedan tener un Copilot específico para que el personal de fábrica consulte con él, es otro ejemplo entre muchos, cómo hacer una reparación. En el backoffice, el usuario puede recurrir a recursos robustos de IA, como el gobierno del dato, la escalabilidad y las aplicaciones.
Circula un debate, extrañamente tibio, acerca de si para la IA generativa es preferible usar open source o propietario.
Nuestra propuesta es que la plataforma de Azure AI se ofrece en open source, como OpenAI en sus mejores presentaciones – GPT4, GPT4 Turbo, etcétera – y si el usuario prefiere un modelo open source como el de Mistral, también hemos llegado a acuerdos con esta para ponerlos a disposición. El usuario, si lo desea, puede desarrollar su propio modelo o usar uno de terceros. Hay empresas que se inclinan por combinar unos con otros y en ciertos casos están probando viendo SLM (small language model) que a priori serían suficientes para las prestaciones que se necesitan. O puede que para ellas sea importante que corran en cualquier dispositivo, incluso sin conexión a la red o a la nube.
Ciertos dispositivos se están anuncian como equipados para IA generativa y tal vez sea un reclamo prematuro […] Y hay más en espera.
Un aspecto reseñable es que muchos fabricantes de hardware – incluyéndonos con la gama Surface – están diseñando dispositivos con NPU (Neural Processing Unit) y que tan pronto tengan capacidad de ejecutar redes neuronales en el dispositivo, ampliarán las opciones para el usuario, de esto no hay duda.
¿Cuál es la política de Microsoft en relación con la calidad de los datos? ¿Y con el derecho de propiedad intelectual?
Desde luego, cuando hablamos de IA Responsable, estamos ejerciendo una obligación autoimpuesta, que hemos firmado contractualmente con los clientes que usan Azure AI: Microsoft se hace cargo de los gastos derivados de conflictos sobre contenidos amparados por la IP que hayan sido identificados en nuestra IA generativa.
¿Por qué vaticina conflictos?
Nos hemos asegurado de que la fuente de esos datos ha dado formalmente su permiso y, además, contamos con que las dos partes se sientan protegidas de cualquier consecuencia. Si se genera con mi nube una determinada fotografía o una voz, llevarán una marca de agua que las identifica como generadas por IA. En Microsoft, los datos están siempre detectables, se sabe dónde están.
¿Quién es el propietario de los datos?
Evidentemente, hemos llegado a acuerdos para utilizar esos datos de manera segura y esta es la base del Copyright Commitment. Algunos de los datos con los que entrenamos los algoritmos y los que usa OpenAI para entrenar los suyos o Mistral los suyos, son de uso público o, en su caso, tenemos la propiedad intelectual. El objetivo no es sólo protegernos sino proteger a nuesros clientes. Hay un detalle importante; los algoritmos de Phi 3 han sido entrenados con datos sintéticos, una tendencia que va a ser creciente […] De hecho, tenemos comprobado que el entrenamiento de algoritmos con datos sintéticos es más eficaz que el que se hace con datos reales.
Se habla poco de datos sintéticos […]
Pero se hablará cada vez más, se lo aseguro. Se trata de información creada artificialmente por algoritmos de computación en lugar de los recopilados de eventos reales. Lo que se procura es que los imite lo más posible y evita los riesgos asociados con los datos originales.
A menudo mantengo discusiones acerca de la hipótesis de que GenAI no tiene todavía un mercado: actores múltiples, un marketplace específico, intermediarios, un canal, … Dicho con brusquedad, la IA generativa en su estadio actual necesita dos cosas que abundan pero no son fácilmente gestionables: mucho dinero y muchos datos; son activos que sólo unas pocas empresas poseen. Si no fuera así, acaban p0r subordinarse a algún grande, como Microsoft sin ir más lejos.
Tiene gracia: algo parecido dijo hace poco Brad Smith [presidente de Microsoft], a propósito de la imprenta y lo que tardó en desarrollar un ecosistema: proveedores de papel, de heramientas, de tintas,… y un extenso ecosistema de lectores y de escritores, de críticos, etcétera. Cuánto más se fue ensanchando más se aceleró la adopción de ese objeto que los humanos hemos convenido en llamar libro
Caray con el símil. Mercado y ecosistema tendrán que estar en sintonía.
No hay duda de que está pendiente la creación de un ecosistema homologable a los que existen en otros ámbitos, pero en este de la IA tal vez sea más delicado, porque habrá que encajarlo en la regulación y en la seguridad, dos requisitos sin los cuales no estaría garantizada la escala de adopción. Por esto mismo, hemos apostado por definir desde ya el fabricante de microprocesadores ´customizados`. Nuestra CPU Maia y la de AMD, Cobalt, ambas sobre arquitectura ARM. Los dos están disponibles, acoplados con la GPU de Nvidia, H100. Hemos optado por diversificar y por crear una plataforma en la que se pueda ponerlos en régimen de modelo-como-servicio. En GitHub contamos con 100 millones de desarrolladores registrados en cuyas capacidades confiamos […] Por cierto, olvidé mencionar que en España tenemos 12.000 partners que ya trabajan sobre nuestra IA generativa.
Pues, ya que lo dice, hablemos del mercado español […]
Antes, déjeme añadir algo. Creo que la IA clásica, llámese machine learning o predictiva también llamada discriminativa, la predictiva, ha sido muy relevante en un entorno de blue collars y sus tareas de cada día. Una diferencia con la generativa es que ésta ha sido adoptada rápidamente por los white collars, los trabajadores del conocimiento. El otro día, decía Satya [Nadella] que el papel de la IA generativa es la creación de turnos de conocimiento, haciendo un símil con los turnos fabriles. La idea matriz es ese conocimiento se quede en las compañías, no necesariamente en el individuo, que este sea cada vez más sofisticado y que participen más individuos […]. La evolución de nuestra plantilla dedicada a GenAI corrobora que este es nuestro camino.
¿Cómo está España en el contexto internacional?
Ahora mismo, España es el cuarto país de Europa en la adopción de GenAI y de Azure AI, habiendo quintuplicado nuestras cifras en el último trimestre. Y al tiempo somos el decimocuarto en perfiles disponibles en LinkedIn con conocimientos de IA. Imaginemos cuánto paro se hubiera eliminado y cuándo podría crearse si fuéramos cuartos en ambos criterios […].
La demanda existe, pero la oferta no la van a satisfacer trabajadores ajenos al circuito […]
Pues acaba de rozar una discusión muy interesante, de naturaleza cultural. Esta es la primera vez que los humanos nos encontramos con una tecnología que está destinada a tener más barreras culturales que propiamente tecnologicas.
Nombraria un par de casos de uso interesantes o de cierta talla?
Hay muchos y en muy diversas profesiones y sectores de actividad. En Ferrovial, por ejemplo, hay 38.000 ingenieros que nuestra IA generativa para el desarrollo de proyectos. Creo que ya les conoce. Y tengo más que contar. El SERMAS de la Comunidad de Madrid facilita a ciertos médicos un Copilot con el que detectar patoloías de enfermedades infantiles raras, de las que se dan un caso entre 100.000. Se tardaba años en identificarlas; ahora estamos consiguiendo que en pocas horas esos médicos puedan hacer preguntas que por sí mismos no habian pensado. Moraleja: la IA generativa es muy buena conectando cosas no conectables.
¿Cambiamos de tema? La aceleración de la política de infraestructuras de Microsoft, esencialmente centros de datos. Hay ahora un programa multimillonario en España, con un compromiso de invertir 2.100 millones de euros antes de finales de 2025. Lo mismo, con otras inversiones se ha aprobado para Francia y Alemania, entre otros mercados. En el sudeste asiático, región que conozco bien, florecen innumerables planes de nuevos centros de datos, estimulados por la generalización de la IA […] Y estos últimos días hemos conocido anuncios relevantes en Kenia y en Japón. Seguramente ya sabe que en Estados Unidos está prevista una inversión de 3.300 millones de dólares en Wisconsin, totalmente orientada a la IA.
La ambicion es global, pero volvamos a España […]
Es uno de los pocos países que va a tener dos regiones en su territorio. La región España Centro, que estamos empezando a construir en este momento para atender a la clientela española, junto con España Norte, que desde Madrid dará soporte secundario a Francia, Italia, Grecia y Portugal. Repartidas en tres localidades: San Sebastián de los Reyes, Algete y Meco […] En Aragón, al margen del compromiso genérico de inversión, estamos adquiriendo terrenos para levantar un campus de centro de datos con un concepto distinto al convencional de región: este campus prestará servicios de nube inteligente a empresas y organismos europeos.
¿Qué impacto económico esperan?
Cada región va a tener varios centros de datos y no hay muchos con este tamaño y estos volúmenes de inversión. Para darle una idea de lo que significa: IDC ha estimado que del 2026 al 2030, van a tener un impacto en el PIB español de alrededor de 8.400 millones y van a generar un empleo directo e indirecto de 69.000 puestos de trabajo. Obviamente, no toda la demanda se origina en el mercado español, pero este es un país estratégico, con una posición geográfica ideal, una infrastructura de telecomunicación envidiable y una política energética sostenible.
¿Cuál es el modelo de propiedad? ¿Se convierte Microsoft en inversor inmobiliario especializado en centros de datos o se limitará a operar centros de propiedad ajena? ¿Van a seguir el modelo de co-location?
Generalizando, buscamos combinaciones. Somos propietarios, pero nos interesa encontrar modelos mixtos, en los que nada está excluido de inicio. Nuestras regiones siempre tienen tres centros de datos, Aragón es un caso peculiar.
Todos con reglas comunitarias de soberanía europea de los datos
Pues sí, la clave está en la soberanía europea: los datos no salen de Europa, lo que nos permite ofrecer esa capacidad para misión crítica, que en general corresponde a entornos regulados. Nuestra nube es de confianza para depositar los datos, lo que explica esa obsesión por la ciberseguridad.
De la que hablábamos al comienzo […]
Tenemos que ser capaces de securizar tan rápido como innovamos. Y hay otro aspecto que he mencionado antes, la brecha cultural. Me cuentan que hay discusiones en muchos comités de dirección y consejos de administración sobre el cambio cultural que las organizaciones necesitan cuando acometen proyectos de IA. Se discute más sobre esto que sobre cuestiones tecnológicas. Conclusión: no ganará esta carrera quien sepa más de tecnología, sino aquel que sepa forjar su cultura corporativa para que abrace la IA.