Microsoft ha recuperado el favor de los inversores. Es la tercera compañía tecnológica por valor bursátil [760.000 millones de dólares] entre Amazon [787.000 millones] y Alphabet [745.000 millones]. Lejos de Apple [941.000 millones], cierto, pero también de Facebook [543.000 millones]. Toda una una proeza para una empresa que no compite en los negocios que hacen la fortuna de sus compañeros de pelotón: buscador, redes sociales, smartphones y comercio electrónico. Ha sido un acierto de Satya Nadella, en los últimos años, mover el eje hacia el negocio cloud, que ya representa el 29,5% de los ingresos, el 32,6% del beneficio operativo o, dicho de otro modo, el 63% del crecimiento.
Aunque no lo dirá en público, Nadella sabe que ´la nube` se encamina hacia una commoditización; a medio plazo, la diferencia competitiva no residirá en la robustez de la infraestructura sino en la capacidad de integrar la inteligencia artificial. Esta es una interpretación de lo visto el mes pasado en Build 2018, la conferencia de Microsoft para desarrolladores: que Azure sea más ´inteligente` para atraer a los desarrolladores e impedir que sigan la estela de Amazon Web Services y Google Cloud. Porque también los competidores se apoyan en la IA para captar y retener desarrolladores, un gremio inevitablemente finito en número y dispar en calidad.
Incidentalmente, ya es noticia que Build 2018 volviera a Seattle después de seis años consecutivos en San Francisco. Es lo que se lleva: hoy mismo, empieza la WWDC de Apple en San José, donde hace semanas Facebook recibió a sus desarrolladores, mientas que Google escogió un anfiteatro de Mountain View para su evento I/O.
Desde el primer día quedó claro que la novedad del evento de Microsoft sería la concreción del proyecto Brainwave, que sale del laboratorio para integrarse gradualmente en los servicios de Azure. Se sabía que esa era la intención desde que, en Build 2017, el CTO de Azure, Mark Russinovich [nacido en Salamanca, para quien interese el detalle] anticipó que la infraestructura de servidores de Azure se estaba reconvirtiendo para llevar un procesador FPGA (Field Programmable Gate Array) en cada nodo. Con el tiempo, dijo, se ampliará el número y variedad de servicios basados en IA desplegados en cloud, empezando por el reconocimiento de imágenes y el lenguaje natural.
Esto es precisamente lo que anunció Microsoft el mes pasado en Seattle: un par de servicios ya están funcionando para sendos clientes. Además, aquellos desarrolladores que cumplan los requisitos podrán unirse a la corriente. Como ejemplo, lo que la compañía denomina servicios cognitivos: aquellos podrán agregar machine learning a sus aplicaciones. Pero la estrella de la conferencia fue el proyecto Brainwave, una arquitectura de hardware diseñada para acelerar los procesos de IA en tiempo real y basada en FPGA.
Los procesadores FPGA se diferencian de los convencionales – incluidos los más modernos – en que, en vez de un conjunto de instrucciones predefinidas, tienen la flexibilidad de ser programables en función de la tarea que se les encomiende. A juicio de Russinovich, las exigencias de machine learning evolucionan a un ritmo tal que pierde sentido la pretensión de embeber la inteligencia en el silicio, como se ha hecho durante décadas: lo que se pretende es que los chips puedan reprogramarse para que sean capaces de soportar los constantes cambios de algoritmos que son el corazón de la IA.
En un informe publicado por Deloitte en 2017, la consultora preveía que para finales de este año más del 25% de todos los chips utilizados para acelerar el aprendizaje de las máquinas serían FPGA o, en su defecto, los clásicos ASIC personalizados. Con el resultado, claro, de un menor consumo de energía y un incremento de la flexibilidad. Un cambio drástico, advertía Deloitte, porque sólo un año antes prácticamente todos los procesadores para ML eran una combinación de CPU y GPU. Expresando esta proyección a dinero, Deloitte estimaba que en 2022 el mercado de semiconductores para ML podría rozar los 9.000 millones de dólares.
En esta corriente, Microsoft no es una excepción: también Amazon Web Services usa chips FPGA, suministrados por Xilinx. Por su parte, Google ha optado por concebir su propia tecnología TPU (Tensor Processing Unit) con similar objetivo. Otros proveedores cloud – como Alibaba, por ejemplo – equipan sus datacenter con servidores basados en chips de Nvidia.
No hay que exagerar la novedad. Microsoft adoptó la tecnología FPGA en 2014 – a poco de ser promovido Nadella de VP de cloud a CEO de la compañía – por lo que suena plausible que aquella decisión inspirara la compra de Altera por Intel al año siguiente. De hecho, Microsoft es el primer cliente de los FPGA fabricados por Intel, a la vez que esta ha hecho otras adquisiciones relacionadas con IA.
Según se dijo este año en Build, los clientes del proyecto Brainwave podrán, en un servidor equipado con FPGA, procesar 500 imágenes por segundo al precio de 21 centavos de dólar por millón de tareas. La compañía sostiene que esta capacidad no tiene parangón en este momento, aserto que no podrá probarse mientras no se verifique con aplicaciones externas.
Por esto es relevante el acuerdo con Jabil, especialista en componentes electrónicos, que se ha comprometido a usar en sus factorías – y tiene 90 en una veintena de países – un servicio de reconocimiento de imágenes en las líneas de producción en busca de defectos en las placas, conectado a Azure. El sistema de control de calidad mediante escaneado óptico que hasta ahora usaba no es del todo fiable, ya que obliga a una segunda revisión humana para descartar falsos positivos.
La opción ofrecida por Microsoft, que combina el escaneado in situ con el análisis de imágenes en cloud debería aportar más precisión a menor coste. Es un caso interesante de combinación entre una tarea in situ – el reconocimiento de la imagen de cada placa – y su análisis remoto en la nube de Azure.
Otra aplicación presentada en Build tiene como cliente a la división healthcare de Nestlé: se trata de analizar los distintos grados de acné en base al análisis de fotografías de los pacientes. El software examina las imágenes para recomendar el tratamiento adecuado y luego comprobar su eficacia. Se puede replicar que dos golondrinas no hacen verano, pero Nadella fue categórico ante la audiencia: «trabajamos con nuestros partners para que estas capacidades estén disponibles dondequiera que Azure esté disponible».
Desde otra perspectiva relacionada con la IA, otra presentación en Build tuvo como protagonista al asistente personal Cortana. Recuérdese que Microsoft desveló Cortana en 2014, poco después de que Apple sorprendiera con Siri y bastante antes de que Amazon lanzara Echo, primer miembro de su familia Alexa. Javier Soltero, designado este año para dirigir el relanzamiento de Cortana, sostiene que la partida no ha hecho más que empezar: «el mercado de los asistentes digitales está en una fase temprana; ninguno de los dispositivos físicos que la gente conoce como asistentes digitales pasará a la segunda ronda». Cuando evolucionen, se esperan aplicaciones al puesto de trabajo, con un modelo ´conversacional` muy superior a la imperfección de los comandos individuales actualmente en uso.
La nota destacada fue la primera demo pública de integración entre los asistentes de Microsoft y Amazon. No deja de ser simpático que un comando de voz ordena al chatbot Alexa que abra el software de Cortana y que este, con otra voz, dé a Alexa la orden de manifestarse en un PC bajo Windows. Pero la verdad es que se ha tardado demasiado en llegar a una experiencia beta y en abrir un sitio específico para desarrolladores potencialmente interesados. Por un lado, Amazon lleva aprobados unos 40.000 skills – equivalente en un asistente digital de lo que es una app en un smartphone – mientras por otro el repertorio de Cortana no pasa de algunos cientos. No hay fecha de lanzamiento comercial de esta insólita cohabitación entre Amazon y Microsoft.
[informe de Mario Kotler, desde Seattle]