1/02/2024

Google tantea su réplica a la IA de Microsoft

En una señal inequívoca a la plantilla – y a la bolsa, cómo no – Sundar Pichai, CEO de Alphabet y de Google, ha avisado que al millar de despidos ya anunciado seguirán nuevos recortes de personal. No a la escala de los 12.000 (6% del total) del año pasado, pero es su manera de admitir que la empresa no pasa por su mejor momento. Al sobredimensionamiento, del que ahora culpa a la pandemia, se une la urgencia de desmentir a quienes afirman que Microsoft y su aliada OpenAI le han sacado ventaja en la inteligencia artificial generativa. Tras unos cuantos pasos en falso, la respuesta se llama Gemini y se postula como motor de las iniciativas de Google en IA, potencialmente extensibles a todo su catálogo.

Los planes de Google para Gemini empiezan por la integración en su chatbot Bard, pero el listado incluye productos tan arraigados en el mercado como Chrome, Gmail, Meet o Google Docs. O en su asistente de programación Duet AI y, por supuesto, en las búsquedas, que mantienen la lumbre siempre encendida. El hecho de que se trate de un modelo multimodal – que puede generar y operar con diferentes tipos de información, ya sea textos, código, sonido o imágenes – lo convierte en una herramienta con vocación transversal.

Gemini no es una ocurrencia sobrevenida tras la aparición de ChatGPT, ni la rivalidad con Microsoft es cosa de ahora mismo. Su germen viene de lejos: el primer modelo de lenguaje de gran volumen (LLM) pensado para convertirse en un software conversacional sofisiticado – un salto comparado con los chatbots simplones usados para automatizar la atención al cliente – se remonta a 2020, año crucial en la historia de la IA generativa. Por aquel entonces, la compañía trabajaba en algo llamado Meena, que pronto pasaría a llamarse LaMDA (Language Model for Dialogue Applications), lo anunciaria en 2021 y su nombre es toda una declaración de intenciones, casi tanto como el acrónimo forzado.

Tan rápido fue el proceso de desarrollo que pocos meses después, en abril de 2022, LaMDA ya tenía sucesor, PaLM (Pathways Language Model), que  se mantuvo como versión privada hasta marzo de 2023. La premura ante la irrupción de ChatGPT forzó que Google tuviera que sacar a la luz un bot de IA generativa llamado Bard – con perdón de Shakespeare – que ni siquiera utilizaba PaLM como motor sino LaMDA. Hasta que, en una exhibición de celeridad sofocada, PaLM sustituyó a su antecesor como cerebro de Bard. En diciembre, nueve meses después de haberse lanzado públicamente este chatbot, llegaría Gemini, un modelo de lenguaje evolucionado, cuyo destino es sustituir a PaLM, cosa que hasta ahora sólo ha hecho en Bard.

Antes del vértigo hubo un punto de inflexión, que ahora cobra importancia. LaMDA se hizo famoso cuando un estrambótico ingeniero de Google reveló una conversación con el chatbot en la que este parecía mostrar visos de autoconciencia o lo que entendía por tal. El ingeniero fue despedido en medio de protestas de los sospechosos habituales, pero el revuelo alertó a Google sobre el daño que podría sufrir su reputación con el hipotético lanzamiento de una IA que fuera inquietante para usuarios y autoridades. Pichai apeló a esta cautela al justificar ante los empleados el retraso de Google frente a OpenAI, que carece de reputación o negocio que proteger. Sacar al mercado un producto cuestionable pudiera ser terrible para Google, así que mejor andarse con cuidado.

Todo lo anterior pone de manifiesto que al gigante se le hacen pesadas sus piernas. Después de un año de acelerones y frenazos – algunas alucinaciones de Bard han sido objeto de burla en las redes – Gemini se erige como vertebrador de la estrategia de la compañía en IA generativa. El objetivo es extenderla desde los centros de datos hasta los smartphones, de ahí que la compañía haya diseñado Gemini con tres tres versiones. Una, la general, se llama Gemini Pro y está destinada a implantarse en la mayoría de los productos de Google; otra (Ultra) nace preparada para afrontar tareas complejas, mientras la versión Nano está orientada a móviles y otros dispositivos que ejecuten tareas locales.

Con esta táctica, Google trata de optimizar su IA generativa para diferentes casos de uso, con el propósito de ajustar los enormes costes que implican estas herramientas. Lo cierto es que existen LLM con miles de millones de parámetros que, en la práctica, sobredimensionados y subentrenados. En estos casos, la idea es ofrecer a las empresas la flexibilidad de escoger un rendimiento adaptado a sus necesidades y acorde con sus presupuestos. Por no hablar de que el ajuste de costes de operación contribuye a un alza de los márgenes. El consumo de energía de las cargas de trabajo en IA crecerá en torno a un 25% anual en las próximas décadas, indica un informe de RBC Capital Markets.

Con su fórmula, Google cree posible limar la ventaja de Microsoft, que lleva meses pregonando que Copilot en Windows es una manera adicional de ganar espacio para su navegador Edge, soslayando la ausencia de un motor de búsqueda propio (a diferencia de Google, que domina los dos).  Por cierto, que la empresa dirigida por Satya Nadella está mejor posicionada desde la base, porque la IA generativa se usa más en el segmento profesional y en ordenadores, feudo de Windows, mientras que apenas ha entrado en los móviles, donde manda Android. Aunque Google no puede ni quiere renunciar a la primera batalla: su IA estará presente en Chrome – al que se  adjudica el 60% del mercado de navegadores – con la finalidad de que los usuarios puedan dedicarlo a tareas como el análisis del contenido de páginas web.

Otro punto a favor de Google es la incertidumbre que rodea a OpenAI. Las aguas se han calmado tras el fallido coup d´état contra Sam Altman, pero muchas empresas se lo pensarían dos veces antes de confiar enteramente en las herramientas de una startup  impredecible. Y de lo que no hay duda es de que la partida se juega en el segmento empresarial y una parte del resultado dependerá de cómo evolucione la nube, donde Google, pinta mucho menos que Microsoft, y Amazon. En la práctica, el crecimiento de Azure se ha visto impulsado por los servicios de IA que ya comercializa empaquetados: de hecho, se ha estimado en unos 1.000 millones de dólares el incremento anual de ingresos recurrentes que podría producir la tecnología de OpenAI en los resultados de Microsoft a partir de los próximos trimestres.

Los usuarios ya pueden acceder a Gemini Pro desde Google Cloud, al tiempo que Duet AI for Workspace se promueve para la suite de productividad, pero estas herramientas sólo acaban de aterrizar, en el mejor de los casos. Otra muestra de la ventaja de Microsoft: mientras Google ha reforzado su asistente de progranación, GitHub Copilot ya tiene más de 11 millones de descargas.

Está claro que para Google el campo de batalla más importante son las búsquedas, sin las cuales no sería lo que es. Ya experimenta – de momento en forma de beta limitada a Estados Unidos – con SGE (Search Generative Experience) la introducción de IA en su omnímodo buscador: tras la pregunta del usuario, en la página de resultados aparecería un módulo con las respuestas del chatbot en la parte superior, lo que quiere decir que las páginas que hasta ahora se colocaban en primer plano quedarian relegadas o con menor visibilidad, con consecuencias sobre el negocio publicitario. Por su lado, ahí Microsoft no tiene nada que perder y sí mucho que ganar en esa competición.

Es pronto para deducir el papel que pueda tener la IA en los resultados económicos de Google: Gemini no ha tenido tiempo de influir en ellos. En todo caso, podría hablarse de la repercusión indirecta de la irrupción de la IA en las búsquedas, pero incluso así suena aventurado. Pese a que las expectativas de Wall Street era más altas, los ingresos por publicado en el cuarto trimestre han crecido un 11%, hasta 65.500 millones de dólares, así que no hay riesgo a la vista. Sin embargo, los inversores lo han tomado como síntoma negativo, por lo que han castigado la acción con una bajada del 6%. Tal vez esta aparente decepción apunte una tendencia o tal vez sea otra veleidad bursátil: la facturación total ha estado muy por encima de lo esperado (85.300 millones) y el beneficio creció un 51% (20.700 millones).

Por cierto, en su conferencia con analistas, Sundar Pichai destacó que la IA ha empujado el crecimiento de los servicios cloud. También en esto se han superado las expectativas (9.200 millones de facturación frente a los 8.900 millones esperados), pero realmente no hay forma de conocer en cuánto ha influido la IA en esa cifra.

En perspectiva, los analistas de Gartner han evaluado, tras ocho meses de observación, que los sitios web verían cómo su tráfico procedente del Google (el buscador) se reduciría a la mitad en cuatro años. Esto, como fruto de un cambio en los  hábitos de búsqueda y en la adquisición de tráfico de los sitios web. Por consiguiente, en el  modo de introducir el chatbot en el buscador, Google necesitará blindar su primera fuente de ingresos, esos descarados anuncios entreverados que usurpan la posición a los resultados que el usuario espera.

Como todo el mundo sabe, la versión actual del buscador es un infumable soporte publicitario en el que el algoritmo privilegia las respuestas de pago. Si el módulo de respuestas del chatbot sólo ocupara una parte de la pantalla, sigue habiendo espacio para colocar enlaces (ya sea dentro del módulo o por encima) con la etiqueta de patrocinados, como ya ocurre.

Entre tanto trajín, Pichai ha tenido tiempo para allanar el camino hacia el  despliegue de una estrategia integral de la IA. Para él, es importante ganarle terreno a Microsoft, pero mucho más lo es defender los ingresos procedentes de las búsquedas. Ninguna de estas conjeturas parece que vaya a depender de las mínimas diferencias de rendimiento (sobre el papel) entre los distintos tratanientos de la IA sino de cómo los abriguen ambas compañías dentro de sus respectivas ofertas.

[informe de Pablo G. Bejerano]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons