A primera vista, la puesta en escena de de OpenAI y su Chat GPT de la mano de Microsoft pareció haber pillado a contrapié a Google, pero era una impresión falsa, como acaba de comprobarse. Aprovechando su habitual conferencia Google I/O 2023, la compañía ha dado la réplica desvelando su ofensiva en relación con la IA generativa. No es que la haya descubierto súbitamente, ni que su experiencia se limite a esta variante que ahora se se está tomando como forma dominante de inteligencia artificial. Pero el ruido que GPT ha suscitado obliga a evidenciar que Google está en el ajo y que la IA ya está integrada en sus productos y servicios.
Una de las claves de los grandes modelos de lenguaje, como el popularizado por Chat GPT, recae en sus costes. Una norma no escrita determina que para que el entrenamiento de un sistema de IA aporte el rendimiento esperado, el tamaño de ese modelo ha de crecer exponencialmente con el volumen de datos que se entrena. Si, como se ha informado, GPT-1 se construyó en 2018 sobre unos 117 millones de parámetros y su siguiente versión – al año siguiente – superó los 1.500 millones, asombra enterarse de que la actual GPT-4 rondará el billón, una cifra que no está confirmada.
Las inversiones que hay que mover para alcanzar estos valores son enormes, como basta comprobar con la evolución económica de Open AI, fundada originalmente sin fines de lucro y luego forzada por las circunstancias a crear una filial ´monetizable`. El incumplimiento por Elon Musk de su compromiso inicial de financiación, tras comprobar que tendría que seguir rascándose el bolsillo, no dejó más la mejor salida para Open AI consistió en negociar un acuerdo por el que Microsoft aporta 10.000 millones de dólares a cambio de reservarse derechos al uso de esas tecnologías.
El cambio de frente de Open AI espabiló a Google, con más razón si Microsoft anda por medio. Sundar Pichai, CEO del holding Alphabet, ordenó a sus ingenieros las nuevas prioridades. Muestra de esta actitud combativa ha sido la unificación de dos laboratorios de la compañía especializados en la IA: Google Brain, con sede en Mountain View, y Deep Mind, en Londres, con el objetivo de conjuntar las estrategias y temáticas respectivas.
Con este ajuste estructural no sería suficiente; se necesitarán inversiones de talla y a Alphabet no le faltarán recursos. A efectos de comparación, en 2022, OpenAI perdió 540 millones de dólares y se puso a buscar nuevos fondos que serían destinados, en lo sustancial, a equiparse con una infraestructura de Nvidia y a contratar más capacidad en la nube de Azure. Asimismo, pensar en estos momentos en desarrollar GPT-5 sería una temeridad política, a la vista de las suspicacias que ha despertado su precedente. Y una quimera económica, puesto que dispararía los costes a niveles inauditos.
Con este margen de maniobra juega Google: sabe que Anthropic, una empresa fundada por ex empleados de OpenAi con la que se dice anda en conversaciones, trata de recaudar 5.000 millones [ojo, es una startup con menos de dos años de vida] para financiar su continuidad, toda vez que desarrollar su próximo LLM (Large Language Mode) le costaría como poco 1.000 millones y dieciocho meses de trabajo.
¿Por qué cuestan tanto estos modelos de lenguaje? Básicamente, porque su capacidad de procesamiento requiere aceleradores gráficos especializados. De entrada, ejecutar a gran escala un modelo GPT-3 puede costar 100 millones de dólares, lo que pone en evidencia que el primer beneficiario del quehacer de OpenAI es Nvidia, auque Microsoft se ha ganado el protagonisma. A medida que sube el numeral del modelo, los costes – incluída la energía, muy importante – se elevan exponencialmente.
Este esfuerzo tecnológico tiene su reflejo en las tarifas que se cobran a las empresas por usar las API de los distintos modelos. Abaratar los costes es un elemento crucial de la contraofensiva de Google. En Mountain View están convencidos de que podrán utilizar modelos de lenguaje más pequeños – y más baratos, claro está -sin mengua de rendimiento. Dicho de otro modo, la compañía aspira a proponer API con modelos de lenguaje de muy alto rendimiento a costes de servidor muy inferiores a los de OpenAI. El abaratamiento, además, disuadiría de utilizar alternativas open source gratuitas, ya que el coste se reduciría lo suficiente como para compensar la tarifa.
El quid de la cuestión es, por consiguiente, si Google sería capaz de llevar a la realidad aquello que plasma sobre el papel. El modelo de Google, LaMDA de 2021, contaba con hasta 137.000 millones de parámetros. Su evolución, PaLM (2022) subió hasta los 540.000 millones y para el PaLM 2, que se anuncia para este año, la compañía se ha callado unos números que, apunta, serán “significativamente más bajos”.
La versión más pequeña de las cuatro desarrolladas de PaLM 2 se puede ejecutar en un teléfono móvil o en un PC sin conexión a Internet. Esto da una idea de lo que el modelo más grande representa en ahorro de costes comparado con GPT-4. Otra cosa es su rendimiento, que todavía no está claro porque las comparativas proporcionadas por Google todavía resultan insuficientes. A medida que la fiebre del oro avanza, las compañías se hacen más opacas por momentos: Google no detalla gran cosa acerca de PaLM 2, lo mismo que puede decirse de OpenAI y su GPT-4.
Por otro lado, Google quiere ser competitiva gracias al coste del hardware. Nvidia está haciendo su agosto con sus GPU (Graphic Procesing Unit) por la vorágine de la IA, pero Google se ha escapado explotando su propio TPU (Tensor Processing Unit). El hecho de llevar mucho tiempo investigando sobre IA ha proporcionado a Google una base diferenciada sobre la que levantar su estrategia.
No hay que olvidar que, cuando sus rivales andaban en otras batallas, la compañía que dirige Sundar Pichai llegó a desarrollar su propio chip para móviles con el objeto de llevar a su smartphone Pixel más funciones de IA; lo mismo ocurre con sus aceleradores: en 2015, Google desarrolló la primera versión de su TPU con la idea de utilizarlo internamente, pero en la actualidad, las versiones de 2 a 4 están disponibles para alquilar en la nube Google Cloud, proporcionando sustanciales ahorros por comparación con Nvidia.
Por su lado, Amazon Web Services tiene su propio acelerador, en este caso basado en Intel, mientras que Microsoft trabajo en el suyo para Azure con la ayuda de AMD. Sacudirse la dependencia de Nvidia (y sus altos precios) es un denominador común pero sólo para quienes pueden permitírselo.
Esta aproximación a la IA es la que Google ha hecho visible en su evento I/O de este año. Entre la larga lista de anuncios destaca su primer smartphone plegable Pixel Fold, cuyo precio es de 1.800 dólares; a su lado, otro de bajo coste, Pixel 7A. Asimismo, el intento de consolidación de Matter para su propuesta Google Home – ahora más fácil de gestionar desde un smartwatch – o las mejoras introducidas en Android Auto para llevar a los coches YouTube, navegación y videoconferencia (en colaboración con Cisco y Microsoft) son testimonio de sus incursiones en la IA.
Asi es: todas las novedades mostradas en Google I/O tienen, en mayor o menor medida, una pátina de IA. Pero más interesantes si cabe resultan ser los movimientos relativos a otros servicios. Uno de los más destacados es el Duet AI for Workspace, pensado como confrontación con Copilot 365, de Microsoft. El objetivo es aplicar su variante de IA generativa a Google Docs, Sheets y Slides para crear descripciones de trabajo, escribir narrativa o generar automáticamente hojas de cálculo para rastrear información. Hacia finales de año, llegará Magic Eraser, que Google considera como una versión móvil y rápida de Photoshop como app de retoque fotográfico: gracias a la IA, permitirá realizar modificaciones sin conocimientos técnicos. No queda claro si las imágenes serán etiquetadas como manipuladas, pero sí llevarán una marca de agua como advertencia de que han sido generadas por ordenador. Esta es la manera que Google ha encontrado de curarse en salud frente a las inquietudes éticas que han suscitado los últimos anuncios de OpenAI.
En la misma línea y comenzando por Estados Unidos, los usuarios de Google podrán hacer búsquedas y obtener resultados generados por IA con resúmenes de las webs; los de Android podrán aprovechar el chatbox Bard para disponer de más prestaciones en las aplicaciones de mensajería, con respuestas, sintaxis e incluso tonos sugeridos para conversaciones diferentes.
Por si estas iniciativas no fueran suficientes, Google ha empezado a allanar el camino para mejorar – ¡a buenas horas! – sus relaciones con los reguladores, a menudo hostiles. En este momento, la compañía es la única BigTech que trabaja estrechamente con las instituciones europeas en lo que ha dado en llamarse Pacto de IA. Tanto es el cuidado que, pese a haber anunciado en I/O 2022 que el chatbot Bard estaría disponible en 180 mercados, no hay noticia de que Europa se encuentre en la lista.
Sundar Pichai se ha ocupado personalmente de cultivar el buen rollo con Thierry Breton, comisario europeo de Mercado Interior y persona de trato menos áspero que su colega de Competencia, Marghete Vestager.
La idea que comparten Pichai y Breton es establecer un clima de colaboración con los legisladores europeos para confeccionar un conjunto provisional de reglas o estándares voluntarios mientras la futura Ley de IA sigue su curso, algo para lo que hará falta paciencia porque, en el mejor de los casos, no se aprobará antes de final de año y su implementación llevará otro año por lo menos, ya que entretanto habrá elecciones europeas y se renovará la Comisión.
Podría decirse que Google es la compañía decana en la investigación sobre IA, pero esto no tiene por qué ser sinónimo de que siempre haya mantenido una estrategia coherente. Tampoco que en el resto de sus productos haya sido capaz de primar la rentabilidad. Con estos factores en consideración y puesto que desde 2006 la compañía ha lanzado y luego eliminado 281 productos, hay que ser cautelosos en la evaluación de su enfoque actual de la IA. Puede ser un trampolín para levantar un motor de búsqueda que no pasa por su mejor momento y fortalecer el resto de la oferta.
[informe de David Bollero]