8/05/2024

La artillería de Google apunta a la IA de Azure

A Google no le queda otra opción que avasallar y tiene artillería para hacerlo. Ante la ventaja aparente que le ha sacado Microsoft en la IA generativa, el gigante de Mountain View ha acorazado su oferta cloud con una batería de mejoras en sus productos. Porque, en realidad, la mayor parte de las novedades que ha presentado en abril podrían ser resumidas en una: integrar Gemini en herramientas asociadas a la nube de Google. Es la propuesta del tercero de los hyperescalares ante una demanda creciente entre las empresas. Es una tecnología – o una serie de ellas – que se anticipa tan necesaria para captar nuevos clientes como para retener los actuales. Esto pretendía ser Google Cloud Next.

El evento, promovido con abundante cromatismo por Google Cloud, fue un desfile de novedades destinado a incrementar una facturación  de 33.000 millones de dólares anuales. Es el 12% de lo que contribuye al negocio del holding Alphabet y el 11% del mercado en la nube, en el  que globalmente ocupa un tercer puesto. Con un cambio de tendencia: de pérdidas operativas en igual período de 2022, ha pasado contablemente a un beneficio operativo de 1.716 millones.

Si hubiera que destacar una entre tantas novedades de Google Cloud Next, la compañía ha volcado sus energías en reforzar su plataforma de inteligencia artificial Vertex AI, tratando de arañar unos puntos de cuota a los dos rivales que le inquietan, Microsoft Azure y Amazon Web Services. El objetivo principal es aguantar el pulso con Microsoft, que ha diseminado sus herramientas de IA a lo largo y ancho de Azure. Sin olvidar, claro está, que AWS ha trufado sus múltiples aplicaciones de terceros en las que parece tener predilección por Anthropic (de la que Google es inversor).

Una de las innovaciones de Vertex AI es el concepto de AI Agent. La plataforma de Google Cloud cuenta con una herramienta para crear asistentes basados en IA que completen tareas de cierta complejidad. Estos agentes están basados en el modelo Gemini, su respuesta de urgencia ante la aparición de ChatGPT: procesan información multimodal de forma simultánea y son capaces de conversar, razonar, aprender y tomar decisiones por sí mismos. Incluso pueden tratar con otros agentes de su misma clase.

De hecho, estos AI agents son una evolución de los chatbots bien conocidos. Con una diferencia: prometen completar tareas en lugar de servir únicamente de ayuda para acercar la persona a su objetivo. En algunos de los casos de uso que se presentaron como ejemplo, la demo consistía en seleccionar automáticamente – y con acierto – la ropa para un cliente en un portal de comercio electrónico; en otro, la resolución de dudas acerca de un plan de seguro médico privado (situación en la que un chatbot antiguo sólo respondería a parte de las preguntas de forma genérica), el actual se ajusta estrictamente al caso planteado.

El software para crear estos agentes permite a los usuarios combinar el uso de Gemini, motor de búsqueda de Google, con herramientas adicionales para desarrolladores. La compañía insiste en la facilidad de construirlos, en sólo tres pasos. Una ventaja de entrada para sus rivales en la nube, que probablemente se han puesto a imitar la iniciativa en esta carrera especular que todos corren.

La clave de las novedades presentadas por Google Cloud se encuentra en Gemini 1.5 Pro. El nuevo modelo se ofrece en una versión de 128.000 tokens y otra más completa, de un millón de tokens. Apuntan alto: se dijo que permitirían procesar grandes cantidades de formación: una hora de vídeo, once de audio, 30.000 líneas de código o 700.000 palabras en un único flujo. Este motor está detrás del Gemini Code Assist, que ayuda a los desarrolladores a construir aplicaciones y a llevar a cabo cambios en toda su base de código, incluída la adición de nuevas funcionalidades o el apoyo con una actualización. Las bases de código pueden residir en un servidor local o en plataformas como GitHub o GitHub.

Vertex AI incorpora una tecnología de texto a imagen, así como otra herramienta de generación de vídeo – Google Vids – que también sirve como asistente de edición. A estas posibilidades, catapultadas por la IA generativa, se suma la ciberseguridad. Las capacidades de Gemini se integran en la detección de amenazas, con el fin de que ser posible usar lenguaje natural para conseguir más información sobre las incidencias. Asimismo, el modelo permite aumentar la eficiencia en la investigación al automatizar el análisis de alertas y de gran cantidad de información en Internet para después presentar resúmenes a los técnicos encargados.

Una de las puntualizaciones fue que Vertex AI se apoya en el buscador de Google como garantía ante posibles alucinaciones de los modelos de IA. Es una fórmula para comprobar, gracias al motor de búsqueda, cualquier contenido generado automáticamente que sea sospechoso de imprecisión.

Aparte de Vertex AI, Google ha arropado componentes fuertes de su nube con Gemini. Uno de ellos, BigQuery, que ayuda con la preparación de los datos, ha obtenido capacidades de limpieza y organización de datos, mientras que el visualizador de datos Looker permite hacer consultas y conversar en lenguaje natural. Con la introducción del modelo de IA en Databases, los administradores pueden construir aplicaciones más  rapidamente y con instrucciones en lenguaje natural.

Google Cloud, rama del próspero tronco principal, se ha abrigado con una colección de partners con cuyo concurso se asegura el acceso a diferentes modelos de terceros, para favorecer las opciones de sus clientes. Entre ellos destaca Claude 3, de Anthropic. A esto se suma un acuerdo con Broadcom por el que VMware amplía su colaboración con Google tras años de privilegio (no declarado) en favor de AWS: añaden productos de Broadcom en Google Cloud Marketplace y se declara voluntad de lanzar iniciativas comerciales conjuntas. Otra compañía que ha estrechado sus relaciones con Google Cloud es NetApp, con la finalidad explícita de mejorar el uso de los datos para la IA generativa y otras cargas de trabajo alojadas en la nube híbrida.

En el ámbito del hardware, también es oportuno contar con partners de postín. Ha diseñado su primer chip basado  en arquitectura ARM para centros de datos, Axion. Según la compañía, aporta una mejora del 50% en el rendimiento y del 60% en eficiencia energética, en su contraste  con la generación comparable de x86. Este es un movimiento que responde a la demanda de hardware personalizado a la que se apuntan AWS y Microsoft. La nueva plataforma Blackwell de Nvidia estará disponible en Google Cloud dentro de un año, según anunciaron las dos partes. En el surtido, no podía faltar una nueva unidad de procesamiento Tensor v4p, orientada específicamente a acelerar las cargas de IA.

Además de la necesidad de competir con Microsoft, en la oferta transversal de Google Cloud se advierte la vocación de la compañía. Sundar Pichai ha aprovechado su turno en Next para dejar el mensaje de que a partir de ahora todo el grupo trabaja horizontalmente en el desarrollo de su IA, de forma que esta impacta en sus diferentes patas, desde el buscador a YouTube, obviamente en Google Cloud e incluso en el proyecto de coche autónomo Waymo. No en vano el CEO mandó reunir los equipos especializados en IA bajo la batuta de OpenMind. En la misma línea, ha ordenado unificar sus equipos de infraestructura de machine learning y los desarrolladores en ML para facilitar la toma de decisiones y mejorar la experiencia de los clientes, lo harán o no, con resultados mejores o no, pero mejor no lo podían contar.

En tal estado de cosas, Pichai ha vaticinado que Google Cloud y YouTube alcanzarán una facturación combinada de 100.000 millones de dólares en 2024. Son objetivos ambiciosos: en el primer trimestre del nuevo año fiscal, los servicios cloud ingresaron 9.600 millones de dólares, un 28% más mientras la popular plataforma de video llegaba a 8.100 millones de facturación.

Desde luego, a Sundar Pichai, que reúne en su persona los atributos de CEO de Google y del holding Alphabet, le interesa que estos productos crezcan. Sería, por un lado, reducir la dependencia financiera del buscador, que proporciona la mayor parte de los ingresos y los beneficios. En un contexto de incertidumbre acerca del modelo clásico de búsquedas, estos objetivos subrayados públicamente por el jefazo ddel grupo, debería ser un bálsamo para los inversores.

A todo esto, el Financial Times deja caer, como si nada, que Apple ha fichado en secetaro “docenas” de especialistas en IA que trabajaban en Google y para ellos ha instalado un laboratorio en Zurich. El equipo, con autonomía con respecto a California, estaría dirigido por un profesor de Carnegie Mellon, Ruslan Salakhutdinov, formado en Toronto por el patriarca de las redes neuronales, que trabajó años en Google antes de dimitir por discrepar con la política laboral de esta. Continúa, pues, la tradición por la que Apple y Google se roban mutuamente especialistas en IA: de hecho, el antiguo responsable en Google, John Giannandrea, fue fichado por Apple en 2018 para ocupar el mismo cargo, en el que continúa. Se habla, pretenciosamente de “guerra por el talento”.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons