19/06/2025

Confirmado: Gemini será el alfil de Google

La conferencia I/O de Google ha ratificado algo conocido: la inteligencia artificial es y será el eje principal de la estrategia de la compañía. Sobran razones. Una, Google cuenta con el aval de años trabajando intensamente en la materia   y entre las llamadas Big Tech es, con seguridad. la mejor preparada para competir con la inestable pareja formada por Microsoft y OpenAI. Otra, más urgente si cabe:  en la IA reside la capacidad de Google para librarse de las consecuencias de la sentencia que califica a la compañía como monopolista en las búsquedas online, que tomará forma con los “remedios” que un juez federal decidirá en agosto y que la compañía sin duda va a recurrir.

Demis Hassabis

La sorpresiva reaparición del cofundador Sergey Brin – fuera de escena durante años   – para comunicar que se pone al frente de la investigación sobre AGI (inteligencia artificial inteligente] pudo ser contraproducente e incluso opacar la sensatez representada por el consejero delegado Sundar Pichai en tandem con Demis Hassabis, primer responsable de la filial DeepMind, que tenía proyectos tangibles que anunciar.

Esta puede haber sido una impresión. Porque Google Cloud Next 2025  ya había anticipado en abril que I/O callaría las bocas de quienes le reprochaban haberse dormido en los laureles en la lucha por liderar los avances de la IA. Desde su anfiteatro en Mountain View, la compañía desplegó una apabullante batería de anuncios. Un par de cifras, para empezar: dijo Pichai que Google procesa 480 billones de tokens al mes, cincuenta veces más que hace un año y casi cinco veces más que los 100 billones de tokens que – según Satya Nadella – procesa Microsoft [100 tokens representan, convencionalmente, 75 palabras].

Tanto o más importante era proclamar que ya hay más de 7 millones de desarrolladores construyendo modelos y aplicaciones con la API de Gemini. Cinco veces más que en la anterior I/O. Asimismo, el uso de Vertex AI se ha disparado más de cuarenta veces.

Estas magnitudes dicen mucho, pero no todo. El modelo Gemini, en todas sus versiones  , encabezó nuevamente la avalancha de anuncios esta edición de la conferencia. Un anticipo de la intención de llevarlo a todos los dispositivos del ecosistema Google (incluídos smartphones, coches y relojes inteligentes). Con la versión actualizada de Gemini 2.5 Pro, la compañía afirmó poner en el mercado su modelo más potente hasta la fecha. Para el caso de las operaciones matemáticas complejas y su programación, Gemini aporta una versión 2.5 Pro Deep Think, que no está disponible al público general sino exclusivamente a testers de su confianza. Para bolsillos corrientes está Gemini 2.5 Flash, que espera un lanzamiento universal.

Como se ha dicho, I/0 2025 dio oportunidad a Sergey Brin, uno de los dos fundadores, a dejar su impronta [“tenemos la firme intención de que Gemini sea la primera IA general”] con la que se sumó a la saga de visionarios en boga. Frente al triunfalismo de Brin, que llegó a ponerse fecha (antes del 2030), sobresalió el contrapunto racional de Demis Hassabis, cerebro científico de Google (e hipotético objeto de celos por parte de Brin). Desde el mismo estrado, Hassabis reclamó claridad, moderación y rigor científico, ayudando a no confundir el valor de un  asistente digital para la vida diaria y los hallazgos que le han valido el premio Nobel del año pasado. La puntilla fue esta afirmación:  “nuestros sistemas no son lo suficientemente consistentes como para ser considerados completamente generales”, aunque matizó: “son ya bastante generales”.

Aunque Pichai no dijo una sola palabra alusiva al proceso contra Google relacionado con su dominio del mercado de buscadores, en el ánimo de los presentes – y de quienes conectaron con la conferencia – que el motor de búsqueda es nuclear en la estrategia de Google porque lo es en su cuenta de resultados. De 90.200 millones de dólares ingresados el trimestre pasado, 50.700 millones procedieron de la categoría Search, a mucha distancia de los 8.900 millones de YouTube, que ocupa el segundo lugar y, por cierto, es una valiosísima base de información para entrenar el modelo de Gemini.

Tras superar las alucinaciones y plagios que contaminaban AI Overviews cuando fue presentado en la I/O del año pasado, Google ha querido ser muy escrupulosa al perfeccionar su gran novedad de 2025, AI Mode, opción que ya está disponible pero sólo en Estados Unidos.

AI Mode y AI Overviews – con 1.500 millones de usuarios mensuales, que se dice pronto – sirven a Google como banco de pruebas en vivo para ajustar la latencia, calidad e incluso el formato de los anuncios futuros. Diseñado para responder consultas complejas – que pueden abarcar varias preguntas – AI Mode aparece en una pestaña discreta dentro de los resultados de búsqueda. Esta misma función, pero en el marco de Google Labs, se extiende a las compras como asistente: hace búsquedas complejas de diferentes combinaciones mostrando, además, una simulación del resultado, ya se trate de ropa o mobiliario, entre otros ejemplos.

Es fácil imaginar por qué una de las bazas con las que juega Google para potenciar su IA son las imágenes. Gemini Live combina la información de la cámara del teléfono, los comandos de voz para buscar en la web, hacer llamadas y recopilar información. En la práctica, es la madurez de los experimentos que la compañía describía el año pasado bajo el nombre de Project Astra.

Otro de los anuncios en torno a Gemini fue Agent Mode, que incluirá próximamente en su app, de manera que los agentes de IA podrán investigar y completar tareas a demanda del usuario; o su integración en Workspace para ofrecer lo que – al menos en la versión mostrada en Mountain View – se denominada Personalized Smart Replies; esto es, la generación automática de respuestas, por ejemplo en Gmail, que adoptan el tono y estilo del usuario apoyándose en todo su contexto personal (documentos, correos electrónicos y otros contenidos) en las diferentes apps de Google.

Asimismo, llega Deep Research, para que sean los propios usuarios los que suban archivos que faciliten la labor de los agentes de IA en sus respuestas, así como Gemini in Chrome – disponible para suscriptores de Google AI Pro y Ultra – que responde a las consultas utilizando el contexto de la página web en la que se encuentra el usuario. Además, en caso de detectar una contraseña  comprometida, hacia finales de este año Chrome generará una contraseña segura, actualizándola de manera automática en los sitios web.

En esta misma línea, el Project Mariner, que se presentó el pasado año como una función multitarea y que permitiría a un agente de IA trabajar en hasta diez tareas simultáneamente, ha incorporado una serie de prestaciones nuevas, como Teach and Repeat, con la que el agente de IA aprende de tareas previamente completadas para finalizar otras similares sin necesidad de tener que seguir nuevamente las mismas instrucciones. El objetivo es llevar estas capacidades a Chrome, Google Search en su AI Mode y a Gemini. Además, Google presta una atención especil a los desarrolladores y, de hecho, estas capacidades se lanzarán en verano a través de la API de Gemini, con partners como Automation Anywhere y UiPath, que ya están desarrollando sobre ella.

En esta su esperable trayectoria multidispositivo, Google juega con productos muy populares, como NotebookLM, que resume y extrae información de fuentes complejas o, incluso, puede generar podcast basándose en ese contenido, que salta también a Android e iOS. Otros lanzamientos se percibieron como más necesarios que revolucionarios en el sentido de que pretender asaltar sin ellos el trono de la IA sería competir en inferioridad de condiciones. Es el caso de Jules, agente de codificación asíncrona en versión beta pública, dirigido especialmente a desarrolladores. Estos disfrutarán adicionalmente de un nuevo modelo de síntesis de voz en diferentes idiomas.

Ya no es que Jules llegue para competir con Codex de OpeAI o con el nuevo GitHub Copilot de Microsoft, estos son parte de una corriente cada vez más asentada   . Sin alejarse de Google, existen otras soluciones para la programación de IA en la creación de aplicaciones: Code Assist, AI Studio y Firebase.

En esta misma órbita de soluciones impulsadas por IA que los actores principales del mercado van convirtiendo en commodities, podrían encuadrarse el generador de interfaces Stitch, disponible en Google Labs; el generador de imágenes Imagen 4; el generador de vídeo Veo 3; o el creador de películas Flow, que aprovecha los anteriores para crear videoclips de ocho segundos generados por IA, basados ​​en indicaciones de texto o imágenes.

Otra de las iniciativas que avanza es Google es conocida como Project Starline, que pasa a denominarse Google Beam. En colaboración con HP, la idea es generar una imagen en 3D de la persona con la que se habla por videollamada. Empresas como Deloitte y Salesforce ya han dicho que lo implantarán en sus oficinas. Como parte de este proyecto de comunicación inmersiva, Google Meet incorpora (en versión beta) la traducción simultánea en inglés y en español para los suscriptores de Google AI Pro y Ultra. Asimismo, en un intento por superar el fiasco de Google Glass, llega ahora el Project Aura, unas nuevas gafas inteligentes desarrolladas en colaboración con Xreal y que utilizan la plataforma Android XR para dispositivos de realidad mixta, a la que se han subido para sus proyectos cientos de desarrolladores. No será el único modelo, dado que Google también se ha asociado con Samsung y otros para crear unas gafas inteligentes Android XR en el bautizado como Project Moohan, anunciado el año pasado y cuya previsión de disponibilidad se ha desplazado a finales de 2025.

La IA cuesta dinero y de eso algo podrían decir los que se lanzaron a conquistar el mercado naciente. Por eso mismo, de todos los anuncios de I/O, tan sólo unas pocas funcionalidades de IA serán gratuitas para los usuarios de Android y de aplicaciones web de Google; especialmente las más potentes requerirán suscribirse a algunos de los modelos. Lo que antes de conocía como AI Premium de Google ahora se llama Google AI Pro y, aunque mantiene el precio de 20 dólares al mes, sus funciones son más limitadas. El paquete completo de servicios es Google AI Ultra, cuyo precio se eleva a 250 dólares al mes, lo que supone que es 50 dólares más caro que el modelo equivalente de OpenAI (ChatGPT Pro).

La carrera emprendida por Pichai para alzarse con el trono de la IA es contrarreloj. Por un lado y aunque se adivinen años de batalla judicial, los problemas legales con el departamento de Justicia de Estados Unidos y, a otra escala, la Comisión Europea y su ley de Mercados Digitales, podrían afectar el alcance deseado para Gemini. Por otro, los competidores no se quedarán quietos.

Microsoft ha presentado su propia cosecha de IA en la conferencia Build 2025; OpenAI ha crecido hasta los 600 millones de usuarios semanales (Gemini tiene 400 millones) y Amazon tiene una estrategia calculada: amplía en Bedrock su suporte para los modelos de Meta, Mistral y Cohere. Por otra parte, la sugerente asociación entre Palantir y xAI [que refreca el antiguo compincheo entre Peter Thiel y Elon Musk] no agotan la competencia: irrumpen promesas como Perplexity y su navegador Comet, basado en IA, que aspira a batallar nada menos que contra Chrome. El próximo curso se prevé animado.

[informe de David Bollero]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2025 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons