Al ritmo que galopa la IA, dos años de espera pueden desesperar a cualquiera. Es el tiempo que ha tardado en aparecer GPT-5 desde la anterior versión con número redondo. Y con los retrasos sucesivos brotaron las especulaciones, como se podía esperar: 1) que si OpenAI ha perdido fuelle; 2) que si la tecnología subyacente ha tocado techo o 3) que si la saga ha perdido su capacidad de transformar. Realmente, no será lo uno ni lo otro, pero las posiciones dejan pistas acerca de cuál podría ser el foco de las empresas de IA en los próximos meses. A primera vista, GPT-5 no es el salto tecnológico que predica Sam Altman ni siquiera ha conseguido la caducidad de sus versiones anteriores.

San Altman
Tratando de inflar las expectativas, el fundador de OpenAI ha afirmado que GPT superaría a cualquier individuo en casi cualquier tarea con valor económico. Hablar con el modelo –llegó a decir – sería como hacerlo con un doctorado en todas las materias. No será esta la última declaración de Altman, quien confiesa padecer insomnio desde el día en que anunció el GPT original. El dictamen de quienes no forman parte de su cuadrilla es neto: lo que GPT-5 renuncia a buscar la épica.
Destacan las mejoras en capacidades multimodales y en programación. Una de las fórmulas que tiene el modelo para incrementar su rendimiento en este último campo es una “cadena de pensamiento” más refinada: se detiene más en explorar las opciones, activar mecanismos de lógica y buscar la respuesta más adecuada, especialmente con cuestiones complejas. El sistema también sobresale en el llamado ‘vibe coding’, que permite desarrollar código e incluso aplicaciones completas, mediante instrucciones en lenguaje natural.
Una de las ventajas más mentadas desde que se presentó GPT-5 es la disminución de las alucinaciones. Según OpenAI, las tasas de alucinación se han reducido hasta en un 80% respecto a modelos anteriores. Cifras aparte, la mejora del sistema en este aspecto abre las puertas a una mayor adopción entre las empresas. Y es que las alucinaciones / son citadas corrientemente como uno de los grandes riesgos que presentan los LLM.
Otras medidas de lijado y pulido incluyen el aumento de la ventana de contexto. GPT-5 puede procesar hasta 400.000 tokens de una vez. Es un incremento sensible respecto a los 128.000 tokens que abarcaba GPT-4o. Aunque lo más apreciado en este plano probablemente sea que el rendimiento se mantiene prácticamente sin deterioro hasta los 256.000 tokens. En las versiones anteriores. la precisión se degradaba mucho más rápidamente, a medida que aumentaba la longitud del contexto. Esto permitirá llevar a cabo mediante una consulta normal una tarea que antes se apoyaba en RAG (retrieval-augmented generation) o documentación concreta, demasiado extensa para incluirla en las preguntas a un LLM .
En su favor podría decirse que GPT-5 está pensado para competir y no para asombrar, que hasta la fecha es lo que ansía todo actor dentro del campo de la IA generativa. Y para hacerlo también se orienta al ahorro de costes de computación. Altman ya apuntó que dará prioridad al crecimiento y a la inversión en sus productos antes que a buscar la rentabilidad. Pero claro, debe ralentizar la hemorragia de dinero de OpenAI.
La startup de San Francisco tiene previsto alcanzar ingresos de casi 13.000 millones de dólares este año. En 2024, la facturación se estimó en 3.700 millones, pero la compañía se dejó pérdidas de 5.000 millones de dólares. Este año se espera que pierda en torno a 8.000 millones. Gran parte de esta fortuna se va en gastos de computación, tanto para entrenamiento como para ejecución de los modelos.
Y GPT-5 ha nacido con el propósito de rebajar costes. Para empezar no se trata de un único modelo sino de una colección de versiones con la misma arquitectura. Cuando el usuario hace la consulta, el modelo decide mediante una función de routing hacia qué variante la dirige. Así se evita utilizar las capacidades de razonamiento cuando no son necesarias, recortando el consumo de recursos. Al menos existen dos variantes, GPT-5 y GPT-5-mini, para quienes usan el servicio de forma gratuita, mientras que los suscriptores tienen acceso a GPT-5-thinking-pro.
Las expectativas en esta fórmula eran tales que la compañía dejó de ofrecer el resto de sus modelos anteriores, incluso para sus usuarios de pago. La idea era unificar el uso que se hacía de los modelos en ChatGPT, abandonar otros sistemas cuyo consumo no está optimizado como el de GPT-5 y que a OpenAI le cuesta un dinero mantener activos. Al final, ofrecer varias generaciones de modelos requiere tener disponibles múltiples generaciones de infraestructura. No son condiciones óptimas para una empresa que suspira por los centros de datos. Aparte de la alianza con Microsoft para obtener capacidad de cómputo de Azure, la startup ha firmado con Google Cloud y CoreWeave , pero planea levantar su propia infraestructura junto a Oracle.
El movimiento inicial con GPT-5 no le salió bien a Altman, que tuvo que dar marcha atrás a las pocas horas. Los usuarios de GPT-4o y otros modelos se quejaron. Muchos de ellos ya tenían flujos de trabajo y prompts diseñados para estos sistemas y que no servían en el flamante GPT-5. Hubo quien protestó también porque la IA nueva se mostraba más formal y menos aduladora en las interacciones. OpenAI dio a elegir de nuevo a sus usuarios de pago entre sus modelos anteriores, aumentó el límite de mensajes para GPT-5 hasta los 3.000 semanales (había impuesto un tope de 200) y ahora permite influir a los suscriptores en la versión que usa GPT-5.
El batacazo reputacional, aunque resuelto con celeridad, ha dado alas a rivales como Google y Anthropic, que acogieron a usuarios rebotados de OpenAI. La startup tiene una presión constante por demostrar avances significativos y no cometer el más mínimo error. No solo para mantener el liderazgo en la carrera sino para no perder el magnetismo con los inversores.
A principios de agosto, la compañía recibió 8.300 millones de dólares, como parte de la ronda de financiación liderada por SoftBank , cuyo plan se ejecutará a lo largo de todo 2025 . Al mismo tiempo, se rumorea que habrá una venta secundaria de acciones, que permitirá a los empleados deshacerse de sus participaciones. Está por ver el efecto que tendrá esta operación entre la plantilla, cuyo compromiso quedó desmejorado tras los abandonos que hubo en 2024.
Con todo, parece que la valoración total quedará en 500.000 millones. Una cifra espectacular que podría actuar como repelente para futuras rondas.
En la estrategia de negocio de OpenAI es clave permitir que su tecnología sea accesible para llegar a un público masivo. Con ello gana feedback y obtiene información sobre cómo se comportan sus modelos, aspectos básicos para avanzar en el desarrollo de la tecnología. Pero la empresa también busca copar el mercado. La opción no deja términos medios: expansión desbocada o irrelevancia.
Fue la primera en llegar, pero no cuenta con la superficie de contacto que Google tiene con los usuarios, a través de Android, el buscador o aplicaciones como Gmail. Tampoco ha apostado por la especialización, como es el caso de Anthropic, que se ha erigido en estandarte de una IA más segura y responsable, táctica que atrae a las empresas. Según un informe reciente de Menlo Ventures, los modelos de Anthropic ya son los más usados en el mundo corporativo (los utilizan un 32% de lacompañías estadounidenses frente al 25%, que usa los de OpenAI) y la diferencia se agudiza en tareas de programación (el 42% de las empresas se decantan por el rival y un 21% se quedan con la startup de Altman).
El panorama se antoja cada vez más competitivo. Hoy en día las diferencias de rendimiento no son tan grandes entre los modelos punteros de las compañías en la cresta de la ola. Así que la pelea se dirime en otros terrenos. Para captar a las empresas – único segmento que hoy por hoy garantiza un modelo de negocio sólo mediante suscripciones – OpenAI no lo tiene tan fácil como antes, porque el mercado no tiende a ser excluyente.
Las compañías utilizan una combinación de modelos de varios proveedores, de manera que los ingresos (y las oportunidades de crecimiento) se reparten.
Una muestra de la ambición de OpenAI por abarcar más, es la capacidad de personalización que tiene GPT-5. La nueva interfaz de ChatGPT permite conectar el servicio con Gmail, el repertodio de contactos y Google Calendar. No hay engaño: es un paso para convertirse en asistente personal, al estilo del que aspiraban a ser Alexa o Siri. Este movimiento sería un paso más natural para Gemini, que ya cuenta con todo el ecosistema de Google a su disposición, pero la popularidad de GPT-5 es un obstáculo.
Y hablando de alianzas forzosas, el matrimonio con Microsoft lo parece cada día más. No por gusto de las partes, sino porque Satya Nadella depende de OpenAI para nutrir a Copilot y desplegar IA generativa en Office 365, pero ya tiene a una división de IA trabajando para desarrollar modelos competitivos. Al mismo tiempo, Sam Altman ha recortado su dependencia de Azure y sabe que una distribución de sus productos por cuenta propia es mucho más lucrativa que a través del canal de Microsoft. Por ahora, la necesidad los mantiene atados.
Con GPT-5 también se ha puesto de manifiesto otra pata de la estrategia de OpenAI, como es el código abierto. Irónicamente, la startup comenzó lanzando sus modelos bajo esta clase de licencias —su nombre no lo puede decir más claro— pero dejó de hacerlo en 2019. Los dos sistemas de este tipo que OpenAI acaba de poner a disposición de cualquiera no son una excepción. Meta adoptó el código abierto hace tiempo para acelerar sus desarrollos, y xAI, la iniciativa de Elon Musk, ha publicado como open source una versión antigua de Grok, la 2.5.
Esta moda imprevista se dirige a combatir la influencia que tienen las compañías chinas, como DeepSeek, cuyos modelos se basan en código abierto. Es una forma de atraer desarrolladores a productos propios, para que se acostumbren a ellos y contribuyan a la programación, incluso podrían dar el salto a los productos comerciales. A la postre se trata de defender los propios modelos cerrados, destinados a ser la fuente de ingresos.
Pero no está claro que se pueda competir con las empresas chinas publicando solo modelos de segunda. Cuando DeepSeek revolvió el panorama lo hizo porque lanzó sus mejores modelos en abierto. Por ahora, parece que la estrategia no pasa de ser un ‘por si acaso’, pues aún no se sabe a ciencia cierta qué lugar ocupará el open source en el mercado de la IA. Pero Altman tiene que estar en todo, pese a que lo intenta.
[informe de Pablo G. Bejerano]
