Entre las grandes tecnológicas que algunos ingeniosos han bautizado como “los siete magníficos”, Meta no es un actor que vaya a remolque en el movimiento hacia la inteligencia artificial generativa. Todo lo contrario, su equipo lo lidera como director científico Yann LeCun, un respetado investigador y catedrático especialista en redes neuronales. El negocio de la compañía es de los que más pueden beneficiarse de la introducción de la GenIA en sus servicios. Además, su enfoque basado en código abierto se desmarca del de otros primeras espadas. Son rasgos que aconsejan prestar atención a la presentación de Llama 3, su modelo de IA generativa.
Mark Zuckerberg
Está destinado a vertebrar toda la oferta del grupo, empezando por WhastApp. Como colofón, Mark Zuckerberg ha prometido que tendrá un rendimiento equiparable o superior a los chatbots de OpenAI, Google y otros rivales, todos de carácter propietario.
Como en otros casos – Google y Anthropic salieron al mercado con esta distribución – Meta ha preparado tres versiones de Llama 3. Dos de ellas ya están disponibles, con 8.000 y 70.000 millones de parámetros; el motor más completo, de 400.000 millones, aún está esperando la hora del lanzamiento. Para compararlos, los sistemas más potentes de OpenAI – adoptados por Microsoft como socio exclusivo – elevan la cifra a 2 billones de parámetros.
Estas variables internas, que los modelos grandes de lenguaje utilizan para devolver resultados al usuario, suelen considerarse un indicador de la complejidad del algoritmo. Y esta se vincula a la calidad de las respuestas. Sin embargo, la IA de Meta se comporta mejor que sus competidores em algunas métricas públicas, por lo que se presenta como mejor en ciertas tareas.
Dejando aparte esta supuesta guerra de parámetros, llevan camino de convertirse en una fuente de valor cuyo aumento numérico refleja sólo una pequeña parte del rendimiento, por lo que nominalmente Llama 3 estaría en el club de los sistemas punteros. Zuckerberg no lo ha lanzado para asombrar al mundo, sino con un propósito de monetización. Su asistente Meta AI ha sido incrustado en la caja de búsquedas de WhatsApp, Instagram, Facebook y Messenger [todavía no ha llegado a Europa y por ahora sólo está disponible en países anglófonos]. Los usuarios tienen que escribir @meta.ai para hacer peticiones al chatbot, que devuelve textos e imágenes generadas.
La introducción de esta forma de IA en las redes sociales de Meta tiene un objetivo que no se disimula: preservar el modelo de negocio que se caracteriza por sus generosos márgenes y está basado en la publicidad. Se trata, en suma, de mantener a los usuarios dentro de las aplicaciones de la compañía sin necesidad de recurrir a terceros para resolver las consultas. El chatbot puede actuar, incluso, como una forma de incrementar el tiempo que los usuarios pasan por una de esas aplicaciones, es decir: a más uso, más interactividad, por lo tanto más oportunidades de mostrar anuncios. Un ejemplo, supuestamente corriente, sería este: en una conversación online entre amigos se habla (sic) de destinos vacacionales: de ello es lógico esperar que Meta sea la primera opción para buscar vuelos o comprobar precios de alojamientos. Dicho con menos palabras: desplazar a Google de la pantalla sin salirse de WhatsApp o Instagram.
No es esta una perspectiva halagüeña para Google, ya que la estrategia de Meta encaja con los hábitos de las nuevas generaciones, que recurren a “verticales” como TikTok e Instagram para cierto tipo de búsquedas. Si esta clase de plataformas ampliaran sus capacidades, los buscadores tradicionales tendrían áms difícil acceder a ese público.
El asistente de IA también propone al usuario instrucciones o prompts según el contexto: puede ser un mensaje de buenos días al grupo de familia, si así se le pide, o puede generar imágenes en tiempo real: a medida que el usuario escribe, se va formando una imagen cambiante hasta que acaba la frase y queda definida. Se comprende que sea un motivo de asombro con poca utilidad práctica, pero aun así podría tener buena acogida entre una fracción de los 3.000 millones de usuarios que acumula Meta.
Vuelve así el latiguillo de la economía de la atención, que hace años fue consagrada como efímera explicación de casi todo lo que pasa en Internet. Desde este punto de vista, Meta AI se postula como un arma para competir: no solamente contra otras redes sociales, sino también con servicios como Netflix o YouTube o, por qué no, con cualquier sitio web en el que el usuario pase tiempo y tenga un medio de pago al alcance.
Asimismo, se puede acceder a Meta AI a través de un sitio web que en algo puede recordar a ChatGPT. Es gratuito, aunque presto aparece un mensaje incitando a iniciar sesión con Faceboolk para ayudar a entrenar el modelo. Asoma uno de los grandes intereses de los desarrolladores de IA: conseguir datos de calidad para mejorar sus sistemas. Con Llama 3, los ingenieros de Meta han empleado diversos métodos de filtrado de la información: deduplicación de datos, filtros heurísticos o clasificadores de texto, con los que se pueda descartar información errónea o de pobre calidad. De esta forma, se procedía a una selección previa de los datos con los que convenía entrenar al algoritmo.
Otra entre las fórmulas utilizadas para mejorar la precisión es la mediación de un analizador léxico, con un vocabulario de 128.000 tokens [piezas que para un LLM pueden ser palabras, un grupo de caracteres o incluso frases enteras]. Esta herramienta ha ayudado a codificar el lenguaje de una manera más eficiente, con una mejora significativa del rendimiento. En comparación con Llama 2, entrenado con 2 billones de tokens, la tercera generación se ha nutrido con 15 billones de tokens procedentes de fuentes públicamente disponibles.
El hecho de que el modelo de Meta se base en código abierto lleva asociadas algunas limitaciones, especialmente en el entrenamiento y la verificación, así como en el aprendizaje por refuerzo con retroalimentación humana o, por último, en la calidad de los datos. Sin embargo, las posibilidades de expansión entre los desarrolladores, cuyo trabajo podría enriquecer las futuras versiones, compensa con creces los factores negativos.
Así, al menos, lo expone Zuckerberg con su verbo taxativo: compara este escenario con el que la compañía vivió a inicios de la década pasada. Recuérdese que por aquel tiempo Google había transformado el diseño de sus centros de datos con funcionalidades definidas por software. Facebook no tenía capacidad para acometer un proyecto similar, de manera que creó su Open Compute Project. Y no tuvo reparos en publicar el diseño de sus servidores, switches de red y centros de datos: muchos fabricantes, a la vista del potencial de compra de lo que entonces se llamaba Facebook, adoptaron esos diseños y los convirtieron en estándares. Las consecuencias fueron positivas para la compañía, porque la fabricación de sus servidores se abarató.
La esperanza de que otros desarrolladores descubran cómo ejecutar a menor coste modelos de IA – como Llama 3 en su caso – es una de las motivaciones de Meta para trabajar con código abierto. Sobre todo si se tiene en cuenta la voracidad de cómputo de estos sistemas. Aunque, desde luego, cualquier mejora de rendimiento, venga de donde venga, será bienvenido.
A lo que se suma otro argumento de Zuckerberg con el que justificar su enfoque: no quiere que un grupo de compañías tenga el control de las API de modelos de IA e imponga sus condiciones a los desarrolladores. No sería bueno para Meta, puesto que su forma de atrapar la atención se fundamenta en una avalancha de contenidos generados por los propios usuarios. A riesgo de resbalar en el simplismo, es posible concluir que cuantos más sean y cuanto más evolucionados estén los sistemas de generación de contenidos, mejor para Meta y el mesianismo de su cliente.
El código abierto no está exento de riesgos. Por ejemplo, hace más difícil imponer restricciones a un actor potencialmente malicioso. Y surgen incertidumbres con respecto a la aplicación concreta de Llama 3. Su integración con las redes sociales podría expandir algunos de los problemas conocidos, como la desinformación, los discursos de odio o la proliferación de contenidos extremistas. El generador de imágenes también plantea dudas sobre cómo representará el género o las personas ´racializadas` uno de los aspectos fundamentales para evaluar el rendimiento del modelo será cómo se comporte en el mundo real. Se necesita tiempo, como es natural, pero los primeros casos de conversaciones fallidas ya han aflorado. La inteligencia artificial se utilizó en una conversación de un grupo de madres de Manhattan afirmando – falsamente – que tenía un nicho escolarizado en el distrito. En otro foro de Facebook, dedicado a la compraventa de objetos de segunda mano, el chatbot ofreció un lote de artículos en supuestas condiciones de uso que, por supuesto, no existían en el mundo real.
Son ejemplos, entre otros, que ilustran la persistencia de alucinaciones pese a las mejoras derivadas de un entrenamiento con más datos y un ajuste más preciso de los modelos. Ninguna de estas objeciones resta velocidad a la carrera por la IA. Durante al año siguiente al lanzamiento de ChatGPT, aparecieron nada menos que 149 LLM, el doble que en el ejercicio anterior. Ahora, con Llama 3, Meta se coloca en la parte alta de la competición, aunque OpenAI – el rival que todos miran – ya está preparando GPT-5. Nada fuera de lo previsible y precisamente por esto, Zuckerberg ha advertido que Meta trabaja en Llama 4 y Llama 5.
[informe de Pablo G. Bejerano]