A falta de inventor, la inteligencia artificial tiene muchos padres (y una madrina). Supuestos, porque la IA es un cauce de enfoques diferentes, a menudo discrepantes. Cuando Geoffrey Hinton abandonó Google consideró su deber moral advertir sobre los peligros de estas tecnologías y se centraron los focos mediáticos. Los mismos (o casi) que estos días se interesan en Yann LeCun – compartió con Hinton y Joshua Bengio el premio Turing – quien, tras dejar su puesto en Meta al sentirse ninguneado por Mark Zuckerberg, ha anunciado la inmediata creación de una startup para seguir investigando con una perspectiva económica. Que no será la de Zuckerberg, desde luego, pero tampoco la ética que predica Hinton.

Yann LeCun
Una vez certificado el fracaso de sus fantasía sobre el metaverso , Zuckerberg tiene otro capricho: llevar el entusiasmo actual sobre la IA generativa más allá de sus límites conocidos, encontrar una superinteligencia que iguale y según él supere las capacidades humanas. Lo que se propone LeCun no es este sueño sino perseverar en el desarrollo de modelos “de mundo”, destinados a entender cómo funciona la realidad física con el fin de simularla. La narrativa no es estrictamente nueva [observar el entorno, identificar la incertidumbre, predecir lo que va a ocurrir], pero está todavía en una fase tan embrionaria que no levanta pasiones ni sugiere titulares pretenciosos. De entrada, es un enfoque claramente diferente del que siguen los modelos vigentes LLM, que algunos especialistas ven próximos a agotar la paciencia de los usuarios.
Con esta finalidad, LeCun ha fundado la empresa AMI Labs (la sigla es de Advanced Machine Intelligence) con una financiación inicial de 500 millones de dólares, cuyo facilitador habría sido Nick Clegg, quien poco antes había dejado la vicepresidencia de asuntos públicos de Meta, disconforme con la ostensible aproximación de Zuckerberg a Donald Trump.
LeCun ha estado vinculado a Facebook (luego Meta) los últimos doce años, hasta ser premiado con el cargo de director científico de la compañía a la vez que mantenía su condición de profesor en las universidades de Nueva York y Montreal. Según contó en 2017 al autor de este blog, esa dicotomía fue una condición que puso para aceptar la oferta del magnate. En realidad, la trayectoria del científico es tanto más impresionante si se echa la vista atrás: trabajó con Hinton en su laboratorio de Toronto y pasó por los afamados Bell Labs , donde participó en el desarrollo de una tecnología para reconocimiento de escritura a mano que sería aprovechada para cotejar cheques bancarios. Entre sus contribuciones propiamente académicas, promovió las redes neuronales convolucionales y una técnica de rastreo de errores de predicción.
Estos méritos invitan a una mirada serena sobre sus proyectos futuros. AMI Labs, con sede en París, explorará los world models, expresión que en español se traduce con literalidad cuestionable. LeCun ha definido cuatro pilares para lograr lo que ensalza como “la siguiente gran revolución en inteligencia artificial” [por lo visto, los pleonasmos son irresistibles] que se traduciría en unos sistemas capaces de entender el mundo físico, tener memoria persistente y ser capaces de razonar y planificar secuencias de acciones complejas. Cualidades estas de las que carecen los LLM o que están todavía en un estadio primitivo.
Bajo la batuta de LeCun, Meta hizo importantes avances de los que los usuarios no tienen por qué ser conscientes. Una de sus aportaciones han sido PyTorch, el framework más utilizado hasta hoy, y fastText, un clasificador de texto en 157 lenguas. Además, su influencia atrajo a algunos de los mejores investigadores del momento a fichar por trabajar por la compañía. No estuvo personalmente implicado en el desarrollo del modelo Llama, pero inclinó el debate interno para que la segunda versión fuera de código abierto. Con este movimiento, la siguiente sedujo a la comunidad de desarrolladores en código abierto y siuó a Meta en condiciones de competir con otros gigantes tecnológicos embarcados en la creación de sus respectivos LLM.
A la postre, Llama 4 resultó un fracaso de mercado y LeCun lo atribuiría más tarde a una decisión errónea del fundador de Meta, que apostó por fórmulas trilladas en lugar de arriesgarse – esta es su opinión –a explorar otras opciones. La nueva familia de modelos se había quedado anticuada antes de salir al mercado, tal es la versión de la historia contada por LeCun; puede que en esa discrepancia estuviera la semilla de la ruptura posterior.
En cualquier caso, tras el malogrado lanzamiento de Llama 4, en abril del año pasado, Zuckerberg dio un volantazo. Para mayor afrenta, a finales de enero de 2025 la china DeepSeek sorprendió a todo el sector y, de la noche a la mañana, se erigió en líder de la IA en modelos abiertos, un título que Llama no consiguió para Meta.
Ante esta situación, en junio pasado, Meta acometió una inversión de 14.300 millones de dólares en Scale AI a cambio del 49% de participación. Casi desconocida, la startup tenía como dedicación conocida el etiquetado de datos para inteligencia artificial, que no justificaba el precio pactado. Pero el acuerdo de compra – además de eludir sospechas de los reguladores – apuntaba a otro propósito, el verdadero: fichar a Aleksandr Wang para ponerlo al frente de un nuevo equipo, bautizado como Meta Superintelligence Labs, en coincidencia con una reorganización que desmantelaría la estructura montada durante años por LeCun.
Este se encontró en una posición incómoda. Poco tardó Meta en despedir a unos 600 empleados de FAIR (Fundamental AI Research), creación transatlántica de LeCun, para concentrar los trabajos en la sede californiana. La incomodidad no se explica sólo por los despidos, ya que el ambiente no parecía propicio para la libertad que había disfrutado para investigar. En una entrevista, dejó caer que su primera diferencia no reside en que dobla la edad de Wang (28 años) sino en que este no tiene interés ni paciencia para la investigación. En otras palabras, la filosofía en materia de IA ha girado hacia el producto como objetivo prioritario.
Aleksandr Wang es un exponente del enfoque que prevalece en el Silicon Valley: entrenar con más datos y más potencia de computación permitirá desarrollar mejores modelos. De fondo radica una idea que recoge trayectorias anteriores: si se destinan suficientes recursos – que en esta coyuntura no escasean – a los LLM, emergerá una inteligencia comparable a la humana. Le Cun, de distancia de este planteamiento con el que hubo de contemporizar en su paso por Meta: los LLM tienen, según él, limitaciones que les impedirán alcanzar lo que la propaganda presenta como inteligencia artificial general (AGI).
Por estas razones – y alguna otra que se puede adivinar – el antiguo director científico de Meta ha salido rebotado de la compañía, pero no se comporta como un disidente al estilo de Hinton; tampoco ha creído oportuno fundar una non-profit para vigilar el curso ético de la IA, como sí ha hecho su colega Bengio.
En opinión de LeCun, los modelos grandes de lenguaje (LLM) no son suficientes para alcanzar la “inteligencia de nivel humano” (expresión que deliberadamente utiliza como sustituta de “superinteligencia”). “Funcionan extraordinariamente bien – ha dicho – en tareas específicas […] pero aun en el caso de reunir todos los sistemas posibles, no podrían hacer muchas cosas que son corrientes para la inteligencia humana, porque no tendrían capacidad de planificar, de razonar ni de comprender el mundo físico.
Aunque la referencia para cualquier conversación son los modelos LLM de la IA generativa, los modelos de mundo tienen de partida importantes diferencias. En lugar de predecir la siguiente palabra en un texto, se proponen predecir lo siguiente que pasará en el mundo real: serían – cuando existan – capaces de contener una representación fidedigna del entorno físico y de simular relaciones causa-efecto.
En 2022, Yann LeCun publicó en solitario un documento titulado A Path Towards Autonomous Machine Intelligence , en el que describía una arquitectura cognitiva completa de un modelo de mundo. Su componente esencial es la JEPA (Joint Embedding Predictive Architecture), pensada para predecir representaciones abstractas del mundo. Colaboradores y discípulos han engrosado la literatura en torno a JEPA, que se basa en código abierto. Pero estos modelos de mundo están en una fase demasiado temprana: se anticipa un salto cualitativo en robótica o en la habilidad de predecir las consecuencias de sus acciones, algo fundamental en el entrenamiento de coches autónomos o, dicho genéricamente, en el diseño de entornos de simulación en los que sea crucial su fidelidad a la realidad.
Desde el primer momento, se ha sabido que AMI Labs ha firmado un acuerdo exclusivo con otra joven empresa francesa, Nabla, especializada en el sector sanitario. De este vínculo podría salir un primer sistema: un esquema de certificación mediante IA de fármacos, que no incurra en el primer reproche a los LLM, su tendencia a alucinar.
Por cierto, la startup de LeCun no está sola en la carrera. Google lanzó Genie en 2024, un rudimentario modelo de mundo que va por la tercera versión . Mientras, el fabricante de chips Nvidia ha presentado Cosmos , plataforma de modelos de mundo orientada al desarrollo de la robótica. Hay otras iniciativas de interés, como World Labs, puesta en marcha por una profesora de Stanford, Fei Fei Li, apodada “madrina de la IA”, que ha recaudado 230 millones de dólares en una primers ronda de financiación. Todo es muy prometedor, como para ir pensando en sentar primeras piedras.
Informe: Pablo G. Bejerano