publicidad
  24/10/2025

Anthropic echa un pulso a la Casa Blanca

No puede decirse que Dario Amodei sea un rebelde sin causa; tiene una que es La inteligencia artificial. Entre aquellos que lideran el auge de la IA, es de los muy pocos que no se ha mostrado acomodaticio ni genuflexo ante las políticas y veleidades de la administración Trump. Anthropic, la empresa que fundó y dirige, se ha distinguido por mantener las distancias y esto tiene un precio. El impacto que pueda tener la IA sobre el empleo es el centro de una controversia no buscada con la Casa Blanca. Amodei se alinea con quienes abogan por un despliegue controlado de la tecnología, lo que le ha valido ataques de David Sacks, asesor presidencial en esta materia, quien le acusa de catastrofismo.

Dario Amodei

El empleo, ya se sabe, es asunto delicado. Lo es más, si cabe, en Estados Unidos, cuyos indicadores están declinando y es imposible no relacionarlo con la errática política económica de Trump. Aunque faltan trece meses para las elecciones legislativas de medio mandato, sus epígonos procuran enderezar la narrativa: uno de ellos, Sacks, a quien llaman “zar de la IA”, es un inversor del Silicon Valley que llegó a su puesto recomendado por Peter Thiel, fundador de Palantir  .

El destinatario directo de las críticas de Sacks es Jack Clark, mano izquierda de Amodei [la derecha es su hermana Daniela]. Juntos se marcharon de OpenAI para fundar Antrhopic, compañía a la que en estos momentos se atribuye un valor de 138.000 millones de dólares. Clark ha publicado un breve ensayo de título explícito: Technological Optimism and Appropriate Fear  en el que se declara partidario de una innovación responsable y aboga por medidas preventivas como un etiquetado de los productos de la IA asimilable al que se aplica a los alimentarios. Con ello se trataría de evitar una regulación reactiva porque – señala el autor – “estamos desarrollando sistemas extremadamente poderosos que no entendemos del todo”.

Por su parte, Amodei – personaje muy distinto a Sam Altman, su antiguo jefe – ha expresado en entrevistas  que los políticos deberían dejar de edulcorar los despidos masivos que puede provocar la extensión de la IA en su actual versión. Según él, el desempleo sobrevenido podría alcanzar hasta el 20% [sin dar pistas sobre el método de ese cálculo] y que la tecnología podría llevarse por delante la mitad de los puestos de entrada en oficinas en los próximos años. No deja de ser una especulación, pero la consultora especializada Challenger, Gray & Christmas  confirma el argumento al señalar que en Estados Unidos los recortes laborales de este año son los más graves desde 2020 y casi la mitad han sido explicados por la introducción de la IA o por actualizaciones tecnológicas, asimismo, las nuevas contrataciones son las más bajas desde 2009.

David Sacks defiende una ideología libertaria que, en lo que concierne a la IA, choca frontalmente con las posiciones públicas de Anthropic: la competencia es sana y la innovación funciona, resume con previsibles referencias al avance de China.

De manera que la desconfianza hacia Anthropic es manifiesta en los círculos trumpistas donde prevalece la cruzada contra “la IA woke” que se refleja en el AI Action Plan rubricado por Donald Trump . Es tros normal que el trato a Amodei sea distinto al que reciben otros que se sientan a la vera de Trump: Anthropic no ha tenido empacho en fichar a ex funcionarios de la administración Biden y en su junta directiva tiene a Reed Hastings – fundador de LinkedIn y conocido por sus donaciones al partido demócrata.

Hay que recordar que una de las razones de las deserciones en 2001 de   Amodei, Clark y media docena de investigadores que abandonaron en OpenAI se debieron a discrepancias con Altman acerca de la seguridad en la IA generativa que la empresa presentaría públicamente dos años más tarde. El proyecto de los fugados se desarrolló con una conciencia en torno a sus propios límites y las salvaguardas a implementar.

Amodei, como una de las voces destacadas en la industria de la IA, ha mantenido esa postura aun después de su conversión en millonario. Ha advertido de los riesgos de que la tecnología se descontrole y provoque situaciones de caos. Más interesante que sus palabras es la postura de la compañía: casi desde el comienzo, Anthropic tomó la decisión de no desarrollar productos de entretenimiento, que podrían ser adictivos; una frontera que OpenAI ha traspasado gustosamente.

El rifirraje con la administración Trump viene de lejos. Amodei apoyó públicamente a Kamala Harris en las elecciones presidenciales. Desde entonces, ha sido una ausencia notoria en los eventos a los que acuden de buen o mal grado otras personalidade. Al contrario que sus rivales, no ha buscado complicidad con el gobierno: estas tensiones políticas no son inocuas, en la medida que Anthropic pueda perder contratos con la administración e incluso disuadir a inversores temerosos de ser mal vistos por el poder en plaza.

Quizá para suavizar el ambiente, el propio Amodei ha publicado un post en tono contemporizador en el que ratifica el compromiso de Anthropic con el liderazgo estadounidense en el terreno de la IA y subraya que colabora con la administración en distintas áreas de interés recíproco. Entre ellas un proyecto por 200 millones de dólares para suministrar un servicio de predicción de amenazas al departamento de Defensa, así como otro contrato con la NSA, agencia nacional de seguridad.

La pugna es ideológica y se materializa en el debate regulatorio. Amodei siempre ha criticado el laissez-faire de Trump en relación con la IA. Su compañía tomó posición en contra de la moratoria de diez años promovida por el gobierno contra la capacidad normativa de los estados federados acerca de la IA. Argumentaba la Casa Blanca que cincuenta legislaciones diferentes ralentizarían la innovación. Tras el ruido consiguiente, Anthropic ha apoyado la norma finalmente aprobada por California, más flexible pero que incluye reglas de transparencia y garantiza la protección a personas que quieran denunciar alguna infracción de los proveedores de IA. Este miramiento está inspirado por la ola de ex empleados – en particular de Meta – que han denunciado públicamente prácticas cuestionables de sus empleadores.

La raíz del problema que ve Anthropic – cuya postura es popular en el mundillo de los investigadores y rechazada por conveniencia en el mundo de los negocios – está en la falta de plena fiabilidad de la tecnología a la hora de resolver tareas sencillas en apariencia. El obstáculo no se ha salvado por más capacidad de computación que se acumule y por Permás datos que se echan en las fauces de un algoritmo. El camino para abordar esas lagunas consiste en trabajar sobre la interpretabilidad y la predictibilidad de los modelos. Pero, ay, esto supone tomar decisiones que afectan al negocio: es necesario dedicar más recursos y sustraerlos a la carrera de lanzamientos. En otras palabras, requiere lo que a muchos les parece imposible: frenar la carrera hasta lograr sistemas más seguros.

Una cosa es tenerlo claro y otra encontrar la fórmula de la IA segura. Anthropic compite en inferioridad de condiciones con OpenAI  en la tarea de levantar millones e invertirlos en un desarrollo constante de su modelo LLM y sus adyacencias. Sin embargo, la defensa de la seguridad le ha granjeado la confianza de grandes empresas y esto le sirve como estrategia comercial, Un informe del fondo de inversión Menlo Ventures, del verano, afirmaba que un 32% de las empresas (estadounidenses) consultadas daban su confianza a Anthropic mientras OpenAI no pasaba del 25%.

¿Respaldan los resultados la estrategia de los hermanos Amodei? Prevé facturar 9.000 millones de dólares este año, un 80% procedentes de empresas. El salto en 2026 debería ser mayúsculo, ya que prevén cruzar los 25.000 millones. Estas cifras y la valoración teórica de 183.000 millones no significan que Anthropic pueda permitirse una disputa con el gobierno de su país. Su posición y su actitud son más útiles para atraer individuos concienciados que para obtener contratos federales. Enfrentarse a David Sacks no es poca cosa. Su figura despierta muchas sospechas de opacos conflictos de interés, pero ¿alguien está a salvo de sospechas en la administración actual?

Con este telón de fondo, salta la noticia de que Anthropic está negociando con Google un contrato por miles de millones de dólares para el suministro de computación en la nube, pero esto habría creado una situación incómoda con Amazon, su otro socio de referencia, excluido de esa negociación. Quizá se esté fraguando algo más gordo. Si así fuera, los lectores de este blog estarán informados.

[informe de Pablo G. Bejerano]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2025 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons