El desencuentro entre la administración Trump y Anthropic trasciende la ruptura de un contrato por 200 millones de dólares. Los roces entre Dario Amodei, fundador de la compañía, y el inversor David Sacks, asesor presidencial en inteligencia artificial, vienen de lejos . Con la seguridad nacional como subterfugio, la Casa Blanca ha prohibido a las agencias federales contratar con la empresa. Esta rebuscada aplicación del AI Action Plan , ha encendido las alarmas en las mismas tecnológicas que suelen quejarse de la severidad de las regulaciones europeas. Ha encendido la mecha el impetuoso secretario de Guerra, Pete Hegseth, pero no está excluido que su jefe le haga rectificar.

Dario Amodei
Presentados los protagonistas, aquí vienen los hechos. La gresca empezó cuando Hegseth acusó a Anthropic de poner en peligro la seguridad nacional al negarse Amodei a acatar exigencias que, resumiendo, pretenden valerse de la IA para “todos los fines legales”, lo que en su opinión incluye la vigilancia masiva de los ciudadanos y/o el uso de armas autónomas letales sin que la decisión la tome un humano. En pleno frenesí bélico del presidente Trump, estas eran las únicas excepciones que éticamente Amodei no podía contemplar, lo que le ha valido ser marcado con la letra escarlata. Básicamente, Hegseth ha querido escenificar una máxima antidemocrática muy trumpista: “no vamos a consentir que nadie nos diga cómo tenemos que actuar”.
Más que ninguno de sus competidores, Anthropic se ha caracterizado por afirmar la necesidad de una IA responsable. Dario Amodei ha escrito artículos de opinión en los que expone su posición y la compañía ha abogado por la necesidad de una regulación que reduzca los márgenes de riesgo. Por consiguiente, poner límites al uso de Claude es su manera de expresar prácticamente esas opiniones: sería una irresponsabilidad admitir que sea utilizado sin supervisión humana, postura que no está lejos de la apuntada teóricamente por el ex director científico de Meta, Yann LeCun .
Hegseth se lo ha tomado a mal, tanto que ha descrito la actitud de Anthropic como “un acto de cobardía en nombre de una supuesta virtud que pone la ideología woke [que es propia del] Silicon Valley por encima de las vidas de soldados americanos”. Esta retórica ha sentado las bases para que la compañía analice la posibilidad de demandar al Pentágono por violación de la Primera Enmienda de la Constitución, que se interpreta generosamente en el sentido de que ningún ciudadano – y por extensión ninguna empresa – puede ser sancionada por expresar su punto de vista.
Anthropic y Amodei no argumentan que los killer robots no deberían existir; por el contrario, se han ofrecido a colaborar con el Pentágono para mejorar su eficacia, en espera de que algún día pueda prescindirse de un operador humano con menos posibilidades de cometer errores fatales. Pero ese día no ha llegado y hay motivos para temer que su uso indiscriminado produzca daños irreparables.
Formalmente, el Pentágono ha cortado por lo sano, Sin consultas ni debates, sólo ha citado a Amodei al despacho de Hegseth para comunicarle que Anthropic y sus derivados plantean un riesgo intolerable para la cadena de suministro de las fuerzas armadas, lo que en la práctica se traduce en la rescisión de contratos comenzando por el ejército, que en el plazo de seis meses tendrá que haber borrado todo rastro de Claude, el modelo de IA de Anthropic.
Se da la circunstancia de que este LLM está ampliamente asentado y disfruta del 40% de cuota del mercado de IA empresarial en Estados Unidos, gracias a dos piezas centrales, su chatbot y la herramienta para desarrolladores Claude Code. El ex presentador de la Fox no valoró a tiempo que los cuatro hyperscalers que prestan servicios a su departamento – AWS, Microsoft, Google y Oracle – mantienen relaciones comerciales con Anthropic y en al menos dos casos participan en su capital.
El secretario de Guerra [antes de Defensa] llegó a amenazar con invocar la ley de Producción para la Defensa, una herencia de la Guerra Fría que otorga al gobierno el derecho a controlar las industrias clave cuando la seguridad nacional esté amenazada. Según la ley, Anthropic podría ser obligada a hacer lo que se le ordene desde el Pentágono. Un puente que, finalmente, no se cruzó, pero que dio lugar a que la compañía fuera etiquetada como un riesgo para la cadena de suministro.
Anthropic ha anticipado que recurrirá la decisión ante la justicia, lo que podría llevar eventualmente el caso ante el Tribunal Supremo. Dario Amodei ha avanzado la lógica de su impugnación: se está aplicando a una empresa estadounidense una norma legal que fue diseñada contra las amenazas extranjeras [de hecho se ha aplicado para excluir contratistas vinculados a capital chino] asimilables a sabotaje, subversión o introducción de forma maliciosa de funciones no deseadas.
El CEO de la compañía afea a Hegseth su intento de soplar y sorber a la vez cuando califica a Anthropic como un riesgo para la seguridad nacional y al mismo tiempo como esencial para la seguridad nacional. Personalidades políticas y expertos no han tardado en advertir del uso caprichoso de esa figura legal: la senadora Kirsten Gillibrand, miembro de los comités de Servicios Armados y de Inteligencia de la cámara alta, ha calificado la medida como autodestructiva y un regalo para los adversarios de Estados Unidos.
En esta misma línea, quien fuera gurú tecnológico de los republicanos en la FTC (Federal Trade Commission), Neil Chilson, sostiene que perjudica tanto al sector de IA estadounidense como a la capacidad militar para adquirir la mejor tecnología para sus soldados. Por su parte, Dean Ball, uno de los redactores de la política de IA de la actual administración, se ha mostrado especialmente crítico con Hegseth, a quien reprocha un intento de atentar contra una empresa estadounidense que ha demostrado estar en la punta de la innovación. Estas reacciones parecen sugerir una grave dicotomía: la existencia de una concepción MAGA (Make America Great Again) y otra woke, está última encarnada por Amodei.
El Information Technology Industry Council , entre cuyos miembros están Nvidia, Amazon, Apple, Google, IBM, AMD, Intel, Meta y Broadcom, ha remitido una carta a Hegseth – pero no la ha publicado en su web – en la que trasladan su malestar y preocupación por la medida, advirtiendo que la decisión podría “socavar el acceso del gobierno a algunos de los mejores productos y servicios de las empresas estadounidenses” que trabajan con la práctica totalidad del gobierno federal.
A pesar de estas voces críticas, pero no mucho, la medida respaldada explícitamente por Trump podría extenderse más allá del Pentágono, sin relación aparente con fines militares. Los departamentos de Estado, del Tesoro y de Salud y Servicios Humanos consideran dejar de usar la IA de Anthropic.
Amodei puede contar con la solidaridad de la industria. Microsoft se ha unido a su demanda ante un juzgado de San Francisco contra la decisión de Hegseth registrando un amicus brief en el que solicita se anule la designación de Anthropic como un riesgo para la cadena de suministro y que, entretanto, sus efectos sean suspendidos. Un detalle adicional es queMicrosoft ha presentado Copilot Cowork, formalmente competidor del asistente de Anthropic pero, en la práctica, desarrollado con la cooperación de esta para ofrecer una solución multimodal.
Por su lado, Amazon y Google – ambos, partícipes del capital de Anthropic , han precisado que seguirán vendiendo los modelos de esta y otros productos afines embebidos en los suyos. Ambas han coincidido en que seguirán colaborando con la empresa de Amodei en proyectos no relacionados con el departamento de Guerra.
Otra derivada del choque entre Anthropic y la administración involucra a OpenAI. A Sam Altman, fundador de esta, le ha faltado tiempo para negociar con el DoW para ocupar el sitio vacante plegándose a las exigencias de Hegseth, pese a haber declarado días antes que su empresa no estaba aún preparada par asociarse a proyectos militares. La actitud del fundador de OpenAI ha provocado la protesta de varias decenas de empleados, ante los que se disculpó prometiendo mediar ante la Casa Blanca para que levante el veto del DoW. No puede obviarse que Anthropic fue fundada en 2021 por siete empleados de OpenAI, entre los que estaban Amodei y su hermana Daniela, que habían sido parte del equipo que desarrolló el hoy famoso ChatGPT. Este detalle añade picante al episodio, que a buen seguro tendrá continuidad aunque haya sido eclipsado en las noticias por las urgencias de la guerra contra Irán y la nueva crisis del petróleo.
[informe de David Bollero]
