13/05/2026

Tarde pretende Trump atar en corto a la IA

En otro giro de guión, uno más, la administración Trump ha sorprendido con su propuesta de control de los modelos de inteligencia artificial como exigencia previa a su lanzamiento comercial. Si esta intención se confirmara, sería una derrota de la hostilidad a la regulación que ha impregnado las posiciones del gobierno federal. La raíz de esta nueva actitud parece residie en la revelación por Anthropic de los riesgos potenciales de Mythos, capaz de encontrar vulnerabilidades desconocidas con una eficacia muy superior a la de los sistemas convencionales de testing que la industria usa comúnmente. Afecta, por consiguiente, a los actores grandes o pequeños involucrados en el mercado de la IA.

Scott Bessent con Donald Trump

Aunque con discreción, cunde la inquietud de que esta y otras herramientas podrían caer en manos de ciberdelincuentes. Pero, como ruido de fondo, está la rivalidad con China, hoy mismo de actualidad con la visita del presidente Trump a Pekín en una visita en la que llega con la convicción de que la IA china ha recortado la hegemonía que han disfrutado los modelos estadounidenses.

Aunque no se confiese, hay un sentido de urgencia en las medidas que ha tomado la Casa Blanca para abordar los riesgos de seguridad que plantean los modelos de última generación, significativamente apodados de frontera. A partir de lo ocurrido (y admitido) con Mythos el gobierno trata de no aparecer como culpable por inacción en el caso de producirse un ataque de alta impacto relacionado con la IA. La receta para evitar o minimizar los daños contra las empresas e infraestructuras de Estados Unidos en tal emergencia, no es otra que tener acceso temprano a las herramientas – desarrolladas en el propio país – que pudieran estar implicadas. El objetivo proclamado: coordinar preventivamente la ciberdefensa entre los distintos proveedores  de infraestructuras críticas.

El Center for AI Standards and Innovation (CAISI), dependiente del departamento de Comercio, será el encargado de llevar a cabo evaluaciones de los modelos de IA antes de su lanzamiento. Es de reseñar que Microsoft, xAI y Google DeepMind han llegado a acuerdos para colaborar con la agencia federal. Compartirán información, llevarán a cabo mejoras voluntarias de sus productos y favorecerán dentro del gobierno un entendimiento más claro de las capacidades de IA que es capaz de movilizar el país, así como identificar el estado de la competencia internacional. El gobierno, naturalmente, se reserva la capacidad de vetar los modelos que, según dictamine el CIASI, presenten algún riesgo para la seguridad nacional.

Según la prensa estadounidense, la Casa Blanca se ha planteado la oportunidad de emitir una orden ejecutiva específica para sentar las bases del proceso formal de revisión de todo nuevo modelo de IA, fórmula que habrá dejado perplejos a los adalides de la primacía del mercado. No sería el primer caso; en Reino Unido ya existe un mecanismo similar, con una serie de entidades gubernamentales a cargo de que los modelos comerciables cumplan estándares de seguridad. Por su lado, el gobierno de Washington reconoce tardíamente haber completado en una fase previa más de cuarenta evaluaciones de sistemas de IA.

La racionalidad de este cambio de actitud no se molesta en la crítica ideológica a quienes niegan sistemáticamente la necesidad de regulación: caería en saco roto. Lo que prevalece es el temor a que alguno de estos modelos o sus sucesores más sofisticados puedan usarse para atacar sectores clave, sean civiles o militares, sin que estos se hayan preparado para la emergencia. Queda la incógnita sobre el tiempo que podrán retenerse los modelos antes de ponerlos a disposición del mercado y qué requisitos habrán de cumplirse en esta circunstancia. Porque, si bien el ruido mediático inicial sobre Mythos ha bajado, se hace difícil creer que ha sido por casualidad.

La aparición de Mythos ha magnificado el miedo a que empresas chinas puedan apoderarse de los desarrollos estadounidenses en materia de ciberseguridad. A día de hoy, se supone que hay una ventana de varios meses hasta que una capacidad disponible en Estados Unidos tenga su equivalencia en China. No hay que olvidar que este país está considerado como muy activo en la propagación de ciberataques.

El Wall Street Journal escribía ayer que la delegación que ha precedido a Trump en su vuelo a Pekín tendría intención de abrir un diálogo formal entre los dos gobiernos con el propósito de trabajar juntos para mitigar los riesgos que plantea la IA. «Si el asunto entrase en la agenda, Estados Unidos dispondría de una baza que jugar, el modelo Mythos, capaz de identificar vulnerabilidadea desconocidas en una variedad de sistemas operativos y navegadores». Pero la desconfianza manda:  The New York Times cree saber que China solicitó formalmente a Anthropic tener acceso privilegiado a Mythos – como lo tienen decenas de compañías estadounidenses – pero esa solicitud fue rechazada.

Es un contexto nuevo, por supuesto, pero la iniciativa de la actual administración recuerda muchoa las directrices de una orden ejecutiva de la de Joe Biden que pedía a los desarrolladores hacer evaluaciones de seguridad e informar a las autoridades si sus modelos pudieran tener aplicaciones militares. Al llegar al despacho oval, Donald Trump eliminó de plano esa orden para dejar clara su voluntad de dejar que la IA se desarrollase libremente . Con ello pretendía ganar la carrera a China, por lo que en Trump es verosímil que repita el  mismo argumento ahora para regularla.

Las medidas tomadas en las últimas semanas son una marcha atrás en esa actitud inicial, pero se construyen de manera improvisada encima de estructuras de la era Biden. El CAISI, que llevará el peso de las evaluaciones, es una versión del anterior AI Safety Institute, sólo que con otro nombre. Una entidad cuya primera directora, Elisabeth Kelly, dimitió al poco de la investidura de Trump para finalmente ser fichada… por Anthropic. Lo mismo ocurrió con varios empleados contratados por la anterior administración, que han pasado a trabajar en la empresa fundada por Dario Amodei, ahora mismo proscrita por el Pentágono, al parecer contra la opinión de Bessent.

Al frente del CAISI se encuentra ahora Chris Fall, quien trabajó en el departamento de Energía durante el primer mandato de Trump (2016-2020). Ocupó su puesto a finales de abril, después de que fuera despedido un ex investigador de Anthropic que había permanecido pocos días en su empleo. En realidad, el enfoque actual es muy diferente al impulsado por el gobierno anterior. Mientras la administración Biden se centraba en preocupaciones éticas y peligros existenciales, el interés en la actualidad pasa por controlar los riesgos inmediatos para la seguridad nacional.

La idea de aprobar los modelos antes de que lleguen al mercado debería chocar con la oposición que en Estados Unidos ejercen los think tanks del mercado libre y la de parte del sector que promueve la IA. Son estos los que se opusieron a las reglas dictadas por Biden, cuyo fundamento era menos drástico. En diciembre del año pasado, Donald Trump firmó una orden ejecutiva para impedir que algunos de los estados federados aprobaran sendas regulaciones sobre la IA (cuatro ya lo habían hecho para entonces: California y Texas). El argumento sostenía que “la  proliferación de legislaciones territoriales amenazaría la innovación y pondría en riesgo nuestro liderazgo en la carrera por la IA”, en palabras del asesor especial de la Casa Blanca, David Sacks.

Precisamente, este esbozo de cambio de política con respecto a la IA coincide con la marcha de Sacks, defensor a ultranza de la desregulación, quien dejó su puesto en marzo para volver a su oficio de capitalista de riesgo en Silicon Valley. Su papel lo ha absorbido la cada vez más ocupada Susie Wiles, jefa de gabinete de Trump, quien en estas materias suele coincidir con Scott  Bessent, el secretario de Estado que con mano izquierda defiende algunas barrabasadas económicas del presidente y pone paños calientes a otras. Precisamente, Bessent y Wiles fueron quienes se reunieron con Dario Amodei para limar asperezas en las relaciones con Anthropic, que empezaron cuando Sacks aun estaba en el cargo.

El argumento maestro contra las medidas emanadas desde la Casa Blanca ahonda en que la burocracia necesaria para evaluar los modelos de IA va a ralentizar la innovación. Algunas voces han ido más lejos: la regulación dañaría gravemente la capacidad de competir con China. Además, cabe suponer, de frenar lanzamientos de modelos: unos controles demasiado estrictos pondrían en desventaja (sic) a los modelos estadounidenses frente a los chinos que – según esa corriente – no sufre tales limitaciones .

Lo cierto es que el proceso de revisión puede traer cola. Una cosa es ceder el modelo para que lo prueban empresas vinculadas a las infraestructuras críticas, como prometió hacer Anthropic con la versión preliminar de Mythos, y otra muy diferente es someterse al examen del gobierno. Cabría preguntarse qué ocurrirá si las compañías no están de acuerdo con el veredicto gubernamental.

La polémica puede alcanzar alturas insospechadas, a la vista de las posiciones tomadas. Hay quien ha citado la posibilidad de acogerse a la primera enmienda a la constitución de Estados Unidos  que garantiza la libertad de expresión. Prohibe que cualquier mensaje que vaya a ser emitido requiera autorización gubernamental previa. Desde luego, habría que forzar mucho la interpretación de la primera enmienda (1791) para considerar que un modelo de IA sea un mensaje merecedor de ser emitido a los ciudadanos protegidos por el texto constitucional.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2026 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons