13/04/2026

Agentes peligrosos según en qué manos

Si el secretario del Tesoro y el presidente de la Reserva Federal de Estados Unidos convocan una reunión con los CEO de los cinco grandes bancos del país, ¿de qué hablan? De petróleo, deuda privada, inflación, criptoactivos, esas cositas de su incumbencia. Esta vez, se habló de otra urgencia, de los riesgos que entraña la inteligencia artificial para la seguridad del sistema bancario y sus consecuencias sistémicas. ¿El motivo? Anthropic ha comunicado que restringirá el acceso a su modelo Claude Mythos y lo reservará para una docena de tecnológicas con las que compartirá la tarea de identificar y remediar los fallos que encuentren, al ser potencialmente susceptibles de explotación por la ciberdelincuencia.

¿Potencialmente? Qué va. Al desarrollar su herramienta de seguridad Claude Mythos, la compañía Antropic ha descubierto que ¡durante 27 años! sucesivas generaciones de routers y firewalls han alojado una vulnerabilidad del sistema operativo OpenBSD –siempre elogiado por la calidad de sus auditorías –y sin intervención humana, miles de fallos activos o durmientes. Entre ellos FFmpeg, un error de codificación de vídeo que ha sido escaneado millones de veces durante 16 años sin que las herramientas automáticas de testeo lo detectasen. Además de un fallo histórico en el escalado en el kernel de Linux. Todo está escrito minduciosamente en un documento de 200 páginas.

La reunión de Washington DC ha elevado a los niveles de decisión más altos la discusión sobre la IA. Según el New York Times, se habría evocado la posibilidad de implantar en la banca requisitos de reserva de capital para afrontar los costes de ataques cibernéticos. Al mismo tiempo, las revelaciones de Anthropic pueden leerse como varapalo a una industria que durante décadas no ha sido descubierto tales fallos. Algo así parecen haber interpretado los inversores, a juzgar por las cotizaciones de Palo Alto Networks y Crowdstrike, que cayeron un 12% en los días siguientes a la noticia sobre Anthropic.

Lo que más preocupa en este momento es que la misma herramienta que ha sacado a la luz – esos errores y los ha corregido, aunque tardíamente – puede ser usada para facilitar amenazas de nueva creación. El problema se ve agravado con el auge de los agentes de IA . Pueden ser diseñados para robustecer las defensas de una organización, pero asimismo tienen capacidad para crear vulnerabilidades, dependiendo de los datos a los que tengan acceso autorizado.

En teoría, cualquiera con conocimientos de programación podría lanzar búsquedas automáticas con Claude Mythos, el novísimo derivado del modelo Claude, capaz de rastrear agujeros de seguridad. A la administración Trump le obsesiona que las armas cibernéticas puedan ser empleadas por entes paraestatales patrocinados por Rusia, China, Irán y Corea del Norte  y que los atacantes ganen ventaja sobre los defensores gracias a la IA y sus modelos.

Tanto se ha hablado de consolidación en el sector de la ciberseguridad que el tema recurrente ha pasado a considerarse como una quimera. En lugar de promover la concentración de recursos para batir a los hackers, las compañías implicadas han cultivado su atomización con un carrusel financiero.

Durante el desarrollo de Claude Mythos como modelo orientado a la programación automática, Anthropic constató riesgos subyacentes en la búsqueda de fallos en cualquier software, por lo que decidió cambiar de planes.

La alternativa que propone puede cambiar el mapa de la ciberseguridad  Se trata de restringir el alcance de Claude Mythos a una versión Preview, reservada en exclusiva a un grupo de partícipes iniciales: Google, AWS, Microsoft, Apple, Cisco, Nvidia, Broadcom, Palo Alto Networks, Crowdstrike y la Linux Foundation, además del banco JPMorgan Chase. Tal vez sorprenda que en la lista no esté Meta, aunque puede explicarse porque Mark Zuckerberg presta más atención a su obcecada búsqueda de la superinteligencia. Sin más informaciones sonte la naturaleza jurídica de la coalición, esta ha sido bautizada como Project Glasswing  .

Para reforzar su declaración de intenciones, Anthropic contribuye con 100 millones de dólares en créditos de uso de su modelo. Los aliados accederán a través de la API de Claude o, significativamente, mediante Amazon Bedrock, Google Vertex o Microsoft Foundry. El procedimiento ha seguido hasta ahora cauces híbridos: el modelo detecta miles de posibles errores, que pasan a revisión manual por expertos de carne y hueso; una vez comprobada su autenticidad, son enviados a los desarrolladores del software para comprobación final y en su caso la corrección pertinente.

Lo cierto es que la compañía cultiva un perfil peculiar: ha cogido rápidamente su velocidad de crucero volcándose en el desarrollo de modelos para empresas, a la vez que su fundador, Dario Amodei, gusta de una prédica ética que contrasta con el discurso fundamentalista de su gran rival Sam Altman. Lo que está permitiendo a Anthropic preparar una salida a bolsa con la hipótesis de facturar este año 30.000 millones de dólares, tras los 9.000 millones del año pasado.

La decisión de acotar el lanzamiento de Mythos a un grupo de aliados de confianza marca un punto de inflexión en las prácticas del sector. Para empezar, se diferencia del enfoque atropellado que caracteriza a OpenAI. Y como este competidor de Anthropic prepara el lanzamiento de su propia solución de ciberseguridad, no está de más recordar que en febrero de 2019, tras preanunciar GPT-2 procedió a recortarlo debido al temor de que se usara para la producción de propaganda y desinformación automatizada. En aquel momento, Amodei trabajaba como director de investigación de OpenAI.

Los directivos de las empresas coaligadas en el proyecto Glasswing coinciden en la advertencia de Anthropic sobre los peligros en la evolución que introducen los agentes de IA en la gestión de la ciberseguridad. Nikesh Arora, CEO de Palo Alto Networks, escribe en su blog: “imaginemos una horda de agentes catalogando de manera metódica y constante cada debilidad de nuestras infraestructuras tecnológicas […] Durante los próximos meses, la barrera de entrada para los ataques sofisticados seguirá disminuyendo y el arma con la que sueña todo hacker estará a su alcance. Lo que hace diferente este momento no es la capacidad sino la asimetría y esta, ahora mismo, favorece a los atacantes”.

Desde la óptica como chief operating officer de Google Cloud, así como presidente de productos de seguridad de Google, apuntaba Francis deSouza en la reciente conferencia RSAC: “estamos viviendo el mayor cambio que haya experimentado la ciberseguridad; una defensa liderada por humanos no aguanta los ritmos marcados por los ataques generados por la IA. Esta transición nos pone en un escenario en el que vamos a combatir la IA con IA”.

 


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2026 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons