La decisión de Anthropic de retrasar el lanzamiento público de Project Glasswing y limitarlo inicialmente a grandes proveedores como Apple, Microsoft, Google y Amazon es uno de los indicios más claros de cómo la inteligencia artificial en ciberseguridad está redefiniendo las reglas del juego. El motivo no es comercial, sino de riesgo: la tecnología identifica vulnerabilidades con tal eficacia que podría ser aprovechada rápidamente por actores maliciosos a escala masiva.
Project Glasswing y Mythos: IA capaz de encontrar fallos “invisibles”
En el núcleo de Project Glasswing se encuentra la modelo Mythos Preview, diseñada para analizar grandes bases de código y detectar no solo errores puntuales, sino brechas de seguridad sistémicas en software crítico. Durante las pruebas, Mythos identificó vulnerabilidades en sistemas operativos y navegadores ampliamente auditados, incluyendo proyectos de código abierto sometidos durante años a revisiones manuales y fuzzing.
El ejemplo más llamativo es una vulnerabilidad en OpenBSD, uno de los sistemas considerados tradicionalmente como referencia de “seguridad por diseño”. El fallo habría permanecido en el código aproximadamente 27 años sin ser detectado por auditorías humanas ni herramientas clásicas. Este caso ilustra tanto el poder de la automatización basada en IA como los límites de los enfoques tradicionales de revisión de código.
De la detección a la explotación: IA ofensiva con un 72,4% de éxito
La diferencia entre Mythos y generaciones previas de modelos se aprecia al compararlo con Claude Opus 4.6. Mientras la versión anterior apenas lograba desarrollar exploits funcionales de forma autónoma, Mythos alcanzó un 72,4% de éxitos al explotar vulnerabilidades en un entorno de pruebas (Firefox JS shell). No se trata solo de señalar código peligroso, sino de construir cadenas completas de explotación, acercando la inteligencia artificial a capacidades de IA ofensiva plenamente operativas.
El verdadero cuello de botella: menos del 1% de vulnerabilidades corregidas
El dato más preocupante es que menos del 1% de las vulnerabilidades descubiertas por Mythos han sido efectivamente remediadas. La limitación ya no está en la capacidad de descubrimiento, sino en la velocidad de corrección y validación. Los procesos de gestión de vulnerabilidades siguen siendo, en gran medida, manuales y “calendario‑dependientes”: recepción del informe, evaluación de criticidad, creación de tickets, desarrollo del parche, despliegue y verificación, un ciclo que suele medirse en días o semanas.
Mientras tanto, los adversarios ya emplean modelos de lenguaje grandes (LLM) para automatizar reconocimiento, desarrollo de exploits, movimiento lateral y evasión de defensas, operando a “velocidad de máquina”. El resultado es una brecha creciente entre la rapidez de ataque y la capacidad de respuesta defensiva.
Ataques autónomos con LLM: la campaña masiva contra dispositivos FortiGate
Estos riesgos ya no son teóricos. Este año se documentó una campaña en la que los atacantes utilizaron un servidor MCP personalizado con un LLM integrado como parte de la cadena de ataque contra dispositivos FortiGate. La IA se encargaba de tareas clave: analizar configuraciones, seleccionar vectores de ataque, explotar vulnerabilidades, restablecer credenciales y preparar la exfiltración de datos.
Según el análisis del incidente, esta operación comprometió 2 516 organizaciones en 106 países casi en paralelo. La intervención humana se concentró en la supervisión y el análisis de resultados, mientras que la ejecución técnica era principalmente automatizada. Esto evidencia cómo la IA puede escalar campañas de intrusión mucho más rápido de lo que los equipos defensivos pueden gestionar manualmente.
Explosión de CVE y límites del enfoque basado solo en CVSS
Herramientas como Project Glasswing anticipan un incremento brusco en el número de vulnerabilidades descubiertas y registradas como CVE. Sin embargo, la mayoría de los programas de gestión de vulnerabilidades siguen apoyándose en el CVSS, que mide la severidad teórica de una vulnerabilidad, sin incorporar suficientemente el contexto: controles compensatorios, arquitectura de red, exposición real y criticidad del activo para el negocio. Informes como ENISA Threat Landscape y Verizon DBIR muestran plazos de parcheo largos incluso para fallos críticos, mientras que análisis de Picus Security apuntan a que hasta un 83% de los programas de ciberseguridad no logran un impacto medible cuando se quedan en la mera visibilidad y no validan si las vulnerabilidades son realmente explotables.
Validación autónoma y continua: respuesta al “tsunami de CVE”
En un escenario donde la IA abarata y acelera radicalmente el descubrimiento de vulnerabilidades, el foco defensivo debe desplazarse hacia la validación autónoma de exposiciones: comprobar de forma continua si una vulnerabilidad puede explotarse en un entorno concreto, con sus configuraciones, controles de seguridad y restricciones operativas. La ventaja estructural de los defensores —conocer mejor su propia infraestructura— solo se materializa si pueden actuar con una velocidad comparable a la de los atacantes.
Plataformas de autonomous exposure validation: el ejemplo de Picus Swarm
Está emergiendo un nuevo tipo de plataformas de autonomous exposure validation. Un caso representativo es Picus Swarm, que emplea conjuntos de agentes de IA especializados para automatizar la cadena completa: ingestión de avisos (por ejemplo, boletines de CISA), modelado de técnicas de ataque, prueba de explotabilidad real en la infraestructura de la organización y generación de recomendaciones de remediación priorizadas.
Datos de la propia compañía indican que este enfoque puede reducir el ciclo tradicional “detección–análisis–corrección–verificación” de varios días a cuestión de minutos, manteniendo la trazabilidad de las acciones y respetando restricciones de política de seguridad mediante “barandillas” predefinidas. Un principio clave es sustituir los escaneos periódicos por un modelo orientado a eventos: la incorporación de un nuevo activo, un cambio de configuración o la publicación de un exploit deberían disparar automáticamente pruebas sobre los controles defensivos.
En última instancia, el éxito de Project Glasswing y tecnologías similares no se medirá por el volumen de CVE encontrados ni por la sofisticación de sus exploits, sino por cuántas vulnerabilidades se cierran antes de ser explotadas de forma masiva. Para avanzar en esa dirección, las organizaciones deberían abandonar la priorización basada exclusivamente en CVSS, adoptar una gestión de vulnerabilidades basada en riesgo y validación continua, y automatizar al máximo el recorrido desde la notificación de una amenaza hasta la obtención de hallazgos explotables y listos para remediar. Foros especializados como el Autonomous Validation Summit subrayan que cuanto antes se adapten los procesos a esta realidad “post‑Glasswing”, mayores serán las probabilidades de reducir la brecha entre la velocidad de los atacantes y la capacidad de defensa.