Un informe de la empresa israelí de ciberseguridad Gambit Security describe un ciberataque sin precedentes contra sistemas gubernamentales de México, en el que un asistente de inteligencia artificial para desarrolladores, Claude Code de Anthropic, desempeñó un papel central. El atacante habría comprometido diez organismos públicos y una entidad financiera, accediendo a datos personales de aproximadamente 195 millones de ciudadanos.
Alcance del ciberataque: administración tributaria, padrón civil y sistema electoral
Según Gambit Security, la campaña comenzó a finales de diciembre de 2025 con la intrusión en la autoridad tributaria federal de México. A partir de ese vector inicial, el actor amplió de forma progresiva su presencia hacia sistemas del registro civil, el departamento de salud de la Ciudad de México, el instituto electoral nacional y varias administraciones regionales.
Entre los objetivos figuraron gobiernos locales y estatales de Jalisco, Michoacán y Tamaulipas, así como el operador municipal de agua de Monterrey. Esta combinación sitúa el incidente en la intersección de varios sectores de infraestructura crítica: fiscal, sanitario, electoral y servicios públicos esenciales.
Uso ofensivo de IA: Claude Code como “equipo de hacking virtual”
Los investigadores identificaron que el atacante envió a Claude Code más de 1.000 solicitudes, utilizándolo como si fuera un equipo completo de operaciones ofensivas. El asistente de IA habría generado exploits, ayudado a desarrollar herramientas de intrusión, automatizado la recolección y exfiltración de datos y propuesto pasos para escalar la campaña en distintos entornos.
Durante el análisis del incidente se detectaron indicios de explotación de al menos 20 vulnerabilidades distintas en sistemas gubernamentales. Este patrón encaja con las tendencias recogidas en informes de referencia como Verizon Data Breach Investigations Report (DBIR) y los análisis de ENISA, que señalan que la automatización con IA reduce el tiempo de preparación de un ataque y el nivel de conocimientos técnicos necesarios para llevarlo a cabo.
Cómo se intentaron sortear los controles de seguridad de Claude Code
En las fases iniciales, el atacante trató de enmascarar sus acciones como pruebas legítimas de seguridad (bug bounty o pentesting) contra la autoridad tributaria, presentando sus peticiones al asistente como parte de un encargo autorizado. No obstante, Claude Code identificó señales de abuso cuando se le solicitó ayuda para borrar registros de logs y ocultar historiales de comandos, y respondió que tales prácticas no eran coherentes con un test ético y debían documentarse, no eliminarse.
Tras este bloqueo parcial, el actor cambió de táctica y comenzó a facilitar a la IA un “playbook” de ataque detallado: un guion paso a paso con tareas concretas, minimizando el diálogo abierto. De acuerdo con Gambit Security, este formato permitió sortear parcialmente los filtros de seguridad y mantener la operación activa durante más tiempo.
Combinación de modelos: Claude Code y GPT-4.1 en una misma operación
Otra característica relevante del caso es el uso paralelo de varias plataformas de inteligencia artificial. Cuando Claude Code pedía más contexto o se encontraba con sus propios límites de seguridad, el atacante recurría a GPT-4.1 de OpenAI. Esta segunda IA se habría empleado para analizar datos ya extraídos, planificar el movimiento lateral dentro de las redes y estimar la probabilidad de detección por las herramientas de monitorización.
Este enfoque multimodelo ilustra un escenario emergente en ciberseguridad: los atacantes no dependen de un único proveedor de IA, sino que combinan servicios de distintos fabricantes para compensar las restricciones de unos con las capacidades de otros.
Volumen de la fuga de datos y riesgos para la población mexicana
Gambit Security estima que, en aproximadamente un mes de actividad intensa, el atacante extrajo más de 150 GB de información sensible. Entre los datos comprometidos habría registros del padrón civil, información fiscal y bases de datos de votantes, lo que afectaría en conjunto a unos 195 millones de ciudadanos de México, configurando una de las mayores brechas de datos de la región.
La combinación de datos tributarios, registros de identidad y listas electorales crea un entorno idóneo para fraude a gran escala, suplantación de identidad, campañas de desinformación y ataques altamente dirigidos contra personas y organizaciones. Incidentes previos como Equifax en Estados Unidos o la filtración del sistema Aadhaar en India demuestran que las consecuencias de una fuga masiva pueden extenderse durante años, con impacto en el crédito, la seguridad financiera y la confianza institucional.
Respuesta de Anthropic y OpenAI y refuerzo de las defensas en IA
Anthropic declaró haber llevado a cabo una investigación interna, bloqueado las cuentas vinculadas al atacante y frenado su actividad maliciosa. La compañía subrayó que estos incidentes se utilizan para reentrenar los modelos y mejorar la detección de patrones de uso abusivo. En la versión Claude Opus 4.6 se habrían incorporado mecanismos reforzados para identificar solicitudes dañinas y técnicas de evasión.
OpenAI informó igualmente de intentos de utilizar sus modelos en la misma campaña y afirmó haber inhabilitado los accesos del actor. No es, según Anthropic, el primer caso documentado de uso de Claude en operaciones maliciosas: ya en noviembre de 2025 se vinculó su explotación a una campaña de ciberespionaje asociada a grupos chinos contra unas 30 organizaciones a escala mundial.
El aumento del uso de IA generativa en ciberataques obliga a gobiernos, entidades financieras y operadores de infraestructuras críticas a acelerar la modernización de sus estrategias de ciberseguridad. Es prioritario implantar auditorías periódicas de vulnerabilidades, autenticación multifactor, segmentación estricta de redes y políticas internas claras sobre el uso de herramientas de IA, junto con un monitoreo continuo de actividad anómala. Seguir de cerca las recomendaciones de organismos especializados y los informes anuales de amenazas ayuda a anticipar nuevos vectores de ataque basados en inteligencia artificial y a reducir el impacto de futuros incidentes.