Anthropic vs. Pentágono: cómo un veto a la IA sacude la ciberseguridad y la cadena de suministro

CyberSecureFox 🦊

El conflicto entre la empresa de inteligencia artificial Anthropic y el Departamento de Defensa de Estados Unidos (DoD) ha derivado en una decisión sin precedentes: por orden del presidente Donald Trump, todas las agencias federales deberán dejar de usar tecnologías de Anthropic en un plazo de seis meses. El detonante han sido las discrepancias sobre cómo pueden emplearse los modelos Claude en contextos militares y de inteligencia.

Vigilancia masiva y armas autónomas: el núcleo del desacuerdo en IA

El punto más sensible de la disputa son dos cláusulas contractuales que Anthropic consideraba innegociables. La compañía exigía prohibir expresamente el uso de sus modelos para vigilancia masiva de ciudadanos estadounidenses dentro del país y para su integración en sistemas de armas completamente autónomos, donde un algoritmo decide el uso de la fuerza sin intervención humana.

El Pentágono, por el contrario, defendía una formulación amplia que habilitara «cualquier uso legal» de la inteligencia artificial, sin excepciones sectoriales. Desde la óptica militar, ese tipo de restricciones limitaría la flexibilidad operativa en conflictos modernos, operaciones cibernéticas y escenarios híbridos, donde la IA se ha convertido en un componente estratégico.

Contrato de 200 millones y el papel de Claude Gov en entornos clasificados

Anthropic fue una de las primeras grandes empresas de IA en firmar un contrato a gran escala con el DoD, valorado en torno a 200 millones de dólares. Para redes gubernamentales clasificadas se desarrollaron modelos específicos Claude Gov, integrados a través de plataformas como Palantir y sobre infraestructura en la nube de Amazon diseñada para gestionar información militar secreta.

Estos sistemas se utilizan en tareas críticas: apoyo al planeamiento de operaciones, análisis de inteligencia, simulación de escenarios y monitorización de ciberamenazas. En ciberseguridad, la IA se aplica a la detección de anomalías en el tráfico, correlación de incidentes y automatización de la respuesta ante ciberataques. Sin embargo, todo «IA militar» es por definición una tecnología de doble uso, lo que amplifica los riesgos regulatorios, éticos y de cumplimiento normativo.

Operación contra Maduro y escalada política del conflicto

La tensión aumentó tras publicaciones mediáticas que apuntaban a que Claude habría sido utilizado en la planificación de una operación para capturar al presidente venezolano Nicolás Maduro. Según estos informes, un empleado de Palantir habría trasladado a mandos militares la preocupación de un especialista de Anthropic sobre posibles escenarios de uso del modelo.

La dirección de Anthropic negó públicamente haber expresado objeciones formales o haber intentado influir en el despliegue operativo de su tecnología por parte del Pentágono. Aun así, tras este episodio el secretario de Defensa, Pete Hegseth, planteó un ultimátum: o la compañía aceptaba retirar las excepciones sobre vigilancia masiva y armas autónomas, o se revisarían las condiciones de colaboración. El director ejecutivo de Anthropic, Dario Amodei, rechazó modificar la postura de la empresa y subrayó que sus principios éticos no eran negociables.

Etiquetar a Anthropic como “amenaza” y el impacto en la cadena de suministro

Como respuesta, el Pentágono clasificó a Anthropic como «amenaza para la seguridad nacional en la cadena de suministro», una categoría que suele reservarse a proveedores extranjeros considerados de alto riesgo para infraestructuras críticas. Esta designación prácticamente bloquea la participación de la empresa en futuros contratos de defensa y condiciona a todos los integradores y subcontratistas que dependan de sus modelos.

Auditoría de dependencias y riesgos de migración forzada de IA

Los contratistas del Ministerio de Defensa han recibido instrucciones de interrumpir de forma acelerada cualquier relación con Anthropic. Desde una perspectiva de ciberseguridad, esto obliga a realizar auditorías de dependencias para identificar en qué sistemas, flujos de datos y casos de uso están embebidos los modelos Claude y servicios asociados.

La sustitución apresurada por soluciones alternativas incrementa el riesgo de errores de integración, brechas en la protección de datos sensibles y periodos de menor visibilidad sobre amenazas. La experiencia internacional en la sustitución de equipamiento de telecomunicaciones tras vetos a determinados fabricantes muestra que estos procesos pueden prolongarse durante años y exigen inversiones significativas en pruebas, revalidación de controles y reentrenamiento de personal.

Reacción de la industria de IA y movimiento estratégico de OpenAI

La decisión del Pentágono y de la Casa Blanca ha dividido al ecosistema de inteligencia artificial. Cientos de empleados de OpenAI y Google han firmado una carta abierta respaldando la posición de Anthropic. Al mismo tiempo, Elon Musk ha manifestado su apoyo al Gobierno, acusando a la compañía de mantener una actitud hostil hacia la civilización occidental.

Poco después del ultimátum a Anthropic, el director ejecutivo de OpenAI, Sam Altman, anunció un nuevo acuerdo con el Pentágono para desplegar sus modelos en redes cerradas. Según Altman, el contrato incorpora formalmente las mismas restricciones clave: prohibición de vigilancia masiva doméstica y de uso de IA en armas totalmente autónomas, manteniendo la responsabilidad humana sobre cualquier decisión de empleo de la fuerza.

Este episodio evidencia cómo las políticas éticas de IA se han convertido en un factor de competencia entre proveedores. Casos anteriores, como el proyecto Maven en Google en 2018, ya mostraron que la presión interna de los empleados puede redefinir la participación de las grandes tecnológicas en programas militares y forzar la adopción de principios de IA responsable alineados con marcos como las directrices éticas del DoD o el NIST AI Risk Management Framework.

Para gobiernos y empresas, la lección es clara: es imprescindible establecer políticas transparentes de uso de IA, realizar auditorías periódicas de la cadena de suministro digital, evaluar riesgos legales y reputacionales, y garantizar una coordinación estrecha entre equipos de seguridad, cumplimiento normativo y desarrollo. Las organizaciones que integran IA en sistemas críticos deberían formalizar límites explícitos al acopio masivo de datos, la toma de decisiones autónoma y los usos coercitivos o de fuerza. Incorporar estos criterios desde el diseño reduce la superficie de ataque, mejora la resiliencia y refuerza la confianza de usuarios y reguladores. Seguir de cerca la evolución del caso Anthropic–Pentágono es clave para cualquier estrategia de ciberseguridad y soberanía digital en los próximos años.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.