El Centro Nacional de Respuesta a Emergencias de Redes y Virus de China (CNCERT/CC) ha emitido una advertencia oficial sobre los altos riesgos de ciberseguridad asociados al uso del agente de IA OpenClaw. Según el organismo, la configuración por defecto de esta plataforma deja expuestos credenciales, sistemas corporativos críticos y datos sensibles, creando condiciones para incidentes de gran impacto.
OpenClaw como nuevo vector de ataque en agentes de IA
CNCERT califica la configuración estándar de OpenClaw como “extremadamente débil” desde el punto de vista de la seguridad. Este tipo de agente de IA no solo interactúa con modelos de lenguaje, sino que puede invocar herramientas del sistema, acceder a recursos externos e incluso integrarse con infraestructuras internas, lo que lo convierte en un nuevo y atractivo vector de ataque para actores maliciosos.
Uno de los riesgos más críticos señalados es la prompt injection. En este escenario, un atacante introduce instrucciones ocultas en páginas web, documentos o APIs que el agente consulta automáticamente. El resultado práctico es que el agente puede llegar a obedecer órdenes del atacante en lugar del usuario legítimo, filtrando información confidencial, modificando ficheros o ejecutando comandos en entornos de desarrollo, nube o sistemas de gestión de TI.
En paralelo, CNCERT advierte sobre la amenaza de “skills” y plugins envenenados. Estos módulos amplían las capacidades de OpenClaw, pero, si son desarrollados o alterados por atacantes, pueden actuar como un canal de exfiltración sigilosa de datos, almacenamiento de tokens de acceso o creación de puertas traseras persistentes. Este escenario se encuadra en el conocido riesgo de la cadena de suministro (supply chain) aplicado ahora al ecosistema de IA.
Vulnerabilidades conocidas y el papel del factor humano
El aviso recuerda que en OpenClaw ya se han detectado previamente vulnerabilidades graves que permitían el robo de credenciales y la escalada de privilegios. Estos fallos son especialmente peligrosos cuando el agente está conectado a cuentas corporativas en la nube, repositorios de código o paneles de administración de infraestructura, donde una única brecha puede desencadenar un compromiso masivo.
CNCERT subraya además el impacto del factor humano en el uso de agentes de IA. OpenClaw puede leer, crear y modificar archivos o consumir APIs en nombre del usuario. Si no existen límites estrictos, un simple error de formulación en las instrucciones puede provocar el borrado de datos críticos, interrupciones en procesos de negocio o incluso la caída de servicios esenciales, con efectos comparables a una campaña de ataque dirigida, especialmente en organizaciones sin políticas sólidas de copia de seguridad ni planes de recuperación.
Recomendaciones de seguridad de CNCERT para OpenClaw
El organismo chino recomienda tratar OpenClaw como un agente automatizado potencialmente no confiable, que nunca debe tener acceso amplio e irrestricto a la infraestructura corporativa. Entre las medidas prioritarias de seguridad se incluyen las siguientes.
Despliegue aislado en contenedores y segmentación de red
CNCERT aconseja ejecutar OpenClaw dentro de contenedores Docker, Podman u otras plataformas de virtualización ligera, aplicando el principio de mínimo privilegio y políticas de acceso muy restrictivas. Esta contención reduce la superficie de ataque y limita el alcance de una posible intrusión. Complementariamente, la segmentación de red y el uso de VLAN o microsegmentación evitan que un agente comprometido se mueva lateralmente por la infraestructura.
Protección del puerto de administración y endurecimiento de accesos
El panel de control y los puertos de gestión de OpenClaw no deben exponerse a Internet. CNCERT recomienda restringir el acceso mediante VPN, listas de direcciones IP permitidas y autenticación fuerte. Asimismo, se insta a habilitar autenticación multifactor (MFA), modelos de control de acceso basado en roles (RBAC) y a conceder únicamente los permisos estrictamente necesarios a las cuentas asociadas al agente.
Control manual de actualizaciones y plugins de confianza
Las actualizaciones automáticas y la instalación sin supervisión de plugins pueden convertirse en un canal de distribución de código malicioso. La recomendación es desactivar la actualización automática, realizar un auditado manual de cada nueva versión y permitir exclusivamente extensiones verificadas y procedentes de fuentes consideradas confiables, en línea con las mejores prácticas ya consolidadas para la gestión de dependencias de software.
Posición de Gartner, adopción masiva y endurecimiento en el sector público
La advertencia de CNCERT coincide con análisis previos de Gartner, que ha descrito a OpenClaw como un “riesgo de ciberseguridad inaceptable para el entorno corporativo” y recomienda ejecutarlo únicamente en entornos aislados, con credenciales desechables y una integración mínima con sistemas productivos.
Pese a estas alertas, el auge de los agentes de IA en China ha impulsado la rápida adopción de OpenClaw. Grandes proveedores cloud lo ofrecen con despliegue “en un clic”, y se han organizado instalaciones masivas en campus tecnológicos, lo que aumenta la probabilidad de implementaciones apresuradas sin controles de seguridad adecuados.
Tras el comunicado de CNCERT, varios organismos gubernamentales y bancos estatales han prohibido la instalación de OpenClaw en equipos corporativos. En algunos casos, las restricciones se amplían incluso a dispositivos personales conectados a la red corporativa, alineadas con políticas de alta madurez en ciberseguridad que consideran cualquier agente de IA no autorizado como un punto de entrada no controlado a la infraestructura.
La situación en torno a OpenClaw ilustra una tendencia clara: los agentes de IA se están consolidando como una nueva categoría de activos de alto riesgo. Las organizaciones que ya experimentan con OpenClaw u otros agentes similares deberían inventariar estos despliegues, reducir sus privilegios, aislarlos mediante contenedores y segmentación de red y definir políticas formales de uso. Aquellas que planeen futuros proyectos de IA deben incorporar evaluaciones de ciber-riesgo y requisitos de arquitectura segura desde la fase de diseño. Integrar la seguridad desde el inicio permite aprovechar la automatización y la IA sin convertir estas tecnologías en el eslabón más débil de la defensa corporativa.