CISA, ChatGPT y datos sensibles: un caso clave sobre ciberseguridad e IA generativa en el gobierno

CyberSecureFox 🦊

Según medios estadounidenses, el director en funciones de la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA), Madhu Gottumukkala, está siendo investigado tras cargar documentos de trabajo en el servicio público ChatGPT. El caso expone de forma muy clara los riesgos sistémicos del uso de IA generativa en administraciones públicas y pone en tela de juicio la cultura interna de seguridad de uno de los principales organismos de ciberdefensa del país.

Qué ocurrió: documentos de CISA cargados en ChatGPT

De acuerdo con información citada por Politico y fuentes del Departamento de Seguridad Nacional (DHS), el verano pasado Gottumukkala, poco después de incorporarse a CISA, subió a ChatGPT documentos contractuales sensibles del organismo. Estos ficheros estaban marcados como “for official use only” (FOUO): no eran secretos oficiales, pero sí información restringida y no destinada a difusión pública.

La acción del responsable activó las herramientas internas de seguridad del DHS, diseñadas para detectar posibles fugas o transmisiones no autorizadas de información desde redes federales hacia servicios en la nube externos. Estos controles, basados en tecnologías de Data Loss Prevention (DLP), inspeccionan y bloquean automáticamente la salida de determinados tipos de datos fuera del perímetro protegido.

El incidente resulta aún más significativo porque el acceso a ChatGPT está bloqueado para la mayoría de los empleados del DHS. En su lugar, utilizan soluciones de IA aprobadas y alojadas en infraestructuras protegidas, como la herramienta interna DHSChat, donde las consultas y documentos permanecen dentro de las redes gubernamentales. Según la prensa, Gottumukkala obtuvo una excepción específica para usar el producto de OpenAI, aunque no se han explicado públicamente los motivos de esa excepción.

Por qué subir información gubernamental a ChatGPT es un riesgo crítico

Aunque los documentos no contenían secretos oficiales, su clasificación FOUO implica que un acceso no autorizado podría afectar a la privacidad de ciudadanos, dañar la confianza en programas públicos o interferir con iniciativas relacionadas con la seguridad nacional.

El riesgo principal radica en la naturaleza de los servicios públicos de IA generativa. Plataformas como ChatGPT procesan la información en la infraestructura del proveedor. Incluso cuando se activan opciones para limitar el uso de los datos en el entrenamiento de modelos, la organización no dispone del mismo control técnico, legal y de auditoría que en un entorno interno o gubernamental.

En términos prácticos, fragmentos de la información introducida podrían:

emplearse para el reentrenamiento o ajuste fino de modelos;
verse expuestos en caso de una brecha de seguridad en la nube del proveedor;
reaparecer, en escenarios extremos, en las respuestas a otros usuarios, dada la naturaleza estadística de los modelos de lenguaje.

Medios estadounidenses subrayan que, a partir de este incidente, fragmentos de esos documentos podrían potencialmente terminar integrados en respuestas de ChatGPT para cualquiera de sus cientos de millones de usuarios. Aunque la probabilidad sea baja, el mero hecho de que exista ese vector de fuga es incompatible con el rol de CISA como agencia responsable de la protección de infraestructuras críticas en EE. UU.

IA generativa en la administración: tendencia a entornos cerrados y controlados

A escala internacional, el sector público está virando hacia implementaciones cerradas y fuertemente controladas de IA generativa. Esto incluye desde modelos de lenguaje desplegados en centros de datos propios hasta versiones “gubernamentales” de nubes comerciales, con separación lógica de datos, acuerdos específicos de tratamiento de información y capacidades avanzadas de auditoría.

En este modelo, los pilares de seguridad suelen incluir:

— Clasificación rigurosa de la información. Definir con claridad qué tipos de datos (personales, sensibles, clasificados, propiedad intelectual, etc.) no pueden cargarse en servicios públicos de IA y cuáles pueden procesarse sólo en entornos internos controlados.

— Controles técnicos robustos. Además de políticas escritas, se recurre a DLP, pasarelas seguras, soluciones CASB (Cloud Access Security Broker) y bloqueos selectivos de aplicaciones para reducir la superficie de fuga.

— Formación continua y cultura de seguridad. No basta con prohibiciones genéricas. Los empleados necesitan entender cómo funciona la IA generativa, por qué un “copiar y pegar” inocente puede ser grave y qué consecuencias reales se han visto ya en empresas y gobiernos de todo el mundo, como incidentes reportados en grandes compañías tecnológicas tras subir código fuente o datos de clientes a ChatGPT.

Investigación interna en el DHS y presión sobre la dirección de CISA

Politico informa de que el Departamento de Seguridad Nacional abrió una investigación interna en agosto del año pasado para analizar el alcance del incidente. El objetivo sería valorar el posible impacto sobre la seguridad nacional y determinar si las acciones de Gottumukkala se ajustaron a las políticas vigentes de manejo de información sensible.

Las consecuencias disciplinarias podrían ir desde un aviso formal y formación obligatoria adicional hasta la suspensión o retirada de su autorización de acceso a información clasificada. En un puesto de alta dirección de ciberseguridad, la pérdida de este tipo de credenciales haría prácticamente inviable el desempeño completo de sus funciones.

Este episodio se suma a otras controversias en torno a la gestión de CISA. En fechas recientes, el Congreso estadounidense cuestionó a Gottumukkala por recortes de plantilla significativos que habrían reducido el personal de la agencia de unos 3.400 a alrededor de 2.400 empleados, generando inquietud sobre la capacidad del organismo para proteger infraestructuras críticas y garantizar la seguridad electoral. Además, han trascendido informaciones sobre un supuesto intento fallido de superar una prueba de polígrafo vinculada al acceso a datos especialmente sensibles de ciberinteligencia, lo que ha alimentado el escrutinio político y mediático.

Lecciones de ciberseguridad: cómo usar ChatGPT y la IA generativa sin exponer datos críticos

El caso de CISA ilustra que los errores graves en el uso de IA generativa no son exclusivos de usuarios novatos; pueden cometerlos incluso responsables técnicos con amplia experiencia. Tanto organismos públicos como empresas privadas pueden extraer varias lecciones prácticas:

  1. Definir una política clara de uso de IA generativa. Establecer por escrito qué categorías de información (datos personales, secretos comerciales, información confidencial de clientes, documentos internos, etc.) tienen prohibido ser introducidas en servicios públicos como ChatGPT, y difundir esa norma a toda la organización.

  2. Priorizar entornos corporativos o gubernamentales de IA. Siempre que sea posible, utilizar versiones empresariales o desplegadas en el propio perímetro, con acuerdos contractuales específicos, registros de auditoría, cifrado fuerte y opciones para desactivar el uso de datos en el entrenamiento de modelos.

  3. Combinar medidas organizativas y controles tecnológicos. La política por sí sola no basta. Es recomendable acompañarla de DLP, control de aplicaciones en la nube, segmentación de redes y revisiones periódicas del cumplimiento, especialmente en áreas críticas como finanzas, legal, I+D o administración pública.

  4. Invertir en concienciación y capacitación continua. Explicar con ejemplos reales cómo pequeñas acciones —como subir un contrato, un listado de clientes o código fuente a un chatbot— pueden derivar en fugas masivas. Iniciativas como el marco de gestión de riesgos de IA del NIST o guías de organismos reguladores pueden servir de base para estos programas de formación.

La historia de CISA demuestra que una sola decisión equivocada en la cúpula de una organización puede escalar a un incidente de alcance nacional. A medida que la IA generativa se integra en los procesos diarios, resulta imprescindible revisar las políticas internas, reforzar los controles técnicos y formar al personal antes de que una herramienta “productiva” se convierta en el origen de una filtración de datos críticos. Este es el momento para que organizaciones públicas y privadas actualicen sus normas de uso de IA, integren la gestión del riesgo algorítmico en su estrategia de ciberseguridad y se anticipen al próximo incidente, en lugar de reaccionar cuando ya es demasiado tarde.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.