Der kommissarische Direktor der US-Behörde für Cybersicherheit und Infrastrukturschutz (CISA), Madhu Guttomukkala, steht im Zentrum einer internen Untersuchung, nachdem er dienstliche Dokumente in den öffentlichen KI-Dienst ChatGPT hochgeladen haben soll. Der Vorfall, über den unter anderem Politico unter Berufung auf Quellen im Heimatschutzministerium (DHS) berichtet, macht exemplarisch sichtbar, welche strukturellen Risiken der Einsatz generativer KI in sensiblen Behördenumgebungen mit sich bringt.
Vorfall bei CISA: Dienstunterlagen im oeffentlichen ChatGPT
Nach Medienberichten lud Guttomukkala im Sommer des vergangenen Jahres kurz nach seinem Amtsantritt bei CISA vertragliche Unterlagen der Behörde in ChatGPT hoch. Die Dokumente waren als „For Official Use Only“ (FOUO) eingestuft: nicht geheim, aber eindeutig nicht zur öffentlichen Verbreitung bestimmt und potenziell sicherheitsrelevant.
Die Aktion loeste Sicherheitsalarme in den Data-Loss-Prevention-Systemen (DLP) des DHS aus. Solche DLP-Loesungen analysieren ausgehenden Datenverkehr und sollen verhindern, dass sensible oder klassifizierte Informationen unkontrolliert in externe Cloud-Dienste abfließen. Gerade in föderalen Netzen sind DLP, Proxys und Cloud-Access-Security-Broker (CASB) zentrale Bausteine der Schutzarchitektur.
Brisant ist, dass der Zugriff auf ChatGPT fuer den Großteil der DHS-Beschaeftigten standardmaeßig gesperrt sein soll. Stattdessen stehen behördenintern freigegebene KI-Werkzeuge wie „DHSChat“ zur Verfügung, die in einer kontrollierten Infrastruktur betrieben werden. Guttomukkala soll eine Ausnahmegenehmigung für den direkten Einsatz von ChatGPT beantragt haben; der genaue Zweck dieser Sonderfreigabe ist öffentlich nicht bekannt.
Warum generative KI-Dienste fuer staatliche Stellen ein Risiko darstellen
Auch wenn die betroffenen Unterlagen keine formell geheimen Informationen enthielten, kann die unerlaubte Weitergabe von FOUO-Daten Vertrauen in staatliche Programme untergraben, Rückschlüsse auf interne Abläufe zulassen oder operative Maßnahmen im Bereich der nationalen Sicherheit beeinträchtigen.
Das Grundproblem liegt in der Architektur öffentlicher generativer KI: Dienste wie ChatGPT verarbeiten alle Eingaben in der Cloud des Anbieters. Selbst wenn Einstellungen zur Nichtverwendung von Kundendaten für das weitere Training aktiviert sind, fehlt Behörden und Unternehmen der vollständige technische und rechtliche Kontrollrahmen, den sie in eigenen, abgeschotteten Umgebungen erreichen können. Kommt es zu Sicherheitsvorfällen oder Insider-Bedrohungen beim Anbieter, besteht das Risiko, dass sensible Inhalte kompromittiert werden.
Praxisfälle aus der Industrie zeigen die Relevanz: Bereits 2023 wurden aus mehreren Konzernen Vorfälle bekannt, bei denen Quellcode, interne Strategieunterlagen oder personenbezogene Daten versehentlich in ChatGPT eingegeben wurden. Gleichzeitig weisen Berichte wie der „Cost of a Data Breach Report“ von IBM seit Jahren darauf hin, dass menschliche Fehler und Fehlkonfigurationen zu den Hauptursachen für Datenpannen gehören – generative KI ist lediglich ein neuer, besonders bequemer Kanal für solche Fehler.
Sichere KI-Governance im oeffentlichen Sektor: geschlossene Modelle statt offener Dienste
International setzt sich im öffentlichen Sektor zunehmend das Modell geschlossener, kontrollierter KI-Instanzen durch: lokal betriebene Sprachmodelle oder spezielle „Government-Cloud“-Varianten, in denen Daten strikt mandantengetrennt verarbeitet, protokolliert und auditiert werden. Empfehlungen wie das NIST AI Risk Management Framework betonen die Notwendigkeit klarer Richtlinien für Datentypen, Zugriffskontrollen und Monitoring.
Best-Practices umfassen dabei drei Ebenen: strikte Datenklassifizierung (was darf nie in externe KI, was nur in freigegebene Umgebungen), technische Schranken (Sperren für öffentliche KI-Dienste, DLP, CASB, Netzwerksegmentierung) sowie verbindliche Richtlinien und Schulungen, die Mitarbeitende sowohl über Verbote als auch über die technischen Hintergründe aufklären.
DHS-Ermittlungen und politischer Druck auf die CISA-Spitze
Laut Politico leitete das US-Heimatschutzministerium bereits im August des vergangenen Jahres eine interne Untersuchung des Vorfalls ein. Geprüft werden sollen der potenzielle Schaden für die nationale Sicherheit und die Frage, ob interne Informationssicherheitsrichtlinien verletzt wurden.
Mögliche Disziplinarmaßnahmen reichen dem Vernehmen nach von formellen Verwarnungen und verpflichtenden Nachschulungen bis hin zu Einschränkungen der Sicherheitsfreigabe. Für die Leitung einer Behörde, die für den Schutz kritischer Infrastrukturen und die Koordination der nationalen Cyberabwehr verantwortlich ist, wäre ein Verlust oder eine Beschränkung dieser Freigabe faktisch existenzbedrohend für das Amt.
Hinzu kommt, dass Guttomukkala bereits zuvor in der Kritik stand. Im US-Kongress wurden umfangreiche Personalreduzierungen bei CISA thematisiert, durch die die Belegschaft von rund 3400 auf etwa 2400 Mitarbeitende geschrumpft sein soll. Medien berichteten außerdem über Streitigkeiten im Zusammenhang mit einer Polygraphenprüfung für besonders sensible Zugangsrechte. Zusammengenommen verstärken diese Faktoren den politischen Druck auf die Behördenspitze.
Konkrete Lehren: So koennen Organisationen generative KI sicher nutzen
1. Verbindliche KI-Richtlinien etablieren. Organisationen sollten klar definieren, welche Datenkategorien niemals in öffentliche KI-Dienste eingegeben werden dürfen – etwa personenbezogene Daten, geschützte Geschäftsgeheimnisse, vertrauliche Vertragsunterlagen oder interne Sicherheitsinformationen – und diese Vorgaben in leicht verständlichen Richtlinien festschreiben.
2. Enterprise- oder On-Premise-KI loesen oeffentliche Dienste ab. Wo immer möglich, sollten unternehmenseigene oder speziell gehärtete KI-Umgebungen genutzt werden – mit individuellen Auftragsverarbeitungsverträgen, strengen Zugriffskontrollen, Audit-Logs und der Option, die Nutzung von Daten für das Modelltraining vollständig zu unterbinden.
3. Organisatorische Vorgaben mit Technik untermauern. Verbote allein reichen nicht aus. Notwendig sind DLP-Systeme, CASB-Lösungen, Proxy-Regeln, die öffentliche KI-Dienste blockieren oder nur in eingeschränkten „Safe Zones“ zulassen, sowie regelmäßige Kontrollen der Policy-Compliance.
4. Kontinuierliche Sensibilisierung und Praxisbeispiele. Mitarbeitende müssen verstehen, warum bestimmte Eingaben in KI-Systeme riskant sind: Wie große Sprachmodelle funktionieren, warum Texte intern zwischengespeichert werden und welche realen Vorfälle es bereits gab. Fallstudien wie der CISA-Vorfall eignen sich dafür besonders gut.
Der aktuelle Fall zeigt deutlich: Schon eine einzige Fehleinschätzung auf Führungsebene kann weitreichende sicherheitspolitische Folgen haben. Behörden und Unternehmen sollten den Vorfall als Anlass nehmen, ihre eigene KI-Strategie zu überprüfen: Bestehen klare Richtlinien? Sind DLP- und Cloud-Sicherheitskontrollen wirksam konfiguriert? Werden Führungskräfte und Fachpersonal regelmäßig zu generativer KI geschult? Wer diese Fragen jetzt konsequent adressiert, reduziert nicht nur das Risiko von Datenabflüssen, sondern schafft zugleich die Grundlage, KI-Technologien produktiv und sicher zu nutzen.