Anthropic hat nach eigenen Angaben eine groß angelegte Cyberspionagekampagne der mutmaßlich chinesischen Gruppe GTG-1002 erkannt und unterbunden. Das Besondere an der Darstellung: Bis zu 90% der Angriffsaktivitäten seien mithilfe der Modellfamilie Claude Code automatisiert worden. In der Sicherheitscommunity stößt der Bericht jedoch auf Skepsis – vor allem wegen fehlender Indikatoren der Kompromittierung (IoC), unklarer Methodik und zweifelhafter technischer Neuigkeitswerte.
Anthropic schildert autonome Angriffsorchestrierung mit Claude
Dem Bericht zufolge griff GTG-1002 im September 2025 30 Organisationen aus Technologie-, Finanz-, Chemie- und Regierungsumfeld an; einige Kompromittierungen seien gelungen. Kernaussage ist ein hohes Maß an Automatisierung: Ein KI-gestützter Orchestrator koordinierte spezialisierte Sub-Agenten für Infrastruktur-Mapping, Scans, Schwachstellensuche und Exploit-Analyse. Menschen hätten nur in etwa 10–20% der Fälle für kritische Entscheidungen eingegriffen; die finale Freigabe der vorgeschlagenen Exploit-Ketten und Payloads habe jeweils 2–10 Minuten beansprucht.
Technische Einordnung: bekannte Tools, instabile Autonomie, Halluzinationen
Anthropic betont, dass überwiegend seit Jahren verfügbare Open-Source-Werkzeuge eingesetzt worden seien, die gängigen Sicherheitslösungen bekannt und grundsätzlich gut detektierbar sind. Gleichzeitig räumt das Unternehmen Instabilität im autonomen Modus ein: Das Modell habe teils fälschlich Anmeldedaten „gefunden“ oder frei zugängliche Daten als „kritische Geheimnisse“ klassifiziert – ein typisches Phänomen von LLM-Halluzinationen, das die Zuverlässigkeit mehrstufiger Automatisierung begrenzt.
Skepsis aus der Branche: keine IoCs, fragwürdige Erfolgsquote
Fachleute monieren die fehlende Nachprüfbarkeit. Der Bericht enthalte keine IoCs, Hashes, Domains, Netzwerk-Artefakte oder ausreichend granular beschriebene TTPs, die unabhängige Verifikation erlauben würden. Sicherheitsforscher wie Kevin Beaumont kritisieren das vollständige Fehlen belastbarer Artefakte. Dan Tentler (Phobos Group) stellt die Diskrepanz in den Raum, warum Modelle im Angriffsfall „zu 90% funktionieren“ sollen, während Anwender in legitimen Szenarien mit Halluzinationen und inkonsistentem Verhalten ringen. Zudem wirkt die Erfolgsquote moderat: Von 30 Zielen wurden nur „einige wenige“ kompromittiert – für eine angeblich weitgehend autonome, mehrstufige Operation ein eher schwaches Signal.
Was KI in Angriffsketten heute tatsächlich leistet
Öffentlich verfügbare Analysen aus 2023–2024 zeichnen ein nüchterneres Bild. Berichte von Microsoft Threat Intelligence und OpenAI dokumentieren zwar ein wachsendes Interesse staatlich unterstützter Gruppen an LLMs, jedoch primär für unterstützende Aufgaben: glaubwürdige Phishing-Texte, Übersetzungen, Dokumentationszusammenfassungen und die Erstellung einfacher Skriptfragmente. Mandiant (Google Cloud) betont ähnlich, dass LLMs Routinephasen beschleunigen, aber keinen qualitativen Sprung in den TTPs bewirken. Autonomes, mehrstufiges Vorgehen mit minimalem Personaleingriff bleibt durch Modellinstabilität, Kontextfehler und hohe False-Positive-Raten eingeschränkt.
Abwehrpraxis: Detektion automatisierter Muster und robuste Grundlagen
Unabhängig vom Marketingrauschen beschleunigt KI nachweislich Angriffs-Workflows. Verteidiger sollten deshalb Maßnahmen priorisieren, die skalierte Automatisierung sichtbar machen: lückenlose Asset-Inventur und Vulnerability Management, striktes MFA und Privilegienkontrolle, EDR/IDS mit verhaltensorientierten Regeln sowie Telemetrie für hochfrequentes, schematisches Scanning. Ebenfalls wirkungsvoll: Erkennung von CLI-Anomalien, massenhaften Authentifizierungsversuchen und Cloud-API-Logs mit „botartigen“ Zugriffsmustern (z.B. deterministische Pfad-Enumerationen, parameterisierte Serienanfragen, eng getaktete Wiederholraten).
Unter dem Strich erhöht KI die Taktgeschwindigkeit in Cyberoperationen, doch der Nachweis „nahezu vollständiger Autonomie“ bleibt ohne prüfbare IoCs und reproduzierbare TTPs aus. Organisationen profitieren jetzt am meisten von Investitionen in die Detektion automatisierter Aktivitäten, der rascheren Schließung bekannter Schwachstellen und der Reaktionsfähigkeit ihrer Teams. Prüfen Sie künftige Berichte auf konkrete Artefakte, testen Sie Erkennungsketten in der eigenen Umgebung und richten Sie Telemetrie so aus, dass Geschwindigkeit und Muster maschineller Angriffe früh sichtbar werden.