WormGPT 4 und KawaiiGPT: Angriffsfokussierte KI-Modelle im Cybercrime-Ökosystem

CyberSecureFox 🦊

Generative kuenstliche Intelligenz ist laengst kein Werkzeug mehr nur fuer Entwickler und legitime Unternehmen. Im Untergrund entsteht ein eigener Markt fuer LLM ohne Sicherheitsfilter, die explizit fuer Cyberangriffe beworben werden – mit weitreichenden Folgen fuer das digitale Risiko aller Organisationen.

KI ohne Regeln: Entstehung eines neuen Cybercrime-Marktes

Waehrend oeffentliche Dienste wie ChatGPT, Claude oder Gemini strenge Safety-Mechanismen einsetzen – etwa Filter gegen Malware-Anleitungen oder Social-Engineering-Skripte –, setzt die Untergrundszene bewusst auf das Gegenteil: „KI ohne Regeln“, vermarktet als Werkzeug fuer Phishing, Ransomware und Umgehung von Sicherheitsmassnahmen.

Diese Modelle senken den technischen Einstieg in die Cyberkriminalitaet drastisch. Was frueher fundierte Kenntnisse in Programmierung, Betriebssystemen und Netzwerken erforderte, laesst sich heute mit grundlegendem Prompt-Engineering und etwas Kreativitaet umsetzen. Das verstaerkt den Trend zu Cybercrime-as-a-Service (CaaS), den auch ENISA und Europol in aktuellen Lageberichten als Schluesselfaktor der Professionalisierung von Angreifern beschreiben.

WormGPT 4: Kommerzielles LLM fuer Ransomware und Malware

WormGPT 4 ist die aktuelle Ausbaustufe eines seit 2023 beworbenen Untergrund-LLM. Die Betreiber vermarkten das System als „Schluessel zu grenzenloser KI“. Der Vertrieb erfolgt ueber Telegram-Kanaele und einschlaegige Foren, Abomodelle liegen bei rund 50 US‑Dollar pro Monat oder 220 US‑Dollar fuer dauerhaften Zugang inkl. Quellcode.

Technische Details zur Architektur oder zu Trainingsdaten werden bewusst verschwiegen. Unklar ist, ob es sich um ein manipuliertes Derivat eines bekannten Foundation Models oder um ein tiefgreifend „gejailbreaktes“ Basismodell handelt. Entscheidend ist: Explizite Sicherheits- und Ethikfilter fehlen.

Praxisbeispiel: Ransomware-Generierung fuer Windows

Forschende von Palo Alto Networks liessen sich von WormGPT 4 ein Ransomware-Skript erstellen, das PDF-Dateien unter Windows verschluesseln sollte. Das Modell lieferte in Sekunden einen funktionsfaehigen PowerShell-Skript-Prototyp, flankiert von bewusst aggressiver Rhetorik – ein klares Signal, dass keine ethischen Schranken greifen.

Der generierte Code nutzte AES‑256 zur Verschluesselung, erzeugte eine digitale Erpressernachricht mit 72‑Stunden-Frist und sah die Exfiltration sensibler Daten ueber das Tor-Netzwerk vor. Zwar waere zur Umgehung moderner EDR- und AV-Loesungen weiterhin manuelle Nacharbeit erforderlich, doch der Startpunkt – die „Skelett-Ransomware“ – wird durch die KI in Sekunden bereitgestellt.

KawaiiGPT: Kostenlose Angriffsplattform im Anime-Gewand

Anders als das kommerzielle WormGPT 4 wird KawaiiGPT seit 2025 kostenlos ueber GitHub verbreitet. Nach Angaben der Betreiber existieren bereits ueber 500 registrierte Nutzende, mehrere Hundert davon sind woechentlich aktiv. Beworben wird das System ironisch als „sadistische Waifu fuer Pentesting“ – eine vermeintlich spielerische Inszenierung, die den realen Gefaehrdungsgrad verschleiert.

Fachleute bewerten KawaiiGPT als operational faehiges Werkzeug fuer echte Angriffe, nicht nur fuer Ausbildung oder Labortests. Entscheidend ist die Breite der Unterstuetzung entlang der gesamten Angriffskette.

Von Phishing über Laterale Bewegung bis zur Erpressung

In Tests generierte KawaiiGPT auf Anforderung ein Phishing-Schreiben im Namen einer Bank mit dem Betreff „Dringend: Bestaetigen Sie die Informationen zu Ihrem Konto“. Der Inhalt war sprachlich ueberzeugend, an typische Bankkommunikation angelehnt und beinhaltete die Beschreibung einer Fake-Website, die gezielt Zahlungsdaten, Geburtsdaten und Kontozugangsdaten abgreifen sollte.

Darueber hinaus konnte das Modell unter anderem:

  • einen Python-Skriptentwurf fuer laterale Bewegung auf Linux-Systemen via SSH (paramiko) erstellen,
  • Codevorschlaege zum Extrahieren von EML-Dateien unter Windows liefern,
  • und Varianten von Ransomware-Erpressernachrichten formulieren.

Damit naehert sich KawaiiGPT einem universellen Angriffstool, das Reconnaissance, Initial Access, Laterale Bewegung und Monetarisierung unterstuetzt – ein Muster, das auch in professionellen Ransomware-Gruppen zu beobachten ist.

Warum LLMs fuer Cyberkriminelle den Basisrisikolevel anheben

Sicherheitsbehoerden und Anbieter von Sicherheitsloesungen sehen in solchen Modellen einen neuen Basislevel digitaler Risiken. Der eigentliche Paradigmenwechsel liegt weniger in einer einzelnen Malware-Variante als in der breiten Verfuegbarkeit von Angriffswissen auf Knopfdruck.

Mit Untergrund-LLM koennen inzwischen auch Personen mit geringen technischen Faehigkeiten:

  • glaubwuerdige Phishing-Mails und Fake-Landingpages erstellen,
  • Schadsoftware entwerfen und anpassen, inklusive polynomorpher Varianten,
  • OSINT und Zielaufklaerung automatisieren, etwa das Sammeln oeffentlich zugaenglicher Informationen fuer Social Engineering.

Internationale Berichte wie der ENISA Threat Landscape und Analysen von Europol zeigen bereits, dass Angreifer generative KI verstaerkt fuer Phishing, Betrugskampagnen und die Beschleunigung der Malware-Entwicklung nutzen. Generative KI reiht sich damit als Standardbaustein ein – neben Stealern, Botnetzen und Ransomware-Frameworks.

Konkrete Massnahmen fuer Unternehmen und Anwender

Angesichts dieser Entwicklung reichen klassische Antivirenloesungen und punktuelle Awareness-Kampagnen nicht mehr aus. Notwendig ist ein mehrschichtiger Sicherheitsansatz, der technische, organisatorische und menschliche Faktoren kombiniert.

Empfehlenswerte Schritte umfassen unter anderem:

  • regelmaessige Schulungen zur Erkennung von KI-gestuetztem Phishing, inklusive praktischer Beispiele und Simulationen,
  • Konsequente Einfuehrung von Multi-Faktor-Authentifizierung (MFA) fuer alle kritischen Konten und Remote-Zugaenge,
  • Einsatz von verhaltensbasierten E‑Mail- und Netzwerk-Analysesystemen, die Anomalien erkennen, statt nur bekannte Signaturen zu matchen,
  • engmaschiges Monitoring von Skript-Engines wie PowerShell und Python, inklusive Application Control und Logging,
  • Aufbau eines Security Operations Center (SOC) oder die Anbindung an einen Managed-Detection-and-Response-Dienst (MDR).

Die schnelle Verbreitung von WormGPT 4, KawaiiGPT und aehnlichen LLM verdeutlicht, wie dynamisch sich der Bedrohungsraum entwickelt. Organisationen, die diese Entwicklung fruehzeitig in ihre Sicherheitsstrategie integrieren, ihre Teams gezielt weiterbilden und in moderne, verhaltensbasierte Schutztechnologien investieren, reduzieren ihr Risiko spuerbar – und verschaffen sich in einem von KI gepraegten Cybercrime-Ökosystem einen wichtigen Verteidigungsvorsprung.

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.