Künstliche Intelligenz verändert die Ökonomie der Cyberkriminalität grundlegend. Nach dem aktuellen Bericht von Interpol zu Finanzbetrug erzielen KI-gestützte Betrugsoperationen im Durchschnitt den 4,5‑fachen Gewinn herkömmlicher Methoden. Die geschätzten globalen Verluste durch Finanzbetrug lagen 2025 bei rund 442 Milliarden US‑Dollar – mit deutlicher Aufwärtstendenz, vor allem durch skalierbare KI-gestützte Angriffe.
Künstliche Intelligenz als Wachstumsmotor des Finanzbetrugs
Der Kern des Problems ist weniger die Erfindung völlig neuer Angriffstypen als vielmehr der drastische Anstieg von Qualität, Geschwindigkeit und Skalierbarkeit bestehender Betrugsschemata. Interpol beschreibt eine fortschreitende „Industrialisierung des Betrugs“: Werkzeuge, die früher tiefes technisches Know-how erforderten, stehen heute als fertige Baukästen oder Abonnement-Services auf Untergrundmarktplätzen zur Verfügung.
Diese Entwicklung folgt bekannten Mustern aus der Cybercrime-Ökonomie: Angriffe werden standardisiert, in Module zerlegt und als „Crime-as-a-Service“ angeboten. Ähnlich wie Ransomware-as-a-Service in den vergangenen Jahren Angriffe professionalisiert hat, sorgt nun KI-as-a-Service dafür, dass auch weniger versierte Täter hochwirksame Betrugsoperationen durchführen können.
Perfektionierte Social-Engineering-Angriffe durch generative KI
Auf der Einstiegsebene setzen Kriminelle verstärkt auf generative KI und große Sprachmodelle (LLM), um Social-Engineering-Angriffe zu optimieren. Klassische Phishing-Mails ließen sich früher oft an Rechtschreibfehlern, untypischem Stil oder holprigen Formulierungen erkennen – insbesondere in Fremdsprachen.
LLM ermöglichen es heute, in Sekunden stilistisch einwandfreie, kontextgenaue Nachrichten zu erzeugen – im Namen von Banken, Marktplätzen oder bekannten Marken, in praktisch jeder Sprache. Das erhöht nachweislich die Erfolgsquoten von Phishing und Business Email Compromise (BEC). Untersuchungen von Strafverfolgungsbehörden und Sicherheitsanbietern zeigen, dass bereits kleine Verbesserungen in der Glaubwürdigkeit von Mails die Zahl erfolgreicher Kompromittierungen signifikant steigen lassen.
Hinzu kommt, dass KI-Tools große Datenmengen aus Leaks, Social Media und Firmenwebseiten automatisiert auswerten können. Dadurch werden hochgradig personalisierte Betrugsnachrichten möglich, die sich explizit auf Position, Kollegen oder aktuelle Projekte der Zielperson beziehen – ein entscheidender Vorteil gegenüber früheren Massenkampagnen.
Deepfakes und Voice-Cloning: Identität als Dienstleistung
Besonders dynamisch entwickelt sich laut Interpol der Bereich synthetischer Medien (Deepfakes). Für einen glaubwürdigen Stimmklon genügen mittlerweile etwa zehn Sekunden Originalton – leicht zu beschaffen aus Interviews, Social-Media-Videos oder Sprachnachrichten. Diese Technologie wird gezielt genutzt, um Führungskräfte, Geschäftspartner oder Angehörige zu imitieren.
Typische Szenarien sind Anrufe „des CEOs“ beim Finanzteam mit der Aufforderung, dringende Überweisungen freizugeben, oder Videocalls mit manipulierten Gesichtern und Stimmen. Solche Angriffe verbinden Social Engineering mit technischer Täuschung und unterlaufen klassische Plausibilitätsprüfungen.
Deepfake-as-a-Service im Untergrundmarkt
Interpol berichtet über einen wachsenden Schwarzmarkt für „deepfake-as-a-service“. Angeboten werden fertige synthetische Identitäten – inklusive manipulierten Fotos, Videos und Stimmen – zu niedrigen Preisen und mit benutzerfreundlichen Oberflächen. Diese Angebote senken die Einstiegshürde und treiben die weitere Industrialisierung der Cyberkriminalität voran.
Für Unternehmen bedeutet das: Identität – ob Stimme, Bild oder Video – ist ohne ergänzende Prüfmechanismen kein verlässlicher Authentikator mehr. Sicherheitsrichtlinien müssen dies explizit berücksichtigen, etwa durch verbindliche Rückruf- oder Vier-Augen-Prozesse für alle kritischen Finanzanweisungen.
Agenten-KI: Von der Einzeltat zur vollautomatisierten Angriffskette
Eine noch frühe, aber strategisch bedeutsame Entwicklung ist der Einsatz von Agenten-KI – Systemen, die eigenständig Aufgaben planen, ausführen und aus Ergebnissen lernen können. Laut Interpol sind groß angelegte Angriffe mit solchen Agenten zwar noch selten, doch ihr Potenzial ist erheblich.
Perspektivisch können KI-Agenten die komplette Vorbereitung von Cyberangriffen automatisieren: systematisches Sammeln öffentlich verfügbarer Informationen, Abgleich mit bekannten Datenlecks, Identifizierung potenzieller Einstiegspunkte und Schwachstellenanalyse. Bereits heute werden in Red-Teaming-Szenarien KI-gestützte Tools erprobt, die genau diese Schritte für Sicherheitsüberprüfungen simulieren – dieselbe Technik kann von Angreifern missbraucht werden.
Besonders kritisch ist der Einsatz beim Auswerten gestohlener Daten. KI-Agenten können sensible Informationen klassifizieren, wirtschaftliche Auswirkungen abschätzen und daraus optimierte Lösegeldforderungen ableiten – abgestimmt auf Branche, Unternehmensgröße und Versicherungsstatus der Opfer. Dies erhöht die wirtschaftliche Attraktivität von Erpressungskampagnen und verschärft die Bedrohungslage für Unternehmen.
Sextortion mit KI-Bildern: Psychologischer Druck als Waffe
Interpol registriert zudem einen deutlichen Anstieg von Sextortion-Kampagnen auf Basis KI-generierter Bilder. In analysierten Fällen lehnten Opfer zunächst klassische Betrugsmaschen wie Krypto- oder Investment-Scams ab. Als Reaktion produzierten Täter mithilfe generativer Bildmodelle täuschend echte intime Aufnahmen, die angeblich die betroffene Person zeigen.
Mit der Androhung, diese Inhalte an Familie, Kollegen oder in sozialen Netzwerken zu verbreiten, setzen Täter gezielt auf Scham, Angst vor Reputationsschäden und sozialen Druck. Selbst wenn Betroffene ahnen, dass die Bilder manipuliert sind, zahlen viele, um öffentliche Bloßstellung zu vermeiden. Dadurch etabliert sich Sextortion mit synthetischem Material als besonders perfides und lukratives Geschäftsmodell.
Die beschriebenen Entwicklungen zeigen eindeutig: „Sicherheit nach Gewohnheit“ reicht im Zeitalter KI-gestützter Cyberkriminalität nicht mehr aus. Unternehmen und Privatpersonen sollten Sicherheitsstrategien konsequent anpassen – durch systematische Schulungen zu Social Engineering und Deepfakes, verpflichtende Mehrfaktor-Authentifizierung, strikte Prüfprozesse für finanzielle Transaktionen sowie technische Verfahren zur Verifikation von Audio- und Videoinhalten. Wer frühzeitig in Aufklärung, Prozesse und Technologie investiert, reduziert nicht nur das unmittelbare Risiko, sondern erschwert insgesamt das Geschäftsmodell der Angreifer – ein entscheidender Faktor, um die von Interpol prognostizierte weitere Eskalation der KI-gestützten Finanzkriminalität einzudämmen.