Streaming-Betrug mit KI-Musik: Ein Fall zeigt die Schwachstellen von Spotify & Co.

CyberSecureFox

In den USA ist ein aufsehenerregender Fall von Streaming-Betrug mit KI-generierter Musik aufgeflogen, der exemplarisch zeigt, wie sich legale Tantiemen-Modelle in kriminelle Geschäftsmodelle verwandeln lassen. Der 54‑jährige Musiker Michael Smith aus North Carolina hat gestanden, über Jahre hinweg gefälschte Streams auf großen Plattformen wie Spotify, Apple Music, Amazon Music und YouTube Music erzeugt und damit mehr als 10 Millionen US‑Dollar erbeutet zu haben.

KI-generierte Musik, Botnetze und Cloud-Infrastruktur: So funktionierte das System

Nach Angaben des US-Justizministeriums baute Smith zwischen 2017 und 2024 eine skalierbare Infrastruktur auf, die nicht auf gehackten Konten oder Sicherheitslücken beruhte, sondern auf der systematischen Manipulation des Tantiemen-Modells. Statt existierende Songs zu missbrauchen, ließ er massenhaft neue Inhalte produzieren.

Smith arbeitete mit einem nicht namentlich genannten Musikpromoter und dem Geschäftsführer eines Unternehmens zusammen, das sich auf KI-generierte Musik spezialisiert hatte. Über diesen Partner erwarb er hunderttausende automatisch erzeugte Tracks. Jeder Titel war formal „neu“ und damit prinzipiell tantiemenberechtigt. Die Songs wurden unter verschiedenen Künstlernamen und Labels auf die Streaming-Plattformen hochgeladen, um ein breites und schwer zu überblickendes Repertoire zu schaffen.

Im nächsten Schritt griff ein Netzwerk aus Bot-Accounts. Tausende automatisierter Nutzerkonten spielten die KI-Songs ab, wechselten Playlists, pausierten und setzten fort – in Mustern, die reale Hörgewohnheiten imitieren sollten. Um grundlegende Fraud-Filter zu umgehen, lenkte Smith den gesamten Traffic über VPN-Dienste und Cloud-Infrastrukturen. So verteilten sich die Verbindungen auf zahlreiche IP-Adressen und Regionen, was einfache IP-Blocklisten und Geo-Checks weitgehend aushebelte.

In interner Kommunikation erläuterte Smith, er benötige eine „sehr große Zahl von Songs mit jeweils wenigen Streams“, um nicht aufzufallen. Statt einzelne „Hits“ aufzufüllen, setzte er auf breit verteiltes, niedrigschwelliges Fraud-Volumen – ein klassischer Ansatz im Anti-Fraud-Umfeld, um Anomalieerkennung zu erschweren.

Skalierung und Ökonomie des Streaming-Betrugs

Auf dem Höhepunkt seiner Aktivitäten kontrollierte Smith nach Ermittlerangaben über 1.000 Bot-Accounts. In einem internen Finanzdokument von 2017 kalkulierte er, dass 52 Cloud-Accounts mit jeweils 20 Bots rund 661.440 Streams pro Tag generieren könnten. Bei einer durchschnittlichen Ausschüttung von etwa 0,5 US‑Cent pro Stream ergäbe das rund 3.307 US‑Dollar täglich, knapp 100.000 US‑Dollar monatlich und mehr als 1,2 Millionen US‑Dollar pro Jahr.

Unmittelbar vor seiner Festnahme gab Smith an, seine Tracks hätten seit 2019 insgesamt über 4 Milliarden Streams erzielt und damit ungefähr 12 Millionen US‑Dollar Tantiemen eingebracht. Strafverfolger betonen, dass diese Reichweitenmetriken weitgehend künstlich waren und die ausgeschütteten Beträge aus dem gemeinsamen Vergütungspool echter Künstlerinnen, Künstler und Rechteinhaber stammten. Laut US-Staatsanwaltschaft habe Smith „tausende Songs mit KI erzeugt und sie Milliarden Male abspielen lassen“ – die Musik und Hörer seien fiktiv gewesen, das erbeutete Geld jedoch real. Ihm drohen bis zu fünf Jahre Haft sowie die Einziehung von 8.091.843,64 US‑Dollar.

Warum Musikstreaming ein attraktives Ziel für automatisierten Betrug ist

Das Geschäftsmodell von Musikstreaming basiert auf Mikrotransaktionen: Jeder einzelne Stream generiert nur Bruchteile eines Cents, doch bei Milliarden von Abrufen entstehen erhebliche Summen. Ähnlich wie beim Click-Fraud in der Online-Werbung nutzen Kriminelle diese Struktur aus, indem sie massenhaft automatisierte „Nutzungsereignisse“ erzeugen.

Für die Plattformen ergibt sich eine schwierige Sicherheitslage: Anti-Fraud-Systeme müssen zwischen echten Heavy-Usern und Bots unterscheiden, ohne legitime Kundschaft zu blockieren. Angriffe wie im Fall Smith nutzen genau diese Grauzone. Botnetze verteilen ihre Aktivität über viele Konten, Geräte-IDs und Regionen, drosseln ihre Abspielraten und vermeiden auffällige Spitzen. Der Einsatz von VPNs und Cloud-Rechenzentren verschleiert zusätzlich die Herkunft des Traffics, zumal viele dieser IP-Adressen auch von legitimen Nutzern oder Unternehmen verwendet werden.

Besonders schwer erkennbar sind Szenarien, in denen tausende wenig populäre Tracks mit moderater, aber stetiger Aktivität versehen werden. Klassische Fraud-Erkennung fokussiert häufig auf extreme Ausreißer – etwa einzelne Songs mit explosionsartigem Wachstum. Breite, unauffällige Streuung stellt deutlich höhere Anforderungen an feingranulare Anomalieerkennung und Korrelation von Kontextdaten.

Lehren für die Cybersecurity der Musikindustrie

Technische Gegenmaßnahmen und Anti-Fraud-Strategien

Der Fall unterstreicht, dass Musikplattformen Anti-Fraud als Kernaufgabe der Cybersicherheit behandeln müssen. Notwendig ist ein mehrschichtiger Ansatz, der unter anderem umfasst:

Vertiefte Verhaltensanalytik: Analyse von Session-Dauer, Wechselhäufigkeit zwischen Tracks, Interaktion mit der App, Wiederholungsmustern und Tageszeiten, um menschliches von automatisiertem Verhalten zu trennen.

Korrelation technischer Signale: Zusammenführung von IP-Daten, Geräte-Fingerprints, Cloud- und VPN-Indikatoren, Login-Mustern und Payment-Daten, um verdächtige Cluster und Bot-Farmen zu identifizieren.

Machine Learning und Graph-Analysen: ML-Modelle, die ungewöhnliche Netzwerkstrukturen (z. B. viele Konten, die hauptsächlich denselben kleinen Track-Katalog streamen) und subtile Verhaltensabweichungen erkennen, sind hier besonders effektiv.

Stärkere Kontrolle der Content-Zulieferer: Plattformen sollten KYC-ähnliche Prozesse für Distributoren, Aggregatoren und Label-Accounts etablieren, vor allem bei massiven Upload-Volumina von KI-Musik. Auffällige Kataloge sollten automatisiert markiert und manuell überprüft werden.

Regelmäßige Audits der Tantiemen-Verteilung: Systematische Prüfungen und rückwirkende Analysen ungewöhnlicher Auszahlungsströme helfen, Betrugsnetzwerke zu erkennen und unrechtmäßige Einnahmen zu stoppen.

Risiken für Künstler, Labels und Rechteinhaber

Für seriöse Marktteilnehmer hat Streaming-Betrug direkte finanzielle Konsequenzen. Da der Tantiemen-Pool begrenzt ist, verringert jeder gefälschte Stream den Anteil echter Künstler. Darüber hinaus verzerren künstlich aufgeblähte Zahlen Empfehlungsalgorithmen, Playlists und Chart-Platzierungen – legitime Inhalte werden aus dem Sichtfeld der Nutzer verdrängt.

Rechteinhaber und Künstler sollten daher Abrechnungen und Geodaten der Streams aufmerksam verfolgen und auf ungewöhnliche Muster achten, etwa plötzliche Zuwächse in Regionen ohne Fanbasis oder stark monotone Abrufprofile. Angebote dubioser „Promotion“-Dienstleister, die rasante Streaming-Zuwächse versprechen, bergen erhebliche Risiken: Viele Plattformen untersagen Manipulation ausdrücklich und können bei Verstößen Accounts, Kataloge und Auszahlungen sperren.

Der Fall Michael Smith macht deutlich, dass Streaming-Fraud mit KI-Inhalten kein Kavaliersdelikt, sondern eine Straftat ist, deren wirtschaftlicher Schaden mit der weiteren Automatisierung weiter steigen dürfte. Musikplattformen, Labels und Künstler sind gut beraten, ihre Security- und Monitoring-Strukturen jetzt zu stärken, branchenspezifische Threat-Intelligence zu teilen und technische wie organisatorische Schutzmaßnahmen laufend anzupassen. Je früher verdächtige Muster erkannt und unterbunden werden, desto eher fließen Tantiemen an diejenigen, die sie verdienen – die tatsächlichen Urheber der Musik.

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.