KI-Spielzeug Bondu: Datenpanne verdeutlicht gravierende Datenschutz-Risiken fuer Kinder

CyberSecureFox 🦊

Die Datenpanne rund um den sprechenden Pluesch-Dinosaurier Bondu mit integriertem Chatbot zeigt exemplarisch, welche Datenschutz- und Sicherheitsrisiken von KI-Spielzeug fuer Kinder ausgehen koennen. Aufgrund fehlerhafter Zugriffskontrollen im Web-Portal des Herstellers konnten beliebige Nutzer mit einem Gmail-Konto auf vertrauliche Kinderchats und persoenliche Familieninformationen zugreifen.

Wie es zur Datenpanne beim KI-Spielzeug Bondu kam

Auf den Vorfall aufmerksam wurden die Sicherheitsforscher Joseph Thacker und Joel Margolis, nachdem eine Nachbarin die Bondu-Spielzeuge gekauft und um eine Einschaetzung der IT-Sicherheit gebeten hatte. Bereits nach kurzer Analyse stiessen die Experten auf ein oeffentlich erreichbares Bondu-Web-Portal, das offenbar als Verwaltungsoberflaeche fuer die KI-Spielzeuge diente.

Der zentrale Fehler: Fuer den Zugriff reichte eine Google-Authentifizierung aus. Es fehlte eine saubere Autorisierungspruefung und eine konsequente Mandantentrennung der Daten. Nach dem Login sah ein beliebiger Nutzer nicht nur seine eigenen Informationen, sondern konnte eine Liste aller gespeicherten Konversationen anderer Kinder und Familien einsehen.

Welche Kinder- und Familiendaten offengelegt wurden

Ueber das unsicher konfigurierte Portal waren nicht nur die Chatverlaeufe mit dem KI-Spielzeug abrufbar, sondern auch eine Reihe besonders schutzbeduerftiger personenbezogener Daten. Nach Angaben des Unternehmens umfasste der ungeschuetzte Zugriff unter anderem:

• Namen von Kindern und ihre Geburtsdaten
• Namen von Familienangehoerigen
• „Foerder- bzw. Entwicklungsziele“, die Eltern in der App hinterlegt hatten
• Vollstaendige Texttranskripte saemtlicher Gespraeche mit dem KI-Spielzeug Bondu

Insgesamt waren mehr als 50.000 Chats betroffen – faktisch die vollstaendige Nutzungshistorie fast aller Geraete, abgesehen von manuell geloeschten Verlaeufen. Aus diesen Dialogen liessen sich Rueckschluesse darauf ziehen, wie Kinder das Spielzeug nennen, welche Hobbys und Lieblingssnacks sie haben, sowie Hinweise auf Familienereignisse und Routinen.

Reaktion des Herstellers und erste Notfallmassnahmen

Nach Hinweis der Forscher sperrte Bondu den Portalzugang kurzfristig und stellte bereits am Folgetag eine uebearbeitete Version mit korrigierter Authentifizierung und Autorisierung bereit. Laut Unternehmensleitung sei die Luecke innerhalb weniger Stunden behoben und anschliessend ein zusaetzlicher Sicherheitsaudit durchgefuehrt worden.

Der Hersteller betont, es gebe keine belastbaren Hinweise auf einen Missbrauch der Schwachstelle durch Dritte. In der Praxis ist diese Aussage jedoch schwer zu verifizieren: Viele Webanwendungen verfuegen ueber unvollstaendige oder kurzlebige Logdaten, sodass ein unautorisierter Zugriff nicht immer eindeutig nachweisbar ist. Aus Sicht der Cybersicherheit ist daher von einem potenziellen Datenabfluss auszugehen, sobald eine solche Konfiguration im Internet auffindbar ist.

Warum Kinderchats fuer Social Engineering besonders wertvoll sind

Dialogprotokolle von KI-Spielzeug enthalten deutlich mehr als harmlose Alltagsfragen. Aus einer grossen Zahl von Chats lassen sich detaillierte Profile von Kindern und ihren Familien erstellen: Tagesablaeufe, Lieblingsorte, Interessen, Beziehungsmuster und teilweise sogar Hinweise auf Wohnort oder Schule.

Fuer Angreifer eroefnen solche Datensaetze ein breites Spektrum an Angriffsszenarien. Mit den gewonnenen Informationen lassen sich Social-Engineering-Angriffe zielgenau planen – etwa durch vermeintlich vertraute Kontaktaufnahmen („Ich kenne deinen Lieblingsdino …“) oder durch Manipulation und Erpressung, wenn sensible Aeusserungen im Chat protokolliert wurden. Sicherheitsbehoerden in der EU und den USA warnen seit Jahren davor, dass vernetzte Kinderspielzeuge ein attraktives Ziel fuer Straftae-ter darstellen.

Strukturelle Sicherheitsprobleme bei KI-Spielzeug und Smart Toys

Der Fall Bondu ist kein Einzelfall, sondern symptomatisch fuer eine breitere Entwicklung: Viele vernetzte Spielzeuge und IoT-Geraete fuer Kinder speichern umfangreiche Interaktionsdaten in der Cloud. Diese Logs dienen der Verbesserung der KI-Modelle und der Personalisierung, vergroessern aber zugleich den Umfang hochsensibler Daten, die angegriffen oder fehlkonfiguriert werden koennen.

Weitergabe von Kinder-Daten an KI-Plattformen

Bondu nutzt nach eigenen Angaben externe KI-Plattformen wie Google Gemini und – laut Unternehmenskommunikation – GPT‑5 von OpenAI, um Antworten zu generieren. Damit werden Ausschnitte der Kinderchats an Drittanbieter von KI-Modellen uebermittelt, auch wenn das Unternehmen von Datenminimierung und einem Unternehmensmodus spricht, in dem Eingaben nicht zum Training genutzt werden.

Datenschutzrechtlich ist dies heikel: In der EU unterliegt die Verarbeitung von Kinder- und Gesundheitsdaten strengen Vorgaben der DSGVO, in den USA der COPPA (Children’s Online Privacy Protection Act). Jeder zusaetzliche Dienstleister in der Verarbeitungskette erhoeht die Angriffsoberflaeche und den organisatorischen Aufwand, um Schutzniveau, Auftragsverarbeitungsvertraege und Datentransfers rechtskonform zu gestalten.

Risiken durch KI-unterstuetzte Entwicklung und mangelnde Security-by-Design

Nach Einschaetzung der Forscher wurde das Bondu-Portal wahrscheinlich unter intensiver Nutzung von Code-Generierung durch KI entwickelt. Beim sogenannten „Vibecoding“ verlassen sich Entwickler stark auf automatisch erzeugte Code-Snippets, ohne systematisch Penetrationstests, Bedrohungsanalysen oder Reviews aus Sicht der Zugangskontrolle durchzufuehren.

Mit der rasanten Verbreitung generativer KI steigt damit das Risiko, dass sicherheitskritische Komponenten – insbesondere Authentifizierung, Autorisierung und Mandantentrennung – fehlerhaft implementiert werden. Gerade Produkte fuer Kinder muessten jedoch nach dem Prinzip Privacy by Design und Security by Default (u.a. Art. 25 DSGVO) entwickelt werden, also mit eingebautem Datenschutz und strengen Standard-Einstellungen.

Was Eltern und Hersteller jetzt konkret tun sollten

Fuer Eltern gilt: Jedes KI-Spielzeug und jeder smarte Kinder-Gadget sollte als potenzielle Datenquelle betrachtet werden. Vor dem Kauf lohnt ein Blick in die Datenschutzerklaerung: Welche Daten werden erfasst? Werden Gespraeche aufgezeichnet? Wie lange werden Logs gespeichert? Werden Daten verschluesselt und an Dritte weitergegeben?

Empfehlenswert ist, nur die unbedingt erforderlichen Informationen preiszugeben, Profil- und Chatdaten regelmaessig zu loeschen (sofern moeglich) und Kinder zu einem bewussten Umgang mit vernetzten Spielzeugen anzuleiten – insbesondere keine Adressen, Telefonnummern oder sensiblen Familienereignisse mit dem Spielzeug zu teilen.

Hersteller wiederum sollten verpflichtend Security- und Privacy-Tests in den Entwicklungsprozess integrieren: Threat Modeling, Penetrationstests, externe Audits und Datenschutz-Folgenabschaetzungen sind bei Produkten fuer Kinder kein Luxus, sondern regulatorische und ethische Notwendigkeit. Wer fruehzeitig in robuste Sicherheitsarchitekturen investiert, minimiert nicht nur Haftungsrisiken, sondern staerkt auch das Vertrauen von Eltern und Aufsichtsbehoerden.

Der Vorfall rund um Bondu fuehrt eindruecklich vor Augen, dass Innovation im Bereich KI-Spielzeug ohne konsequente Cybersicherheit und Datenschutz nicht zukunftsfaehig ist. Wer Kinder mit intelligenten Spielzeugen vertraut macht, muss mindestens ebenso intelligent in Schutzmechanismen investieren – technisch, organisatorisch und durch informierte Entscheidungen beim Einsatz solcher Produkte.

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.