Hände weg von romantischen KI-Chatbots – sie wollen nur das Eine 😉
Die gemeinnützige Mozilla-Stiftung, die auch den gleichnamigen Webbrowser herausgibt, hat 11 KI-Chatbots unter die Lupe genommen. Es handelt sich um Anwendungen, die in den App-Stores von Apple und Google erhältlich sind, die also auf dem iPhone und auf Android-Geräten laufen.
Das alarmierende Fazit: Nur gerade eine App erfüllte die Mindest-Standards von Mozilla bezüglich Datensicherheit und dem Schutz der Privatsphäre der User. Die anderen Apps wiesen zum Teil eklatante Sicherheitsmängel auf.
Wo ist das Problem?
Viele Menschen sind einsam und da kommt die vermeintliche Geselligkeit von KI-Chatbots vielleicht gerade recht. Andere Smartphone-Nutzerinnen und -Nutzer sind einfach nur gelangweilt oder neugierig und lassen sich deshalb auf Plaudereien mit den sprachbegabten Apps ein.
Sicherheitsforscher Misha Rykov bringt es auf den Punkt:
Die Mozilla-Stiftung fasst einige «nicht so lustige Fakten» über die untersuchten Chatbots zusammen:
- Solche Apps enthalten hunderte oder gar tausende Tracker. Dabei handelt es sich um kleine Codefragmente, die von den App-Entwicklern eingebaut wurden. Sie können Informationen über das Mobilgerät oder die Nutzung der App oder auch persönliche Daten sammeln und leiten diese häufig zu Werbezwecken an Dritte weiter.
- Alles, was du deinem KI-Chatbot sagst, kann gegen dich verwendet werden. Es existiert hier kein juristisches «Ehegattenprivileg», wonach man nicht vor Gericht gegen die eigene Partnerin oder den Partner aussagen muss. «Die meisten Unternehmen geben an, dass sie Ihre Daten ohne gerichtliche Anordnung an die Regierung oder Strafverfolgungsbehörden weitergeben können.»
- In den Charakterbeschreibungen der KI-Chatbots tauchten viele verstörende Inhalte auf – etwa Themen wie Gewalt oder Missbrauch von Minderjährigen.
- Einige Anbieter selbst warnen davor, dass ihre Chatbots aggressiv oder unfreundlich reagieren können. Dahinter steckt ein grundlegendes technisches Problem von generativer Künstlicher Intelligenz: Die Chatbots basieren auf grossen Sprachmodellen (LLM) und wurden wahrscheinlich auch mit problematischen Daten trainiert.
- Die meisten Apps (73 %) informierten nicht darüber, wie sie mit Sicherheitslücken umgehen.
- Die meisten Entwicklerfirmen der KI-Chatbots (64 %) würden keine klaren Informationen über Verschlüsselung und deren Verwendung in der App bieten.
- Fast die Hälfte der Apps (45 %) erlaube auch schwache Passwörter, wie etwa kurze Zahlenfolgen.
Die Sicherheitsforscher warnen:
Obwohl die digitalen Begleiter noch relativ neu seien, gebe es bereits viele Beweise, dass sie sich negativ auf die Gefühle oder gar auf das Verhalten von Menschen auswirken können. Doch die Entwicklerfirmen nähmen das hin.
Welche KI-Chatbots wurden untersucht?
Auf der Mozilla-Website gibt es zu den folgenden 11 KI-Chatbot-Apps eine eigene Beurteilung bezüglich Datensicherheit und Schutz der Privatsphäre:
- Anima: AI Friend & Companion (Mozilla-Bericht)
- Anima: My Virtual AI Boyfriend (Bericht)
- Chai (Bericht)
- CrushOn.AI (Bericht)
- Eva AI Chat & Clever Chatbot (Bericht)
- Genesia AI Friend & Partner (Bericht)
- iGirl: AI Girlfriend (Bericht)
- Mimico – Your AI Friends (Bericht)
- Replika: My AI Friend (Bericht)
- Romantic AI (Bericht)
- Talkie Soulful AI (Bericht)
Gemäss Bericht ist «EVA AI» die einzige App, die laut der Entwicklerfirma die persönlichen Daten der User nicht verkaufe. Bei allen anderen untersuchten Apps würden entweder Daten verkauft oder für Dinge wie gezielte Werbung an Dritte weitergeben, oder die Anbieter stellten nicht ausreichend Informationen in ihren Datenschutzrichtlinien zur Verfügung.
Wie schützt man sich?
Die Sicherheitsfachleute der Mozilla-Stiftung richten unter anderem folgende Ratschläge an neugierige User, die KI-Chatbots ausprobieren möchten:
- «Sagen Sie in Ihrem Gespräch mit dem KI-Partner nichts, was sensible Informationen enthält.»
- «Verlangen Sie, dass Ihre Daten gelöscht werden, sobald Sie die App nicht mehr verwenden. Durch das einfache Löschen einer App von Ihrem Gerät werden Ihre persönlichen Daten gewöhnlich nicht gelöscht.»
- Man solle keine Zustimmung zur ständigen Standortbestimmung (Geolokalisierung) durch die App erteilen, sondern «nur bei Verwendung der App» wählen.
- Der App keinen Zugriff auf die eigenen Fotos und Videos oder die Kamera erteilen.
- Man solle das Tracking in den System-Einstellungen des Mobilgeräts einschränken (z.B. auf dem iPhone unter Datenschutz -> Werbung -> Anzeigen-Tracking einschränken) und man solle die grössten Werbenetzwerke ausschalten (Bei Google geht man zum Google-Konto und deaktiviert die Anzeigen-Personalisierung).
Quellen
- mozilla.org: Happy Valentine’s Day! Romantic AI Chatbots Don’t Have Your Privacy at Heart (14. Februar)
Lass dir helfen!
Du glaubst, du kannst eine persönliche Krise nicht selbst bewältigen? Das musst du auch nicht. Lass dir helfen.
In der Schweiz gibt es zahlreiche Stellen, die rund um die Uhr für Menschen in suizidalen und depressiven Krisen da sind – vertraulich und kostenlos.
– Die Dargebotene Hand: Tel 143, www.143.ch
– Beratung + Hilfe 147 für Jugendliche: Tel 147, www.147.ch
– Reden kann retten: www.reden-kann-retten.ch
