Digital
Apps

Eine KI-App als (romantischer) Freund? Diese Risiken sollte man kennen

Frau mit Smartphone.
Die Mozilla-Stiftung warnt vor Apps, die sich als falsche Freunde herausstellen.Bild: imago-images.de

Hände weg von romantischen KI-Chatbots – sie wollen nur das Eine 😉

Sicherheitsforscher haben zum Valentinstag 11 flirtende und freundlich plaudernde KI-Chatbots untersucht und kommen zu einem eindeutigen Befund: Hände weg!
14.02.2024, 19:10
Mehr «Digital»

Die gemeinnützige Mozilla-Stiftung, die auch den gleichnamigen Webbrowser herausgibt, hat 11 KI-Chatbots unter die Lupe genommen. Es handelt sich um Anwendungen, die in den App-Stores von Apple und Google erhältlich sind, die also auf dem iPhone und auf Android-Geräten laufen.

Das alarmierende Fazit: Nur gerade eine App erfüllte die Mindest-Standards von Mozilla bezüglich Datensicherheit und dem Schutz der Privatsphäre der User. Die anderen Apps wiesen zum Teil eklatante Sicherheitsmängel auf.

«Alles Liebe zum Valentinstag? Romantische KI-Chatbots kümmert deine Privatsphäre herzlich wenig.»

Wo ist das Problem?

Viele Menschen sind einsam und da kommt die vermeintliche Geselligkeit von KI-Chatbots vielleicht gerade recht. Andere Smartphone-Nutzerinnen und -Nutzer sind einfach nur gelangweilt oder neugierig und lassen sich deshalb auf Plaudereien mit den sprachbegabten Apps ein.

Sicherheitsforscher Misha Rykov bringt es auf den Punkt:

«Um es ganz unverblümt zu sagen: KI-Chatbots sind nicht deine Freunde. Obwohl sie als etwas vermarktet werden, das deine geistige Gesundheit und dein Wohlbefinden verbessert, sind sie darauf spezialisiert, Abhängigkeit, Einsamkeit und Toxizität zu erzeugen, während sie so viele Daten wie möglich von dir abgreifen.»

Die Mozilla-Stiftung fasst einige «nicht so lustige Fakten» über die untersuchten Chatbots zusammen:

  • Solche Apps enthalten hunderte oder gar tausende Tracker. Dabei handelt es sich um kleine Codefragmente, die von den App-Entwicklern eingebaut wurden. Sie können Informationen über das Mobilgerät oder die Nutzung der App oder auch persönliche Daten sammeln und leiten diese häufig zu Werbezwecken an Dritte weiter.
  • Alles, was du deinem KI-Chatbot sagst, kann gegen dich verwendet werden. Es existiert hier kein juristisches «Ehegattenprivileg», wonach man nicht vor Gericht gegen die eigene Partnerin oder den Partner aussagen muss. «Die meisten Unternehmen geben an, dass sie Ihre Daten ohne gerichtliche Anordnung an die Regierung oder Strafverfolgungsbehörden weitergeben können.»
  • In den Charakterbeschreibungen der KI-Chatbots tauchten viele verstörende Inhalte auf – etwa Themen wie Gewalt oder Missbrauch von Minderjährigen.
  • Einige Anbieter selbst warnen davor, dass ihre Chatbots aggressiv oder unfreundlich reagieren können. Dahinter steckt ein grundlegendes technisches Problem von generativer Künstlicher Intelligenz: Die Chatbots basieren auf grossen Sprachmodellen (LLM) und wurden wahrscheinlich auch mit problematischen Daten trainiert.
  • Die meisten Apps (73 %) informierten nicht darüber, wie sie mit Sicherheitslücken umgehen.
  • Die meisten Entwicklerfirmen der KI-Chatbots (64 %) würden keine klaren Informationen über Verschlüsselung und deren Verwendung in der App bieten.
  • Fast die Hälfte der Apps (45 %) erlaube auch schwache Passwörter, wie etwa kurze Zahlenfolgen.

Die Sicherheitsforscher warnen:

«Wir haben so viele Fragen darüber, wie die künstliche Intelligenz hinter diesen Chatbots funktioniert. Aber wir haben nur sehr wenige Antworten gefunden. Das ist ein Problem, denn wenn sich KI-Chatbots schlecht benehmen, können schlimme Dinge passieren.»

Obwohl die digitalen Begleiter noch relativ neu seien, gebe es bereits viele Beweise, dass sie sich negativ auf die Gefühle oder gar auf das Verhalten von Menschen auswirken können. Doch die Entwicklerfirmen nähmen das hin.

«Was wir gefunden haben (in den Allgemeinen Geschäftsbedingungen), ist, dass diese Unternehmen keine Verantwortung für das übernehmen, was der Chatbot sagen könnte oder was Ihnen infolgedessen passieren könnte.»

Welche KI-Chatbots wurden untersucht?

Auf der Mozilla-Website gibt es zu den folgenden 11 KI-Chatbot-Apps eine eigene Beurteilung bezüglich Datensicherheit und Schutz der Privatsphäre:

Gemäss Bericht ist «EVA AI» die einzige App, die laut der Entwicklerfirma die persönlichen Daten der User nicht verkaufe. Bei allen anderen untersuchten Apps würden entweder Daten verkauft oder für Dinge wie gezielte Werbung an Dritte weitergeben, oder die Anbieter stellten nicht ausreichend Informationen in ihren Datenschutzrichtlinien zur Verfügung.

1 / 18
Wenn KI-Chatbots allzu neugierig sind
Freundlich plaudernde und flirtende KI-Apps können ziemlich aufdringlich, respektive datenhungrig sein. watson hat die iPhone-App «EVA AI» ausprobiert und zeigt, was man preisgeben soll ...
quelle: watson / imago-images.de
Auf Facebook teilenAuf X teilen

Wie schützt man sich?

Die Sicherheitsfachleute der Mozilla-Stiftung richten unter anderem folgende Ratschläge an neugierige User, die KI-Chatbots ausprobieren möchten:

  • «Sagen Sie in Ihrem Gespräch mit dem KI-Partner nichts, was sensible Informationen enthält.»
  • «Verlangen Sie, dass Ihre Daten gelöscht werden, sobald Sie die App nicht mehr verwenden. Durch das einfache Löschen einer App von Ihrem Gerät werden Ihre persönlichen Daten gewöhnlich nicht gelöscht.»
  • Man solle keine Zustimmung zur ständigen Standortbestimmung (Geolokalisierung) durch die App erteilen, sondern «nur bei Verwendung der App» wählen.
  • Der App keinen Zugriff auf die eigenen Fotos und Videos oder die Kamera erteilen.
  • Man solle das Tracking in den System-Einstellungen des Mobilgeräts einschränken (z.B. auf dem iPhone unter Datenschutz -> Werbung -> Anzeigen-Tracking einschränken) und man solle die grössten Werbenetzwerke ausschalten (Bei Google geht man zum Google-Konto und deaktiviert die Anzeigen-Personalisierung).

Quellen

Lass dir helfen!
Du glaubst, du kannst eine persönliche Krise nicht selbst bewältigen? Das musst du auch nicht. Lass dir helfen.
In der Schweiz gibt es zahlreiche Stellen, die rund um die Uhr für Menschen in suizidalen und depressiven Krisen da sind – vertraulich und kostenlos.

Die Dargebotene Hand: Tel 143, www.143.ch
Beratung + Hilfe 147 für Jugendliche: Tel 147, www.147.ch
Reden kann retten: www.reden-kann-retten.ch
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
20 skurrile und lustige Smartphone-Probleme
1 / 21
20 skurrile und lustige Smartphone-Probleme
Das Foto-Problem
bild: imgur

Auf Facebook teilenAuf X teilen
12 Dinge, die du während eines Video-Chats nicht machen solltest
Video: watson
Das könnte dich auch noch interessieren:
8 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Philguitar
14.02.2024 20:28registriert Dezember 2018
Ach wenn ich mich einsam Fühle wähle ich die Nummer einer Hotline und schon wünschte ich mir mehr Ruhe😉

Und wenn die Hotline streikt, geht ja auch der Support Chat😂

Das schlimme scheint doch in diesem Fall wieder mal das aussnürzen von Menschen die gerne Nähe hätten.
Warum wird in einem solchen Artikel dann nicht erwähnt wie man auch ohne KI Bot Kontakte knüpft?
211
Melden
Zum Kommentar
8
Fedpol-Chefin warnt: Verbrecher-Chats können nicht zeitnah ausgewertet werden
Nachdem der Messenger-Dienst Sky ECC, ein «WhatsApp für Verbrecher», von Ermittlern gehackt wurde, liegen sehr viele Daten zur Auswertung vor. Ein Rennen gegen die Zeit.

Dank des im Jahr 2021 von Europol geknackten verschlüsselten Kommunikationsdienstes für Kriminelle Sky ECC laufen in der Schweiz zurzeit rund 60 Ermittlungen. «Es geht um Kokain, Cannabis, synthetische Drogen und Waffen», sagt Fedpol-Chefin Nicoletta della Valle.

Zur Story