Digital
Datenschutz

ChatGPT soll vertrauliche Daten von Usern anzeigen – das ist bekannt

OpenAI CEO Moves To Microsoft The Microsoft and OpenAI logos are seen on screens in this illustration photo in Warsaw, Poland on 21 November, 2023. Former head of OpenAI Sam Altman has said he is stil ...
Das von Microsoft mitfinanzierte OpenAI untersucht einen merkwürdigen Fall.Bild: imago-images.de

ChatGPT zeigt angeblich vertrauliche Daten von fremden Usern an – das wissen wir

Aus den USA erreicht uns ein alarmierender Bericht: ChatGPT habe Passwörter aus privaten Chats gegenüber Dritten preisgegeben. Auch Namen unveröffentlichter Forschungsarbeiten, Präsentationen und PHP-Skripte seien durchgesickert.
30.01.2024, 15:0630.01.2024, 17:18
Mehr «Digital»

Das US-amerikanische Techportal Ars Technica hat in der Nacht auf Dienstag einen beunruhigenden Bericht publiziert. Demnach zeigte ChatGPT vertrauliche Inhalte aus privaten Chats im Konto eines fremden ChatGPT-Users an.

Und dies, obwohl der besagte User vorgängig gar nicht versucht haben soll, den KI-Chatbot mittels Texteingabe (Prompt) zu einem Fehlverhalten zu verleiten.

Sicher ist: Der Vorfall wirft viele Fragen auf.

Was liess ChatGPT durchsickern?

Gemäss Ars Technica hat ein User insgesamt sieben Screenshots eingereicht, wovon zwei besonders hervorgestochen seien. Denn diese umfassten unter anderem Benutzerdaten und Passwörter für einen Online-Dienst.

«Beide [Screenshots] enthielten mehrere Paare aus Benutzernamen und Passwörtern, die offenbar mit einem Supportsystem in Verbindung standen, das von Mitarbeitern eines Apothekenportals für verschreibungspflichtige Medikamente genutzt wurde. Ein Mitarbeiter, der den KI-Chatbot nutzte, schien Probleme zu beheben, die bei der Nutzung des Portals aufgetreten waren.»
Screenshot soll zeigen, dass ChatGPT vertrauliche Inhalte leakte, bzw. ungewollt an eine Drittperson durchsickern liess.
Dieser Screenshot soll zeigen, dass ChatGPT vertrauliche ältere Informationen aus einem privaten Chat leakte, bzw. ungewollt an eine Drittperson durchsickern liess.Screenshot: Ars Technica

Die unerwarteten Outputs seien am Montagmorgen plötzlich aufgetaucht, kurz nachdem der User ChatGPT «für eine nicht verwandte Anfrage» verwendet hatte.

Der Entdecker der fremden Chats schilderte:

«Ich habe eine Anfrage gestellt (in diesem Fall Hilfe bei der Suche nach cleveren Namen für Farben in einer Palette) und als ich einen Moment später zum Zugriff zurückkehrte, fielen mir die zusätzlichen Konversationen auf.»
quelle: arstechnica.com

Die Chats seien nicht dagewesen, als er ChatGPT am Vorabend verwendet habe, so der User. Und er habe auch keine entsprechenden Prompts gemacht. Die fremden Daten seien in seinem ChatGPT-Verlauf (in der Seitenleiste) angezeigt worden und stammten mit Sicherheit nicht von ihm.

Weitere durchgesickerte Chats umfassten den Namen einer Präsentation, an der jemand gearbeitet habe, Einzelheiten eines unveröffentlichten Forschungsvorschlags und ein Skript, das die Programmiersprache PHP verwende.

Die User der einzelnen durchgesickerten Chats schienen unterschiedlich zu sein und nichts miteinander zu tun zu haben, heisst es im Bericht. In der Unterhaltung über das Verschreibungsportal werde das Jahr 2020 genannt. In den anderen Gesprächen gebe es keine Datumsangaben.

Wie konnte das passieren?

Das ist nicht klar.

Ein Kommentator bei Ars Technica schreibt, die geleakten Anmeldedaten stammten aus einer Zeit, bevor ChatGPT öffentlich verfügbar war. Demnach seien die Daten wahrscheinlich in den Datensätzen enthalten gewesen, mit denen das Sprachmodell (LLM) von OpenAI trainiert wurde.

Ein anderer User wies darauf hin, dass das grosse Sprachmodell GPT-2 von OpenAI im Februar 2019 verfügbar gewesen sei. Es gebe also keinen Grund zu der Annahme, dass es «Trainingsdaten» seien. Vielmehr dürfte es sich um Chatverläufe von sogenannten Early Adopters handeln, also um User, die schon sehr früh mit der KI arbeiteten.

Ein anderer Kommentator widerspricht. ChatGPT speichere den Verlauf der User-Eingaben (Prompts) und der vom KI-System generierten Antworten. Anscheinend sei ein Fehler aufgetreten, bei dem der Verlauf der Prompts mitsamt Antworten in den Konten anderer Leute angezeigt wurde.

«Das hat nichts mit dem Sprachmodell zu tun. Dies ist ein ähnliches Problem, das bei verschiedenen Unternehmen mit E-Mails, Benutzer-Chat-Verläufen usw. hunderte und wahrscheinlich tausende Male aufgetreten ist. Es handelt sich fast immer um einen trivialen Fehler mit trivialer Lösung.»

Ein Vertreter von OpenAI sagte gegenüber Ars Technica, das Unternehmen untersuche den Bericht.

Was lernen wir daraus?

Dieser und weitere Vorfälle unterstreichen gemäss Ars Technica, wie wichtig es sei, persönliche Daten aus Anfragen an ChatGPT und anderen KI-Diensten zu entfernen.

Im März 2023 hatte die ChatGPT-Entwicklerin OpenAI den KI-Chatbot offline geschaltet, nachdem ein Fehler dazu geführt hatte, dass die Website gegenüber Drittpersonen Titel aus dem Chatverlauf eines aktiven Users anzeigte.

Im November 2023 veröffentlichten Forschende einen Fachartikel (PDF), in dem sie berichteten, wie sie ChatGPT mit Prompts veranlassen konnten, E-Mail-Adressen, Telefon- und Faxnummern, physische Adressen und andere private Daten preiszugeben. Die entsprechenden Daten seien in dem Material enthalten gewesen, das zum Trainieren des grossen Sprachmodells von OpenAI verwendet wurde.

Weiter ruft Ars Technica in Erinnerung, dass mehrere grosse Unternehmen, darunter Apple, die Nutzung von ChatGPT und anderer KI-Chatbots durch die eigenen Angestellten eingeschränkt, oder gleich ganz verboten haben.

Quellen:

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wenn sich KI-Bilder viral verbreiten
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Auf Facebook teilenAuf X teilen
«Dumme Fragen!» - ChatGPT beklagt sich über uns
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
45 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Eiche
30.01.2024 15:50registriert März 2023
Naja, wer ChatGPT vertrauliche Daten preisgibt, muss die Konsequenzen selber tragen können
737
Melden
Zum Kommentar
avatar
insert_brain_here
30.01.2024 16:09registriert Oktober 2019
ChatGPT nutzt ohne Einverständnis unzählige Quellen um daraus seine Quasi-Plagiate zu generieren und die Nutzer wundern sich ernsthaft dass auch ihre eigenen Inputs auf die gleiche Weise verwendet werden? 😂
687
Melden
Zum Kommentar
avatar
Ilovepies
30.01.2024 16:05registriert Februar 2015
Was wir daraus lernen? Dass es so viele Daten und Datenverarbeitungen gibt, dass niemand mehr einen Überblick darüber hat. Es werden sich zwangsläufig noch viele weitere Lecks ergeben. Im Einzelnen haben wir das nicht mehr im Griff.
423
Melden
Zum Kommentar
45
Mercedes floppt in China und verkaufte im Oktober keinen einzigen EQE
Der Stern erlischt in China: Elektroautos wie der EQE verkaufen sich kaum – teils gar nicht. Selbst Rabatte von über 40 Prozent locken die Kunden nicht.

Mercedes-Desaster auf dem wichtigsten Automarkt der Welt: Die Elektromodelle des Konzerns finden in China kaum Käufer. Besonders hart traf es die elektrische E-Klasse.

Zur Story