Das US-amerikanische Techportal Ars Technica hat in der Nacht auf Dienstag einen beunruhigenden Bericht publiziert. Demnach zeigte ChatGPT vertrauliche Inhalte aus privaten Chats im Konto eines fremden ChatGPT-Users an.
Und dies, obwohl der besagte User vorgängig gar nicht versucht haben soll, den KI-Chatbot mittels Texteingabe (Prompt) zu einem Fehlverhalten zu verleiten.
Sicher ist: Der Vorfall wirft viele Fragen auf.
Gemäss Ars Technica hat ein User insgesamt sieben Screenshots eingereicht, wovon zwei besonders hervorgestochen seien. Denn diese umfassten unter anderem Benutzerdaten und Passwörter für einen Online-Dienst.
Die unerwarteten Outputs seien am Montagmorgen plötzlich aufgetaucht, kurz nachdem der User ChatGPT «für eine nicht verwandte Anfrage» verwendet hatte.
Der Entdecker der fremden Chats schilderte:
Die Chats seien nicht dagewesen, als er ChatGPT am Vorabend verwendet habe, so der User. Und er habe auch keine entsprechenden Prompts gemacht. Die fremden Daten seien in seinem ChatGPT-Verlauf (in der Seitenleiste) angezeigt worden und stammten mit Sicherheit nicht von ihm.
Weitere durchgesickerte Chats umfassten den Namen einer Präsentation, an der jemand gearbeitet habe, Einzelheiten eines unveröffentlichten Forschungsvorschlags und ein Skript, das die Programmiersprache PHP verwende.
Die User der einzelnen durchgesickerten Chats schienen unterschiedlich zu sein und nichts miteinander zu tun zu haben, heisst es im Bericht. In der Unterhaltung über das Verschreibungsportal werde das Jahr 2020 genannt. In den anderen Gesprächen gebe es keine Datumsangaben.
Das ist nicht klar.
Ein Kommentator bei Ars Technica schreibt, die geleakten Anmeldedaten stammten aus einer Zeit, bevor ChatGPT öffentlich verfügbar war. Demnach seien die Daten wahrscheinlich in den Datensätzen enthalten gewesen, mit denen das Sprachmodell (LLM) von OpenAI trainiert wurde.
Ein anderer User wies darauf hin, dass das grosse Sprachmodell GPT-2 von OpenAI im Februar 2019 verfügbar gewesen sei. Es gebe also keinen Grund zu der Annahme, dass es «Trainingsdaten» seien. Vielmehr dürfte es sich um Chatverläufe von sogenannten Early Adopters handeln, also um User, die schon sehr früh mit der KI arbeiteten.
Ein anderer Kommentator widerspricht. ChatGPT speichere den Verlauf der User-Eingaben (Prompts) und der vom KI-System generierten Antworten. Anscheinend sei ein Fehler aufgetreten, bei dem der Verlauf der Prompts mitsamt Antworten in den Konten anderer Leute angezeigt wurde.
Ein Vertreter von OpenAI sagte gegenüber Ars Technica, das Unternehmen untersuche den Bericht.
Dieser und weitere Vorfälle unterstreichen gemäss Ars Technica, wie wichtig es sei, persönliche Daten aus Anfragen an ChatGPT und anderen KI-Diensten zu entfernen.
Im März 2023 hatte die ChatGPT-Entwicklerin OpenAI den KI-Chatbot offline geschaltet, nachdem ein Fehler dazu geführt hatte, dass die Website gegenüber Drittpersonen Titel aus dem Chatverlauf eines aktiven Users anzeigte.
Im November 2023 veröffentlichten Forschende einen Fachartikel (PDF), in dem sie berichteten, wie sie ChatGPT mit Prompts veranlassen konnten, E-Mail-Adressen, Telefon- und Faxnummern, physische Adressen und andere private Daten preiszugeben. Die entsprechenden Daten seien in dem Material enthalten gewesen, das zum Trainieren des grossen Sprachmodells von OpenAI verwendet wurde.
Weiter ruft Ars Technica in Erinnerung, dass mehrere grosse Unternehmen, darunter Apple, die Nutzung von ChatGPT und anderer KI-Chatbots durch die eigenen Angestellten eingeschränkt, oder gleich ganz verboten haben.