Das ist eine der grössten Gefahren bei KI-Chatbots, die du kennen solltest
Eine nicht repräsentative Umfrage im Bekanntenkreis zeigt: Mittlerweile experimentieren viele Leute mit eigenen Chatbots. Privat und beruflich.
Es klingt ja auch verlockend: Ein solcher Chatbot kann den Usern mühsame «Fleissarbeiten» abnehmen und erstellt mehr oder weniger kreative Texte und Bilder.
Wo ist das Problem?
Kürzlich hat OpenAI noch einen daraufgesetzt: Nun gibt es eine Art App-Store für Chatbots.
Der GPT-Store ermöglicht es zahlenden Kundinnen und Kunden, die ein ChatGTP-Plus-Abo haben, von anderen Usern erstellte Chatbots zu nutzen und selber solche zu veröffentlichen. Diese Bots, die auf den Fähigkeiten von ChatGPT aufbauen, werden «GPTs» genannt. Und die Drittentwickler, die sie erstellen, sind die «Builder».
Dass die GPTs auf der Plattform von OpenAI zugänglich sind, bedeutet aber nicht, dass sie das gleiche Mass an Sicherheit und Datenschutz bieten wie ChatGPT selbst. Ganz abgesehen davon, dass auch OpenAI nicht über alle Zweifel erhaben ist und wegen fragwürdigem Umgang mit Daten Dritter beispielsweise in den USA juristischen Ärger hat.
Doch zurück zu den von Usern erstellten Bots.
Die gute Nachricht: Nicht alle Daten, die man während den Chats eingibt, sind für die Dritt-Entwickler zugänglich. OpenAI hält in seinen Datenschutz-FAQs fest, dass die Chat-Inhalte selbst weitgehend geschützt seien.
Auf der OpenAI-Website heisst es dazu:
Darüber hinaus können die Builder aber auch eigene Programmierschnittstellen (API) an ihre Bots anbinden, um die Funktionalität zu erweitern. Und dabei gilt gemäss OpenAI zu beachten: «Hier werden Teile Ihrer Chats mit dem Drittanbieter der API geteilt, der nicht den Datenschutz- und Sicherheitsverpflichtungen von OpenAI unterliegt».
OpenAI überprüfe nicht unabhängig die Datenschutz- und Sicherheitspraktiken dieser Entwickler, wird betont. Damit verbunden ergeht eine klare Warnung an die User:
Der IT-Sicherheitsexperte Alastair Paterson, Geschäftsführer des US-Unternehmens Harmonic Security, veröffentlichte letzte Woche einen Blog-Post zum Thema. Schon im Titel warnt der Fachmann vor einem Wolf im Schafspelz. Und:
In einer Stellungnahme gegenüber dem US-Medium Dark Reading versuchte ein OpenAI-Sprecher zu beschwichtigen:
OpenAI ist natürlich bei Weitem nicht das erste Unternehmen mit einem App-Store. Ob die Kontrollen so streng sind wie die von Apple, Google und anderen, ist jedoch fraglich.
In den zwei Monaten, seit OpenAI anpassbare GPTs eingeführt hat, wurden bereits über 3 Millionen neue Bots erstellt. Es scheine «ein sehr einfacher Verifizierungsprozess» zu sein, um eine App zu veröffentlichen, gibt Paterson zu bedenken.
Dass User problematische Chatbots OpenAI melden sollen, damit sie überprüft und allenfalls entfernt werden, illustriert eine bei Techunternehmen aus dem Silicon Valley übliche Haltung: Dem Schutz der Privatsphäre und der Sicherheit der User-Daten wird nicht das gleiche Gewicht beigemessen wie dem schnellen Wachstum.
Bei OpenAI nimmt man also das Risiko missbräuchlicher Verwendung der ChatGPT-Technik bewusst in Kauf. Und wir User sind die Versuchskaninchen. Halt genau so, wie es Google, Meta und Co. erfolgreich vorgemacht haben.
Die IT-Sicherheitsexpertin Adenike Cosgrove von der Firma Proofpoint weist in dem Zusammenhang auf die konkreten Gefahren durch KI-generierte Falschinformationen hin: «Cyberkriminelle können mithilfe von KI-Tools überzeugende Phishing-E-Mails und gefälschte Bilder erstellen sowie betrügerische Telefonanrufe tätigen, wodurch sie ihre potenziellen Opfer noch besser mit Social-Engineering-Angriffen hinters Licht führen können».
Quellen
- harmonic.security: Wolf in Sheep’s Clothing? Security Implications of OpenAI’s GPT Store (11. Januar)
- darkreading.com: OpenAI's New GPT Store May Carry Data Security Risks