Digital
ChatGPT

ChatGPT: Das ist eine der grössten Gefahren bei KI-Chatbots

Der Screenshot zeigt einen Ausschnitt des GPT-Store von OpenAI.
Im GPT-Store tummeln sich zahlreiche Anbieter mit selbsterstellten Bots.Screenshot: chat.openai.com/gpts

Das ist eine der grössten Gefahren bei KI-Chatbots, die du kennen solltest

Eigene Chatbots, die auf ChatGPT basieren, sind der letzte Schrei. Doch bei den von Dritten erstellten «GPTs» lauern beträchtliche Risiken, wie ein kalifornischer IT-Sicherheitsexperte warnt.
16.01.2024, 18:1217.01.2024, 07:41
Mehr «Digital»

Eine nicht repräsentative Umfrage im Bekanntenkreis zeigt: Mittlerweile experimentieren viele Leute mit eigenen Chatbots. Privat und beruflich.

Es klingt ja auch verlockend: Ein solcher Chatbot kann den Usern mühsame «Fleissarbeiten» abnehmen und erstellt mehr oder weniger kreative Texte und Bilder.

Wo ist das Problem?

Kürzlich hat OpenAI noch einen daraufgesetzt: Nun gibt es eine Art App-Store für Chatbots.

Der GPT-Store ermöglicht es zahlenden Kundinnen und Kunden, die ein ChatGTP-Plus-Abo haben, von anderen Usern erstellte Chatbots zu nutzen und selber solche zu veröffentlichen. Diese Bots, die auf den Fähigkeiten von ChatGPT aufbauen, werden «GPTs» genannt. Und die Drittentwickler, die sie erstellen, sind die «Builder».

Dass die GPTs auf der Plattform von OpenAI zugänglich sind, bedeutet aber nicht, dass sie das gleiche Mass an Sicherheit und Datenschutz bieten wie ChatGPT selbst. Ganz abgesehen davon, dass auch OpenAI nicht über alle Zweifel erhaben ist und wegen fragwürdigem Umgang mit Daten Dritter beispielsweise in den USA juristischen Ärger hat.

Doch zurück zu den von Usern erstellten Bots.

Die gute Nachricht: Nicht alle Daten, die man während den Chats eingibt, sind für die Dritt-Entwickler zugänglich. OpenAI hält in seinen Datenschutz-FAQs fest, dass die Chat-Inhalte selbst weitgehend geschützt seien.

Auf der OpenAI-Website heisst es dazu:

«Vorerst haben die Entwickler keinen Zugriff auf die spezifischen Unterhaltungen mit ihren GPTs, um die Privatsphäre der User zu schützen. OpenAI denkt jedoch über zukünftige Funktionen nach, die den Buildern Analyse- und Feedback-Mechanismen zur Verfügung stellen, um ihre GPTs zu verbessern, ohne die Privatsphäre zu gefährden.»
quelle: help.openai.com / übersetzt mit deepl

Darüber hinaus können die Builder aber auch eigene Programmierschnittstellen (API) an ihre Bots anbinden, um die Funktionalität zu erweitern. Und dabei gilt gemäss OpenAI zu beachten: «Hier werden Teile Ihrer Chats mit dem Drittanbieter der API geteilt, der nicht den Datenschutz- und Sicherheitsverpflichtungen von OpenAI unterliegt».

OpenAI überprüfe nicht unabhängig die Datenschutz- und Sicherheitspraktiken dieser Entwickler, wird betont. Damit verbunden ergeht eine klare Warnung an die User:

«Verwenden Sie APIs nur, wenn Sie dem Anbieter vertrauen.»

Der IT-Sicherheitsexperte Alastair Paterson, Geschäftsführer des US-Unternehmens Harmonic Security, veröffentlichte letzte Woche einen Blog-Post zum Thema. Schon im Titel warnt der Fachmann vor einem Wolf im Schafspelz. Und:

«Wenn ich ein Angreifer wäre, könnte ich eine App erstellen, die Sie dazu auffordert, Dokumente, Präsentationen, Code oder PDFs hochzuladen, und es könnte relativ harmlos aussehen. Die App könnte Sie sogar dazu ermutigen, Kundendaten oder geistiges Eigentum oder anderes sensibles Material zu veröffentlichen, das dann gegen Mitarbeiter oder Unternehmen verwendet werden kann.»
Alastair Paterson, IT-Sicherheitsexpertequelle: harmonic.security
Zur Person
Der Kalifornier Alastair Paterson ist ein IT-Unternehmer im Bereich Cybersicherheit. Derzeit fungiert er als CEO von Harmonic Security, das er 2023 mitbegründet hat, «um Unternehmen dabei zu helfen, die Einführung von KI zu beschleunigen, ohne sich um die Sicherheit und den Datenschutz ihrer sensiblen Daten zu sorgen». Davor war er ab 2011 Co-Gründer der Cybersicherheitsfirma Digital Shadows, einer «Digital Risk Protection Software», dies es Dritten ermöglichen will, rufschädigende Inhalte im Internet und andere Cyberrisiken einzudämmen.

In einer Stellungnahme gegenüber dem US-Medium Dark Reading versuchte ein OpenAI-Sprecher zu beschwichtigen:

«Um sicherzustellen, dass GPTs unsere Richtlinien einhalten, haben wir zusätzlich zu den bestehenden Sicherheitsmassnahmen, die wir in unsere Produkte eingebaut haben, ein neues Überprüfungssystem eingeführt. Der Überprüfungsprozess umfasst sowohl menschliche als auch automatische Überprüfungen. Die User können auch GPTs melden.»

OpenAI ist natürlich bei Weitem nicht das erste Unternehmen mit einem App-Store. Ob die Kontrollen so streng sind wie die von Apple, Google und anderen, ist jedoch fraglich.

In den zwei Monaten, seit OpenAI anpassbare GPTs eingeführt hat, wurden bereits über 3 Millionen neue Bots erstellt. Es scheine «ein sehr einfacher Verifizierungsprozess» zu sein, um eine App zu veröffentlichen, gibt Paterson zu bedenken.

Dass User problematische Chatbots OpenAI melden sollen, damit sie überprüft und allenfalls entfernt werden, illustriert eine bei Techunternehmen aus dem Silicon Valley übliche Haltung: Dem Schutz der Privatsphäre und der Sicherheit der User-Daten wird nicht das gleiche Gewicht beigemessen wie dem schnellen Wachstum.

Bei OpenAI nimmt man also das Risiko missbräuchlicher Verwendung der ChatGPT-Technik bewusst in Kauf. Und wir User sind die Versuchskaninchen. Halt genau so, wie es Google, Meta und Co. erfolgreich vorgemacht haben.

KI-generierte Fehlinformationen
Cyberangriffe sowie Fehl- und Desinformationen machen der Wirtschaft zunehmend zu schaffen und entwickeln sich zu einer globalen Herausforderung: Dies geht aus dem diesjährigen «Global Risk Report 2024» hervor, den das Weltwirtschaftsforum (WEF) zusammen mit der Zürich-Versicherung veröffentlicht hat. Der Bericht fusst auf einer Befragung von rund 1400 Fachleuten, politischen Verantwortungsträger und Branchenführern.

Die IT-Sicherheitsexpertin Adenike Cosgrove von der Firma Proofpoint weist in dem Zusammenhang auf die konkreten Gefahren durch KI-generierte Falschinformationen hin: «Cyberkriminelle können mithilfe von KI-Tools überzeugende Phishing-E-Mails und gefälschte Bilder erstellen sowie betrügerische Telefonanrufe tätigen, wodurch sie ihre potenziellen Opfer noch besser mit Social-Engineering-Angriffen hinters Licht führen können».

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
So reagiert ChatGPT auf KI-Witze
1 / 7
So reagiert ChatGPT auf KI-Witze
quelle: screenshot: watson
Auf Facebook teilenAuf X teilen
«Dumme Fragen!» - ChatGPT beklagt sich über uns
Video: watson
Das könnte dich auch noch interessieren:
25 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Madison Pierce
16.01.2024 18:58registriert September 2015
Unerwünschter Datenabfluss wird immer mehr zum Problem. Angefangen hat es mit Dropbox, welches aus Bequemlichkeit den geschützten Zugang auf die Firmendaten von unterwegs abgelöst hat.

Jetzt sind es AI-Tools, die eine schnelle Lösung für ein Problem versprechen. "Lade nur kurz Deine Excel-Datei mit den Kundendaten hoch und unsere KI erstellt Dir automatisch eine Verkaufsstatistik."

Im Privatbereich sind es Instagram, TikTok etc., bei denen viele Leute komplett unvorsichtig sind.

In beiden Fällen würden Medienkompetenz und Sensibilisierung helfen.
461
Melden
Zum Kommentar
avatar
Connor McJesus
16.01.2024 19:20registriert November 2015
Kurzfassung: wie überall, wo man seine Daten weitergibt, sollte man dies mit Bedacht tun. Insb., wenn nicht klar ist, was im Hintergrund damit geschieht, ob sie gespeichert werden und wer überhaupt hinter einer Anwendung oder Schnittstelle steckt.
360
Melden
Zum Kommentar
25
Telefonbetrüger will 64-Jährige mit iTunes-Karten abzocken – die Tochter reagiert perfekt

Ein Telefonbetrüger hat im Kanton Schaffhausen von einer 64-Jährigen iTunes-Karten gefordert. Der Anrufer gab am Dienstagmittag an, von der «internationalen Polizei» zu sein, wie die Schaffhauser Polizei am Mittwoch mitteilte. Die Multimedia-Karten von Apple im Wert von 1000 Franken sollten als Sicherheitsleistung für das Konto der 64-Jährigen dienen.

Zur Story