Datenwissenschaftlerin aus Zürich warnt vor ChatGPT und den bösen Folgen
Eine Datenwissenschaftlerin aus Zürich hat in den vergangenen Tagen bei Twitter für Wirbel gesorgt. Der Grund: Sie warnt vor Risiken und Nebenwirkungen von ChatGPT. Dieser Beitrag fasst die wichtigsten Erkenntnisse zusammen.
Was ist passiert?
Wer ChatGPT nicht zur Unterhaltung nutzt, sondern für ernsthafte Zwecke, muss mit bösen Überraschungen rechnen. Dies zeigen die Recherchen von Teresa Kubacka.
Sie hat an der ETH in Physik promoviert und arbeitet selbstständig als Data Scientist – mit Sitz in Zürich.
Bei Twitter hat die Wissenschaftlerin in der vergangenen Woche auf beunruhigende Erkenntnisse hingewiesen.
Was genau läuft bei ChatGPT falsch?
So ziemlich alles, was beim Verfassen eines wissenschaftlichen Textes nicht schieflaufen sollte:
- Die Künstliche Intelligenz (KI) kann wissenschaftliche Quellenangaben nahezu perfekt fälschen.
- Und zwar so geschickt, dass selbst Fachleute auf dem entsprechenden Gebiet Mühe bekunden, die entsprechenden Falschinformationen als solche zu erkennen.
- Die als «Datenhalluzinationen» bezeichneten Kreationen der KI können auch, aber nicht nur, auf die vom Menschen gestellten Fragen zurückgeführt werden.
Teresa Kubacka schildert, sie habe den Chat mit der Künstlichen Intelligenz «mit einem intensiven Gefühl der Unheimlichkeit» verlassen:
Das Fazit der Datenwissenschaftlerin und «die Moral von der Geschichte», wie sie selber schreibt:
Wie konnte das passieren?
Offenbar habe die KI bereits das «Schummeln» gelernt, schreibt eine Kollegin bei futurezone.at.
Dazu muss man wissen, wie Teresa Kubacka vorging, um den fantasierenden Chatbot zu überführen.
Als die Datenwissenschaftlerin die Textausgabe von ChatGPT analysierte, bemerkte sie verschiedene Fälschungen. Einmal existierte zwar tatsächlich der Forschende, der das von der KI zitierte wissenschaftliche «Paper» geschrieben haben soll, doch die wissenschaftliche Arbeit gab es nicht.
Ein anderes Mal gab es zwar einen ähnlichen Forschenden an einer Universität mit ähnlichem Namen, dieser forschte aber in einem völlig anderen Bereich. Und bei weiteren Quellenangaben, die die KI machte, stellte sich heraus, dass es weder die Forschenden gab noch die referenzierte Arbeit.
Kubacka wiederholte daraufhin das Experiment zu einem ähnlichen Thema, das jedoch «noch etwas spezifischer» war, und musste feststellen, dass «alles gefälscht» war, was ChatGPT an wissenschaftlichen Quellen ausspuckte.
Anzumerken ist hier, dass die ChatGPT-Entwickler transparent auf die Risiken hinweisen: Der Hinweis zu potenziellen Fehlinformationen prangt auch auf der Website von OpenAi – nur vermag das die KI-Kritiker nicht zu beruhigen.
Es ist ein Fehler, sich darauf zu verlassen, wenn es um irgendetwas Wichtiges geht. Es ist eine Vorschau auf den Fortschritt; wir müssen noch viel an der Robustheit und Wahrhaftigkeit arbeiten.»
Warum ist das nicht nur für Studierende brandgefährlich?
Die österreichische Journalistin Barbara Wimmer kommentiert:
Bekanntlich sei die Glaubwürdigkeit der (journalistischen) Medien durch die Verbreitung von Fake News via Social Media gesunken, argumentiert Wimmer. Sie fürchte sich davor, dass Ähnliches auch der Wissenschaft blühen könnte.
Datenwissenschaftlerin Teresa Kubacka schreibt, sie mache sich grosse Sorgen darüber, was dieses Fehlverhalten des Chatbots für unsere Gesellschaft bedeute. Denn:
Und sie zeichnet folgendes Szenario:
Wir werden mit Halluzinationen gefüttert, die von der Wahrheit nicht zu unterscheiden sind, ohne Grammatikfehler geschrieben, mit halluzinierten Beweisen untermauert und allen ersten kritischen Prüfungen unterzogen. Wie sollen wir mit ähnlichen Modellen in der Lage sein, einen echten Pop-Science-Artikel von einer Fälschung zu unterscheiden?»
Tatsächlich häufen sich aus den USA, dem Herkunftsland von ChatGPT und Co., die kritischen Stimmen, die auf eine viel grössere Gefahr durch die KI hinweisen: Diese könne als Waffe eingesetzt werden, um das Vertrauen in Rechtsstaatlichkeit und letztlich in die Demokratie zu zerstören.
Der US-Investor Paul Kedrosky twitterte:
Er sei der Meinung, dass ChatGPT und seinesgleichen sofort zurückgezogen werden sollten, schreibt der US-Journalist Luke Zaleski. Und wenn die Technologie jemals wieder eingeführt werde, dann nur mit strengen Einschränkungen, etwa zur Textlänge etc. Denkbar wäre auch, «eine Art Wasserzeichen», um die von KI generierten Inhalte zu erkennen.
Dann fragt der US-Journalist rhetorisch:
Und damit sind wir bei dem Mann, der die Entwicklung von ChatGPT und anderen KI-Anwendungen beim Unternehmen OpenAI massgeblich mitfinanziert hat: Elon Musk.
Kritiker des nach rechts abgedrifteten Multimilliardärs und neuen Twitter-Chefs vermuten, dass er auf eine Destabilisierung demokratischer Gesellschaften hinarbeite.
PS: Zieht Microsoft die Notbremse?
Microsoft hat eine Milliarde US-Dollar in OpenAI investiert, um die Entwicklung von Künstlicher Intelligenz zu fördern. Konkret geht es um die Kommerzialisierung von KI-Anwendungen, die über Microsofts Azure-Plattform laufen.
Der technische Hintergrund: Die KI-Anwendungen erfordern gewaltige Rechenleistungen. Diese können durch einen grossen Cloud-Betreiber wie Microsoft rund um den Globus zur Verfügung gestellt werden – gegen Bezahlung.
Vorläufig ist ChatGPT – als Beta-Version – noch kostenlos für alle Interessierten verfügbar. Dies dürfte sich zu einem späteren Zeitpunkt ändern, denn Microsoft ist ein gewinnorientiertes Unternehmen und will damit Profit machen.
Die auf Maschinelles Lernen spezialisierte Ingenieurin Vicky Boykis argumentiert, dass ChatGPT genau darum die Gesellschaft nicht «umkrempeln» werde. Microsoft werde die Technologie hinter einer kostenpflichtigen Programmierschnittstelle (API) verstecken. Die Beta-Version sei eine Möglichkeit für den Windows-Konzern, sich gegen Risiken abzusichern, indem OpenAI als verantwortlicher Akteur hingestellt werde, wenn die KI etwas Seltsames/Unethisches tue. Und es sei «eine fantastische Möglichkeit, Trainingsdaten zu sammeln».
Quellen
- twitter.com: Thread von Teresa Kubacka (vom 5. Dezember 2022)
- futurezone.at: ChatGPT schummelt: Erfindet Quellen, die gar nicht existieren
- gist.github.com: ChatGPT Resources
- twitter.com: Thread von Vicky Boykis