Eine Datenwissenschaftlerin aus Zürich hat in den vergangenen Tagen bei Twitter für Wirbel gesorgt. Der Grund: Sie warnt vor Risiken und Nebenwirkungen von ChatGPT. Dieser Beitrag fasst die wichtigsten Erkenntnisse zusammen.
Wer ChatGPT nicht zur Unterhaltung nutzt, sondern für ernsthafte Zwecke, muss mit bösen Überraschungen rechnen. Dies zeigen die Recherchen von Teresa Kubacka.
Sie hat an der ETH in Physik promoviert und arbeitet selbstständig als Data Scientist – mit Sitz in Zürich.
Bei Twitter hat die Wissenschaftlerin in der vergangenen Woche auf beunruhigende Erkenntnisse hingewiesen.
So ziemlich alles, was beim Verfassen eines wissenschaftlichen Textes nicht schieflaufen sollte:
Teresa Kubacka schildert, sie habe den Chat mit der Künstlichen Intelligenz «mit einem intensiven Gefühl der Unheimlichkeit» verlassen:
Das Fazit der Datenwissenschaftlerin und «die Moral von der Geschichte», wie sie selber schreibt:
Offenbar habe die KI bereits das «Schummeln» gelernt, schreibt eine Kollegin bei futurezone.at.
Dazu muss man wissen, wie Teresa Kubacka vorging, um den fantasierenden Chatbot zu überführen.
Als die Datenwissenschaftlerin die Textausgabe von ChatGPT analysierte, bemerkte sie verschiedene Fälschungen. Einmal existierte zwar tatsächlich der Forschende, der das von der KI zitierte wissenschaftliche «Paper» geschrieben haben soll, doch die wissenschaftliche Arbeit gab es nicht.
Ein anderes Mal gab es zwar einen ähnlichen Forschenden an einer Universität mit ähnlichem Namen, dieser forschte aber in einem völlig anderen Bereich. Und bei weiteren Quellenangaben, die die KI machte, stellte sich heraus, dass es weder die Forschenden gab noch die referenzierte Arbeit.
Kubacka wiederholte daraufhin das Experiment zu einem ähnlichen Thema, das jedoch «noch etwas spezifischer» war, und musste feststellen, dass «alles gefälscht» war, was ChatGPT an wissenschaftlichen Quellen ausspuckte.
Anzumerken ist hier, dass die ChatGPT-Entwickler transparent auf die Risiken hinweisen: Der Hinweis zu potenziellen Fehlinformationen prangt auch auf der Website von OpenAi – nur vermag das die KI-Kritiker nicht zu beruhigen.
Die österreichische Journalistin Barbara Wimmer kommentiert:
Bekanntlich sei die Glaubwürdigkeit der (journalistischen) Medien durch die Verbreitung von Fake News via Social Media gesunken, argumentiert Wimmer. Sie fürchte sich davor, dass Ähnliches auch der Wissenschaft blühen könnte.
Datenwissenschaftlerin Teresa Kubacka schreibt, sie mache sich grosse Sorgen darüber, was dieses Fehlverhalten des Chatbots für unsere Gesellschaft bedeute. Denn:
Und sie zeichnet folgendes Szenario:
Tatsächlich häufen sich aus den USA, dem Herkunftsland von ChatGPT und Co., die kritischen Stimmen, die auf eine viel grössere Gefahr durch die KI hinweisen: Diese könne als Waffe eingesetzt werden, um das Vertrauen in Rechtsstaatlichkeit und letztlich in die Demokratie zu zerstören.
Der US-Investor Paul Kedrosky twitterte:
Er sei der Meinung, dass ChatGPT und seinesgleichen sofort zurückgezogen werden sollten, schreibt der US-Journalist Luke Zaleski. Und wenn die Technologie jemals wieder eingeführt werde, dann nur mit strengen Einschränkungen, etwa zur Textlänge etc. Denkbar wäre auch, «eine Art Wasserzeichen», um die von KI generierten Inhalte zu erkennen.
Dann fragt der US-Journalist rhetorisch:
Und damit sind wir bei dem Mann, der die Entwicklung von ChatGPT und anderen KI-Anwendungen beim Unternehmen OpenAI massgeblich mitfinanziert hat: Elon Musk.
Kritiker des nach rechts abgedrifteten Multimilliardärs und neuen Twitter-Chefs vermuten, dass er auf eine Destabilisierung demokratischer Gesellschaften hinarbeite.
Microsoft hat eine Milliarde US-Dollar in OpenAI investiert, um die Entwicklung von Künstlicher Intelligenz zu fördern. Konkret geht es um die Kommerzialisierung von KI-Anwendungen, die über Microsofts Azure-Plattform laufen.
Der technische Hintergrund: Die KI-Anwendungen erfordern gewaltige Rechenleistungen. Diese können durch einen grossen Cloud-Betreiber wie Microsoft rund um den Globus zur Verfügung gestellt werden – gegen Bezahlung.
Vorläufig ist ChatGPT – als Beta-Version – noch kostenlos für alle Interessierten verfügbar. Dies dürfte sich zu einem späteren Zeitpunkt ändern, denn Microsoft ist ein gewinnorientiertes Unternehmen und will damit Profit machen.
Die auf Maschinelles Lernen spezialisierte Ingenieurin Vicky Boykis argumentiert, dass ChatGPT genau darum die Gesellschaft nicht «umkrempeln» werde. Microsoft werde die Technologie hinter einer kostenpflichtigen Programmierschnittstelle (API) verstecken. Die Beta-Version sei eine Möglichkeit für den Windows-Konzern, sich gegen Risiken abzusichern, indem OpenAI als verantwortlicher Akteur hingestellt werde, wenn die KI etwas Seltsames/Unethisches tue. Und es sei «eine fantastische Möglichkeit, Trainingsdaten zu sammeln».
Es gab schon immer Falschinformationen und Propaganda. Man findet haufenweise "Beweise", dafür, dass die Erde flach ist, Flugzeuge Chemikalien besprühen und die Mondlandung nie stattgefunden hat.
Neu ist aber, dass solche Systeme automatisiert Artikel kommentieren oder auf Social Media aktiv sein können. Gepaart mit der schlechten Medienkompetenz vieler Leute kann man dadurch den Eindruck erwecken, die Anhänger solcher Fantasien seien in der Mehrheit.
Ich teile die Skepsis gegenüber solchen Systemen. Schauen wir nur, was schon heute von Manipulatoren jeglichster Couleur genutzt und verbreitet wird, und was von einer grossen Masse von Menschen für bare Münze genommen wird.
Nun gibt es laufend einfacher zu bedienende, grössere und mächtigere Instrumente, um irgendwelche Theorien und Geschichten noch plausibler erscheinen zu lassen...
Die Szene aller Verschwörungs- und sonstigen Gläubigen lässt die Korken knallen!
Wie umgehen damit? Wohl nur mit aufklärenaufklärenaufklären...