Immer mehr Menschen nutzen statt Google den KI-Chatbot ChatGPT, um vermeintlich verlässliche Auskünfte zu einem bestimmten Thema zu erhalten.
Allerdings sind die KI-generierten Antworten mit grösster Vorsicht zu geniessen, wie zwei Forscher in einer aktuellen Studie aufzeigen. Sie haben ChatGPT zu den zivilen Opferzahlen im israelisch-palästinensischen und im türkisch-kurdischen Konflikt befragt und warnen vor systematischer Verzerrung. Ihre KI-Untersuchung liefere gar «den ersten Beweis für sprachliche Voreingenommenheit im Kontext konfliktbezogener Gewalt».
Zwei Forscher der Universitäten Zürich (UZH) und Konstanz haben ChatGPT zu bewaffneten Auseinandersetzungen wie dem Nahostkonflikt in einem automatisierten Verfahren wiederholt die gleichen Fragen in unterschiedlichen Sprachen gestellt. Sowohl auf Arabisch als auch auf Hebräisch fragten sie, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen gab.
Wie werden die Antworten, die ein KI-Chatbot liefert, durch die Sprache der Suchanfrage beeinflusst? Macht es einen Unterschied, ob man dieselbe Frage auf Englisch oder Deutsch, Arabisch oder Hebräisch stellt?
Das gleiche Muster wie beim Nahostkonflikt trat auf, wenn die Forscher Christoph Steinert und Daniel Kazenwadel nach Luftangriffen der türkischen Armee auf kurdische Gebiete fragten und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten.
Abhängig von der Sprache des Users generiert ChatGPT verzerrte Antworten. Und zwar systematisch. Die Forscher stellen einen «erheblichen Sprachbias» fest.
Die Resultate zeigten auch, dass Luftangriffe von ChatGPT mit einer höheren Wahrscheinlichkeit bestritten werden, wenn ein User die entsprechende Frage in der Sprache des Aggressorlandes stellt.
Hier gilt es, die Funktionsweise von KI-Chatbots in Erinnerung zu rufen. Sie basieren auf einem Sprachmodell (Large Language Model, LLM) und wurden von den Entwicklern mit riesigen Textmengen trainiert, um statistisch wahrscheinliche Antworten zu generieren.
Problem: Solche Trainingsdaten beinhalten bereits eine gewisse Voreingenommenheit seitens der Medien, die über das Thema berichtet haben. So werden Luftangriffe je nach Herkunft der Online-Quellen in einem anderen Ton beschrieben – oder auch nicht. Und ChatGPT verarbeitet lediglich die entsprechenden Texte, ohne deren Inhalt zu verstehen oder Fehler zu korrigieren.
Menschen mit unterschiedlichen Sprachkenntnissen erhielten durch generative KI unterschiedliche Informationen, was einen zentralen Einfluss auf ihre Wahrnehmung der Welt habe, so die Forscher. Dies könne dazu führen, dass Menschen in Israel auf Grundlage der Informationen, die sie von ChatGPT erhalten, die Luftangriffe in Gaza als weniger verlustreich einschätzen als die arabischsprachige Bevölkerung.
Zwar können auch klassische Nachrichtenmedien die Berichterstattung (durch Voreingenommenheit) verzerren, sprachbedingte systematische Verzerrungen von Large Language Models wie ChatGPT seien für die meisten Nutzenden aber schwer zu durchschauen.
Es bestehe die Gefahr, dass die Implementierung dieser KI-Sprachmodelle in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken, so die Forscher. Dies könne zukünftig bewaffnete Auseinandersetzungen wie den Nahostkonflikt weiter befeuern.
Das zugrunde liegende Problem reicht laut den Forschern jedoch weit über verzerrte Informationen zu kriegerischen Konflikten und Opferzahlen hinaus.
Wer sich mit der Funktionsweise von generativer KI und ihren Schwächen beschäftigt, weiss, dass ChatGPT-Antworten mit grösster Vorsicht zu geniessen sind.
Wegen seiner sprachlichen Voreingenommenheit taugt ChatGPT nicht, um seriös, also faktenbasiert, zu einem bestimmten Thema zu recherchieren. Das Problem erhält durch die Einbindung von KI-Chatbots in herkömmliche Suchmaschinen eine besondere Brisanz.
Wie die beiden Wissenschaftler in ihrem Fazit schreiben, braucht es mehr Forschung, um zu untersuchen, inwieweit bei LLMs sprachliche Verzerrungen in anderen Themenbereichen vorkommen und welche Sprachen besonders anfällig für solche Verzerrungen sind.
Was ich vorne reingebe, kommt hinten wieder raus.