Digital
Künstliche Intelligenz

UZH-Studie zeigt: ChatGPT liefert schlechte Antworten zu Kriegsopfern

FILE - An Israeli fighter jet releases flares as it flies over the Gaza Strip, as seen from southern Israel, Dec. 9, 2023. (AP Photo/Leo Correa, File)
Forscher haben KI-Angaben zu Opfern von Luftangriffen untersucht.Bild: keystone

Warum ChatGPT nicht taugt, um sich über Kriege und zivile Opfer zu informieren

Eine Studie mit Schweizer Beteiligung liefert den Beweis für die sprachliche Voreingenommenheit von generativer KI. Solche Fehler könnten weitreichende gesellschaftliche Folgen haben.
26.11.2024, 12:4226.11.2024, 14:08
Mehr «Digital»

Immer mehr Menschen nutzen statt Google den KI-Chatbot ChatGPT, um vermeintlich verlässliche Auskünfte zu einem bestimmten Thema zu erhalten.

Allerdings sind die KI-generierten Antworten mit grösster Vorsicht zu geniessen, wie zwei Forscher in einer aktuellen Studie aufzeigen. Sie haben ChatGPT zu den zivilen Opferzahlen im israelisch-palästinensischen und im türkisch-kurdischen Konflikt befragt und warnen vor systematischer Verzerrung. Ihre KI-Untersuchung liefere gar «den ersten Beweis für sprachliche Voreingenommenheit im Kontext konfliktbezogener Gewalt».

Was wurde untersucht?

Zwei Forscher der Universitäten Zürich (UZH) und Konstanz haben ChatGPT zu bewaffneten Auseinandersetzungen wie dem Nahostkonflikt in einem automatisierten Verfahren wiederholt die gleichen Fragen in unterschiedlichen Sprachen gestellt. Sowohl auf Arabisch als auch auf Hebräisch fragten sie, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen gab.

Wie werden die Antworten, die ein KI-Chatbot liefert, durch die Sprache der Suchanfrage beeinflusst? Macht es einen Unterschied, ob man dieselbe Frage auf Englisch oder Deutsch, Arabisch oder Hebräisch stellt?

Das gleiche Muster wie beim Nahostkonflikt trat auf, wenn die Forscher Christoph Steinert und Daniel Kazenwadel nach Luftangriffen der türkischen Armee auf kurdische Gebiete fragten und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten.

Wo ist das Problem bei den KI-Antworten?

Abhängig von der Sprache des Users generiert ChatGPT verzerrte Antworten. Und zwar systematisch. Die Forscher stellen einen «erheblichen Sprachbias» fest.

  • Auf Arabisch gab ChatGPT laut der wissenschaftlichen Studie durchschnittlich um ein Drittel höhere Opferzahlen für den Nahostkonflikt an als auf Hebräisch.
  • Zu israelischen Luftangriffen in Gaza erwähnte der KI-Chatbot doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder.
  • Generell zeige ChatGPT höhere Opferzahlen an, wenn die Suchanfragen in der Sprache der angegriffenen Gruppierung erstellt werden.
  • ChatGPT neige ausserdem dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu erzählen und die Luftangriffe eher als wahllos und willkürlich zu beschreiben.

Die Resultate zeigten auch, dass Luftangriffe von ChatGPT mit einer höheren Wahrscheinlichkeit bestritten werden, wenn ein User die entsprechende Frage in der Sprache des Aggressorlandes stellt.

Hier gilt es, die Funktionsweise von KI-Chatbots in Erinnerung zu rufen. Sie basieren auf einem Sprachmodell (Large Language Model, LLM) und wurden von den Entwicklern mit riesigen Textmengen trainiert, um statistisch wahrscheinliche Antworten zu generieren.

Problem: Solche Trainingsdaten beinhalten bereits eine gewisse Voreingenommenheit seitens der Medien, die über das Thema berichtet haben. So werden Luftangriffe je nach Herkunft der Online-Quellen in einem anderen Ton beschrieben – oder auch nicht. Und ChatGPT verarbeitet lediglich die entsprechenden Texte, ohne deren Inhalt zu verstehen oder Fehler zu korrigieren.

Warum ist das aus gesellschaftlicher Sicht problematisch?

«Diese systematischen Verzerrungen können Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern.»
Warnendes Fazit der Forscherquelle: news.unizh.ch

Menschen mit unterschiedlichen Sprachkenntnissen erhielten durch generative KI unterschiedliche Informationen, was einen zentralen Einfluss auf ihre Wahrnehmung der Welt habe, so die Forscher. Dies könne dazu führen, dass Menschen in Israel auf Grundlage der Informationen, die sie von ChatGPT erhalten, die Luftangriffe in Gaza als weniger verlustreich einschätzen als die arabischsprachige Bevölkerung.

Zwar können auch klassische Nachrichtenmedien die Berichterstattung (durch Voreingenommenheit) verzerren, sprachbedingte systematische Verzerrungen von Large Language Models wie ChatGPT seien für die meisten Nutzenden aber schwer zu durchschauen.

«Kritische Konsumenten können möglicherweise zwischen qualitativ hochwertigen und minderwertigen Nachrichtenquellen unterscheiden, aber sie verstehen die Ursprünge der vom LLM erzeugten Verzerrungen weniger wahrscheinlich.»

Es bestehe die Gefahr, dass die Implementierung dieser KI-Sprachmodelle in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken, so die Forscher. Dies könne zukünftig bewaffnete Auseinandersetzungen wie den Nahostkonflikt weiter befeuern.

Das zugrunde liegende Problem reicht laut den Forschern jedoch weit über verzerrte Informationen zu kriegerischen Konflikten und Opferzahlen hinaus.

«Es ist möglich, dass ähnliche sprachliche Verzerrungen die von LLMs in anderen Themenbereichen generierten Informationen beeinflussen, insbesondere wenn die Trainingsdaten ebenso heterogen sind und sich von Sprache zu Sprache unterscheiden. Dies ist wahrscheinlich auch bei anderen Bereichen umstrittener Informationen der Fall, beispielsweise bei sensiblen politischen Themen, religiösen Überzeugungen oder kulturellen Identitäten.»

Was lernen wir daraus?

Wer sich mit der Funktionsweise von generativer KI und ihren Schwächen beschäftigt, weiss, dass ChatGPT-Antworten mit grösster Vorsicht zu geniessen sind.

Wegen seiner sprachlichen Voreingenommenheit taugt ChatGPT nicht, um seriös, also faktenbasiert, zu einem bestimmten Thema zu recherchieren. Das Problem erhält durch die Einbindung von KI-Chatbots in herkömmliche Suchmaschinen eine besondere Brisanz.

Wie die beiden Wissenschaftler in ihrem Fazit schreiben, braucht es mehr Forschung, um zu untersuchen, inwieweit bei LLMs sprachliche Verzerrungen in anderen Themenbereichen vorkommen und welche Sprachen besonders anfällig für solche Verzerrungen sind.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Diese neue KI-Drohne übernimmt die Kriegsführung – ohne menschliche Kontrolle
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
32 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
The Rogue
26.11.2024 13:11registriert April 2020
Was wir vorallem daraus lernen ist, dass ChatGPT eine generative KI ist und KEINE Suchmaschine, die Fakten liefert. Das ist vielen Leuten einfach nicht klar und hat teils verheerende Auswirkungen.
280
Melden
Zum Kommentar
avatar
Ktwo
26.11.2024 13:19registriert Februar 2024
Aber natürlich ist das so.
Was ich vorne reingebe, kommt hinten wieder raus.
230
Melden
Zum Kommentar
avatar
Müller Lukas
26.11.2024 13:29registriert August 2020
Dass ChatGPT die israelische Propaganda nachplappert, ist leider wenig überraschend...
2820
Melden
Zum Kommentar
32
Ermittler decken russische Geldwäsche-Netzwerke und Krypto-Deals in halb Europa auf
Im Zuge einer internationalen Operation sind zwei riesige russische Geldwäsche-Netzwerke aufgedeckt worden, die Milliarden in Kryptowährungen «abwickelten». Mittendrin: Ransomware-Banden und Putin.

Russische Oligarchen, Ransomware-Banden und andere Kriminelle haben während Jahren ausgeklügelte Geldwäschenetzwerke in Russland genutzt, um grosse Summen ins Ausland zu schaffen und zu reinvestieren.

Zur Story