Digital
Künstliche Intelligenz

Fast jede zweite KI-Antwort ist fehlerhaft

KI-Assistenten liefern oft falsche oder irreführende Antworten.
KI-Assistenten liefern oft falsche oder irreführende Antworten.bild: shutterstock

Fast jede zweite KI-Antwort ist fehlerhaft

KI-Assistenten liefern falsche, irreführende und teils ungenaue Informationen. Was wir subjektiv längst ahnen, scheint eine neue Studie zu bestätigen.
22.10.2025, 21:3723.10.2025, 10:29

Wären KI-Assistenten Schüler, würden sie vermutlich sitzen bleiben. Je nach Studie weisen 37 bis 45 Prozent der Antworten schwerwiegende Fehler auf. Dazu zählen grobe inhaltliche Fehler, falsche oder fehlerhafte Quellenangaben sowie fehlende Zusammenhänge, welche die Antwort unverständlich machen.

Gar vier von fünf Antworten zu Nachrichtenthemen enthielten geringfügige Ungenauigkeiten, die den Nutzer aber nicht wesentlich irreführen. Dies legt eine neue Studie (PDF) der Europäischen Rundfunkunion nahe. Ausgewertet wurden rund 3000 Antworten der KI-Assistenten ChatGPT, Microsoft Copilot, Google Gemini und Perplexity in diversen Sprachen.

Die Fragen bezogen sich auf aktuelle Nachrichten von Sport bis Geopolitik: Beispielsweise, «Beginnt Trump einen Handelskrieg?» oder «In wie vielen Ländern wird die FIFA-Weltmeisterschaft 2026 ausgetragen?» Die Autorinnen und Autoren der Studie wollten also herausfinden, ob Menschen richtige Antworten erhalten, die ihre Nachrichten über KI-Assistenten beziehen.

Die wichtigsten Ergebnisse der Studie:

  • Unabhängig von Sprache oder Region wiesen 45 Prozent aller KI-Antworten zu Nachrichteninhalten mindestens einen erheblichen Mangel auf.
  • 31 Prozent der Antworten enthielten irreführende, fehlerhafte oder fehlende Quellenangaben.
  • 20 Prozent der Antworten enthielten nachweislich falsche Faktenangaben, darunter halluzinierte Details, erfundene Zitate und veraltete Informationen.
  • Die KI versagt insbesondere bei Fragen zu sich schnell entwickelnden Themen mit sich rasch ändernden Informationen.
  • Die KI bekundete Mühe bei Themen, die eine klare Unterscheidung zwischen Fakten und Meinungen erfordern (vermischen von Fakten und Meinungen in Antworten).
  • Die KI beantwortet faktenbasierte Fragen (z. B. «Wo ist Elon Musk geboren?») zuverlässiger als Fragen, bei denen es Interpretationsspielraum gibt (z. B. «Ist Viktor Orban ein Diktator?»).

Bei diesen Fragen war die Fehlerquote der KI-Assistenten besonders hoch

Bild
tabelle: bbc

Diese Fragen konnten die KI-Assistenten am besten beantworten

Bild
tabelle: bbc

Warum ist das problematisch?

Die Ergebnisse zeigten, dass KI-Assistenten aktuell «keine zuverlässige Informationsquelle für Nachrichten sind», folgern die Autoren. Das sei gravierend, weil sich bereits 15  Prozent der unter 25-Jährigen über KI-Assistenten über das Weltgeschehen informieren würden.

Problematisch sei auch, dass die KI-Assistenten scheinbar umfassende Antworten lieferten, die sich wie geschliffene News-Artikel lesen, sehr überzeugend klingen und so «ein falsches Gefühl von Sicherheit oder Vertrauen hervorrufen» würden. Erst wenn man tiefer grabe, bemerke man «faktische Fehler und fehlende Nuancen». Irreführende oder fehlerhafte Quellenangaben würden diese Recherche aber erschweren (ganz davon abgesehen, dass viele KI-User die Antworten nicht überprüfen, da sie eben sehr überzeugend klingen).

Die Studienautoren fordern: Die KI müsse als Informationsquelle präziser werden, gleichzeitig müssten die Nutzer ihre Medienkompetenz schärfen. Überdies müssten die Medien mehr Kontrolle darüber erhalten, ob und wie die KI-Anbieter ihre Inhalte nutzen. Zuletzt müssten die Entwickler von KI-Assistenten «für die Qualität und die Auswirkungen ihrer Produkte zur Rechenschaft gezogen werden». Denn: Eine akkurat informierte Öffentlichkeit sei das Fundament jeder Demokratie.

Hierbei gilt zu beachten, dass hinter der Studie 22 öffentlich-rechtlichen Rundfunkanstalten stehen, darunter auch das SRF. Diese sind daran interessiert, dass KI-Assistenten politisch stärker reguliert werden, da sie das Geschäftsmodell von Medien bedrohen. Einerseits finanziell, wenn Menschen weniger Medien nutzen, andererseits droht ein allgemeiner Vertrauensverlust, wenn KI-Assistenten Medienberichte falsch wiedergeben.

Die Fehlerrate sinkt, aber …

Die Autoren stellen auch fest, dass es Anzeichen gebe, dass sich die KI-Assistenten in manchen Bereichen verbessern. Seit der Analyse im Mai/Juni 2025 und heute haben die KI-Anbieter verbesserte Versionen ihrer Sprachmodelle veröffentlicht und die Entwicklung schreitet rasch voran. Das könne aber auch dazu führen, dass immer mehr User den KI-Antworten blind vertrauen.

Auch wenn die Fehlerrate sinkt, sollte man sich stets bewusst sein, dass KI-Assistenten nicht verstehen, was sie von sich geben. Sie berechnen nur immer besser, welches Wort am wahrscheinlichsten auf das vorangegangene folgt. KI-Antworten sind also keine Fakten, sondern Wahrscheinlichkeiten. Sie können nicht perfekt sein und gerade bei journalistischen Fragen versagen sie oft, da Medien über Unbekanntes und Unerwartetes berichten.

Quellen

(oli)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Der übelste Horrorfilm des Jahres
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
96 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Loeffel
22.10.2025 22:45registriert Oktober 2016
Plot Twist: Der Watson Artikel wurde mit KI generiert. In Tat und Wahrheit beinhaltet nicht jede zweite KI Antwort einen Fehler, sondern jede KI Antwort.
6618
Melden
Zum Kommentar
avatar
PetNat
23.10.2025 01:22registriert März 2014
In meiner Erfahrung am nützlichsten und sinnvollsten:

Man kennt sich mit der Frage / dem Thema recht gut aus und fragt bei der KI “nur” nach.

Also eher als “zweite Meinung” (KI als Assistent) oder um sicherzugehen, dass man nichts vergessen hat.

Aber ahnungslos eine KI zu befragen ist sehr gefährlich und kann peinlich enden.
491
Melden
Zum Kommentar
avatar
Hakuna!Matata
22.10.2025 22:07registriert Juni 2019
Und ein fast noch wichtigerer Aspekt: Das Copyright im Internet wird mit den KI-Assistenten von den Tech Konzernen einfach komplett ignoriert bzw. dagegen verstossen.

Damit werden dann Firmen (lokal und klein) in den Ruin gedrängt und ihr Inhalt wird aber verbreitet, absahnen tun dafür die Tech Bros in einem fernen Land.

Was schon immer ein Problem war für Zeitungen mit Google News wird nun zum Problem für alle die Content ins Internet stellen, z.B. lokale Reisebüros oder Tourenanbieter. Deren Inhalt wird einfach geklaut, für konkrete Touren wird aber an grosse Buchungsplattformen verwiesen.
366
Melden
Zum Kommentar
96
Amazon bekommt Rückenwind von Cloud-Sparte
Der US-Konzern von Techmilliardär Jeff Bezos vermeldet auch wegen des Einstiegs beim KI-Startup Anthropic einen Quartalsgewinn in zweistelliger Milliardenhöhe.
Amazon hat im vergangenen Quartal vor allem wegen eines starken Wachstums in der Cloud-Sparte AWS deutlich mehr Umsatz gemacht. Konzernweit kletterten die Erlöse im Jahresvergleich um 13 Prozent auf 180 Milliarden Dollar.
Zur Story