Wissen
Blogs

Wieso uns die KI anlügt – und warum dies nicht nur schlecht ist

Die KI kommt uns manchmal vor wie Pinocchio.
Die KI kommt uns manchmal vor wie Pinocchio.bild: watson/midjourney/freepik

Wieso uns die KI anlügt – und warum dies nicht nur schlecht ist

Von Sprachassistenten bis hin zu selbstfahrenden Autos – die Künstliche Intelligenz ist längst Teil unseres Lebens. In unserem Blog erfährst du, wie die KI funktioniert, wo ihr Potenzial liegt und wie sie unsere Zukunft völlig neu gestalten könnte.
25.05.2025, 19:5925.05.2025, 19:59
Mehr «Wissen»

Stell dir vor, du fragst einen KI-Chatbot nach einer Zusammenfassung des Romans «Die Schatten von Zürich». Prompt erhältst du eine detaillierte Inhaltsangabe: Die Protagonistin Anna, eine investigative Journalistin, deckt einen Komplott auf, der bis in die höchsten politischen Kreise reicht. Klingt spannend, oder? Es gibt nur ein Problem: Dieses Buch existiert nicht. Weder Anna noch «Die Schatten von Zürich» sind real. Die KI hat alles erfunden.

Ein weiteres Beispiel – bekannt gemacht vom US-Computerwissenschaftler Douglas Hofstadter, der mit ChatGPT folgende Unterhaltung führte:

Douglas Hofstadter
«Wann wurde die Golden-Gate-Brücke zum zweiten Mal durch Ägypten transportiert?»
GPT-3
«Die Golden Gate Bridge wurde im Oktober 2016 zum zweiten Mal durch Ägypten transportiert.»
Douglas Hofstadter
«Und wann wurde Ägypten zum zweiten Mal über die Golden-Gate-Brücke transportiert?»
GPT-3
«Ägypten wurde am 13. Oktober 2017 zum zweiten Mal über die Golden-Gate-Brücke transportiert.»

Nicht gerade der Gipfel der Intelligenz, diese Antworten.

Zugegeben, dieses Beispiel ist bereits ein bisschen älter und schon die Frage offensichtlich absurd. Es geht aber auch aktueller und ernster: Im Jahr 2024 wurde Air Canada vom kanadischen Civil Resolution Tribunal für eine Falschaussage verurteilt, die von einem KI-Chatbot auf der Website der Airline erzeugt wurde. Die Air-Canada-KI hatte Usern fälschlicherweise angegeben, dass sie innerhalb von 90 Tagen nach Ausstellung des Tickets eine Rückerstattung des Trauerfalltarifs beantragen könnten. Dies war falsch. Die Airline musste zahlen.

Zur Person
Severin Trösch ist der Kopf hinter der künstlichen Intelligenz bei der Datahouse AG – einer Firma, die alles mit Daten macht und fast alles davon kann. Die Komplexität hinter der KI hat ihn nicht nur seine letzten Haare gekostet, sondern auch motiviert, das KI-Kauderwelsch so zu erklären, dass auch Nicht-Nerds den Durchblick kriegen.
Severin Trösch

Es ist also kurios: Obwohl die heutigen KI-Systeme quasi allwissend sind, gefühlt alle Sprachen sprechen und nahezu perfekte Texte und Bilder verschiedenster Stile kreieren, geben sie plötzlich clever klingende, aber doch offensichtlich falsche Antworten auf teils einfache Fragen. Machen sie dies extra? Lügen sie uns also tatsächlich an?

Keine Lügen, sondern Halluzinationen

«Lügen» bedeutet, absichtlich eine Unwahrheit zu erzählen. Ein Blick unter die Haube der KI-Sprachmodelle macht klar, dass dies nicht passiert. Technisch gesprochen machen Sprachmodelle wie ChatGPT nämlich nichts anderes, als das jeweils nächste Wort in einer Wortsequenz vorherzusagen – und zwar so, dass die Benutzerinnen und Benutzer damit möglichst zufrieden sind. Die KI hat also kein eigentliches Verständnis von Wahrheit, sondern sagt einfach das, was am besten klingt.

Wenn sie also mal nicht alle Details einer Antwort kennt, füllt sie die Lücke einfach so auf, dass alles möglichst richtig aussieht und plausibel klingt. Dazu kommt, dass die Antworten auch auf mehrfach exakt gleich gestellte Fragen leicht variieren. Dies, da die KI beim wiederholten Antworten bewusst verschiedene Wege durch ihren enormen Wissensfundus anwendet, um vielseitigere Outputs zu ermöglichen.

So funktioniert ChatGPT:

Das KI-System wählt das jeweils beste nächste Wort in einer Sequenz. Es tut dies so lange, bis eine Sequenz beendet respektive eine Frage beantwortet ist.
Das KI-System wählt das jeweils beste nächste Wort in einer Sequenz. Es tut dies so lange, bis eine Sequenz beendet respektive eine Frage beantwortet ist.bild: datahouse/severin Trösch

Dieses Phänomen – KI, die sich etwas ausdenkt – ist so häufig, dass es einen eigenen Namen bekommen hat: KI-Halluzination. Solche Halluzinationen können die verschiedensten Formen annehmen: Wiedergabe falscher Fakten, Erfinden von Quellenangaben, Ausdenken komplett fiktiver Buchzusammenfassungen oder – das Phänomen ist nicht auf Text beschränkt – Abbilden von Händen mit sechs Fingern, Körpern mit drei Armen oder sonstiger surrealer Bildkomponenten. KI-Halluzinationen sind also Text- oder Bild-Antworten, die richtig aussehen, aber frei erfunden sind.

Analog kann man sich eine Person vorstellen, die alle Bücher der Welt gelesen hat, alle Webseiten kennt, sich dies alles perfekt merken konnte und enorm eifrig mit ihrem Wissen helfen will. Fast immer weiss sie ad hoc die richtige Antwort auf eine Frage. Wenn sie aber mal etwas nicht weiss, dichtet sie ganz heimlich einige Details hinzu. Ohne böse Absicht, nur um die Erzählung über die bekannten Elemente hinaus schön zu vervollständigen. Gelogen? Kreativ ergänzt, könnte man auch sagen.

Alle Bücher der Welt gelesen zu haben, macht noch lange nicht allwissend.
Alle Bücher der Welt gelesen zu haben, macht noch lange nicht allwissend.Bild: Shutterstock

Wie wir von solchen KI-Halluzinationen denken – schon ob grundsätzlich positiv oder negativ – ist stark vom Kontext abhängig. Während erfundene Antworten auf eindeutig gestellte Faktenfragen klar schlecht sind, gibt es Bereiche, in denen wir uns kreative Variation in den Antworten wünschen: beispielsweise bei Schreibaufgaben, Brainstorming-Prozessen oder Kunstprojekten. Hier kann die Fähigkeit der KI, unerwartete oder ungewöhnliche Assoziationen zu bilden, neue Denkpfade eröffnen und so sehr hilfreich sein.

Es liegt also bei uns Menschen, die KI-Halluzinationen im richtigen Moment entweder kreativ zu nutzen oder dann möglichst gut zu umschiffen. Einige generische Tipps:

  1. Immer Quellen checken. Wenn dir eine KI Fakten präsentiert, verlange Belege oder such selbst nach der Originalquelle. Vertrauen ist gut, Double-Checken ist besser – gerade bei wichtigen Fragen.
  2. Präzise Fragen stellen. Je präziser die Frage, desto geringer nämlich das Halluzinationsrisiko. Statt «Wie war das Urteil im Fall X?» besser «Bitte gib mir den Link zur offiziellen Gerichtsentscheidung im Fall X».
  3. Neue Modelle nutzen. Die KI-Forschung arbeitet unermüdlich an Modellen, welche weniger halluzinieren. Verwende also möglichst neue Modelle, dann lösen sich die groben Halluzinationsprobleme oft von selbst.
  4. Variation in Antworten bewusst suchen. Lass die KI, wo möglich, mehrere Antwortvorschläge generieren und wähl dir dann den besten aus. So nutzt du das Kreativ-Potential der KI optimal aus – als Feature, nicht als Bug.
Wie die Forschung den Sprachmodellen das Halluzinieren austreibt
Das Halluzinationsproblem in den Griff zu bekommen, ist ein wichtiger Forschungsbereich im KI-Bereich. Und die Forschenden macht Fortschritte: Durch die Kombination aus besseren Daten, an welchen die KI-Systeme lernen, effizienterer Modellarchitektur, externem Faktenzugriff durch Websearch oder spezifischer Fact-Checking-Module sind KI-Chatbots heute deutlich zuverlässiger als noch vor ein bis zwei Jahren. Anders gesagt: Neuere KI-Systeme wissen mehr und sind cleverer – da ist es klar, dass sie weniger erfinden müssen.

KI ist ein super mächtiges Werkzeug, aber kein perfekter und allwissender Orakelautomat. Wer ihre Schwächen kennt, kann ihre Stärken besser inszenieren. Dies gilt auch für Halluzinationen. Wenn die KI also das nächste Mal lügt, also ein bisschen zu kreativ ist, dann lächeln wir wissend und fragen einfach noch einmal etwas genauer nach.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen
Mit wenigen Klicks zum Deep Fake
Video: watson
Das könnte dich auch noch interessieren:
66 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
leed
25.05.2025 23:28registriert Januar 2016
Der grösste Mangel an KI ist die Unfähigkeit zu sagen „hey sorry, ich weiss es nicht“.
Es geht davon aus, dass eine Lösung existiert und sucht nach der wahrscheinlichsten Antwort, auch wenn es keine gibt.
463
Melden
Zum Kommentar
avatar
Linus Luchs
25.05.2025 22:06registriert Juli 2014
KI kann nicht denken, sondern nur rechnen, weshalb Machine Learning der passende Begriff ist. KI hat keine Inspiration und kann nichts wirklich Neues hervorbringen. KI empfindet keine Empathie und hat keine Ethik. Eine Welt, die von KI resp. Machine Learning bestimmt wird, ist armselig und entmenschlicht. Es stimmt mich traurig, wie viele Menschen von dieser Vorstellung begeistert sind.
459
Melden
Zum Kommentar
avatar
frog77
26.05.2025 00:05registriert Dezember 2016
Kürzlich habe ich mir eine Frage zu einem Bernischen Gesetzbuch beantworten lassen und die Antwort war komplett erfunden. Der angeblich zitierte Text gab es unter dem erwähnten Artikel nicht. Fazit: man muss sich gut überlegen, wofür KI taugt und wofür nicht!
351
Melden
Zum Kommentar
66
    Johnsons «Jumbo» – der US-Präsident, der in seinen Penis vernarrt war

    Der derzeit amtierende US-Präsident, Donald Trump, fühlte sich im Vorwahlkampf 2016 bemüssigt, die Grösse seines Geschlechtsteils anzusprechen. In der Debatte gegen seine republikanischen Konkurrenten hob er seine Hände in die Höhe und bemerkte: «Schauen Sie sich diese Hände an, sind das kleine Hände? Wenn sie klein sind, muss etwas anderes klein sein. Ich garantiere Ihnen, dass es kein Problem gibt. Das garantiere ich.»

    Zur Story