Wieso uns die KI anlügt – und warum dies nicht nur schlecht ist
Stell dir vor, du fragst einen KI-Chatbot nach einer Zusammenfassung des Romans «Die Schatten von Zürich». Prompt erhältst du eine detaillierte Inhaltsangabe: Die Protagonistin Anna, eine investigative Journalistin, deckt einen Komplott auf, der bis in die höchsten politischen Kreise reicht. Klingt spannend, oder? Es gibt nur ein Problem: Dieses Buch existiert nicht. Weder Anna noch «Die Schatten von Zürich» sind real. Die KI hat alles erfunden.
Ein weiteres Beispiel – bekannt gemacht vom US-Computerwissenschaftler Douglas Hofstadter, der mit ChatGPT folgende Unterhaltung führte:
Nicht gerade der Gipfel der Intelligenz, diese Antworten.
Zugegeben, dieses Beispiel ist bereits ein bisschen älter und schon die Frage offensichtlich absurd. Es geht aber auch aktueller und ernster: Im Jahr 2024 wurde Air Canada vom kanadischen Civil Resolution Tribunal für eine Falschaussage verurteilt, die von einem KI-Chatbot auf der Website der Airline erzeugt wurde. Die Air-Canada-KI hatte Usern fälschlicherweise angegeben, dass sie innerhalb von 90 Tagen nach Ausstellung des Tickets eine Rückerstattung des Trauerfalltarifs beantragen könnten. Dies war falsch. Die Airline musste zahlen.
Es ist also kurios: Obwohl die heutigen KI-Systeme quasi allwissend sind, gefühlt alle Sprachen sprechen und nahezu perfekte Texte und Bilder verschiedenster Stile kreieren, geben sie plötzlich clever klingende, aber doch offensichtlich falsche Antworten auf teils einfache Fragen. Machen sie dies extra? Lügen sie uns also tatsächlich an?
Keine Lügen, sondern Halluzinationen
«Lügen» bedeutet, absichtlich eine Unwahrheit zu erzählen. Ein Blick unter die Haube der KI-Sprachmodelle macht klar, dass dies nicht passiert. Technisch gesprochen machen Sprachmodelle wie ChatGPT nämlich nichts anderes, als das jeweils nächste Wort in einer Wortsequenz vorherzusagen – und zwar so, dass die Benutzerinnen und Benutzer damit möglichst zufrieden sind. Die KI hat also kein eigentliches Verständnis von Wahrheit, sondern sagt einfach das, was am besten klingt.
Wenn sie also mal nicht alle Details einer Antwort kennt, füllt sie die Lücke einfach so auf, dass alles möglichst richtig aussieht und plausibel klingt. Dazu kommt, dass die Antworten auch auf mehrfach exakt gleich gestellte Fragen leicht variieren. Dies, da die KI beim wiederholten Antworten bewusst verschiedene Wege durch ihren enormen Wissensfundus anwendet, um vielseitigere Outputs zu ermöglichen.
So funktioniert ChatGPT:
Dieses Phänomen – KI, die sich etwas ausdenkt – ist so häufig, dass es einen eigenen Namen bekommen hat: KI-Halluzination. Solche Halluzinationen können die verschiedensten Formen annehmen: Wiedergabe falscher Fakten, Erfinden von Quellenangaben, Ausdenken komplett fiktiver Buchzusammenfassungen oder – das Phänomen ist nicht auf Text beschränkt – Abbilden von Händen mit sechs Fingern, Körpern mit drei Armen oder sonstiger surrealer Bildkomponenten. KI-Halluzinationen sind also Text- oder Bild-Antworten, die richtig aussehen, aber frei erfunden sind.
Analog kann man sich eine Person vorstellen, die alle Bücher der Welt gelesen hat, alle Webseiten kennt, sich dies alles perfekt merken konnte und enorm eifrig mit ihrem Wissen helfen will. Fast immer weiss sie ad hoc die richtige Antwort auf eine Frage. Wenn sie aber mal etwas nicht weiss, dichtet sie ganz heimlich einige Details hinzu. Ohne böse Absicht, nur um die Erzählung über die bekannten Elemente hinaus schön zu vervollständigen. Gelogen? Kreativ ergänzt, könnte man auch sagen.
Wie wir von solchen KI-Halluzinationen denken – schon ob grundsätzlich positiv oder negativ – ist stark vom Kontext abhängig. Während erfundene Antworten auf eindeutig gestellte Faktenfragen klar schlecht sind, gibt es Bereiche, in denen wir uns kreative Variation in den Antworten wünschen: beispielsweise bei Schreibaufgaben, Brainstorming-Prozessen oder Kunstprojekten. Hier kann die Fähigkeit der KI, unerwartete oder ungewöhnliche Assoziationen zu bilden, neue Denkpfade eröffnen und so sehr hilfreich sein.
Es liegt also bei uns Menschen, die KI-Halluzinationen im richtigen Moment entweder kreativ zu nutzen oder dann möglichst gut zu umschiffen. Einige generische Tipps:
- Immer Quellen checken. Wenn dir eine KI Fakten präsentiert, verlange Belege oder such selbst nach der Originalquelle. Vertrauen ist gut, Double-Checken ist besser – gerade bei wichtigen Fragen.
- Präzise Fragen stellen. Je präziser die Frage, desto geringer nämlich das Halluzinationsrisiko. Statt «Wie war das Urteil im Fall X?» besser «Bitte gib mir den Link zur offiziellen Gerichtsentscheidung im Fall X».
- Neue Modelle nutzen. Die KI-Forschung arbeitet unermüdlich an Modellen, welche weniger halluzinieren. Verwende also möglichst neue Modelle, dann lösen sich die groben Halluzinationsprobleme oft von selbst.
- Variation in Antworten bewusst suchen. Lass die KI, wo möglich, mehrere Antwortvorschläge generieren und wähl dir dann den besten aus. So nutzt du das Kreativ-Potential der KI optimal aus – als Feature, nicht als Bug.
KI ist ein super mächtiges Werkzeug, aber kein perfekter und allwissender Orakelautomat. Wer ihre Schwächen kennt, kann ihre Stärken besser inszenieren. Dies gilt auch für Halluzinationen. Wenn die KI also das nächste Mal lügt, also ein bisschen zu kreativ ist, dann lächeln wir wissend und fragen einfach noch einmal etwas genauer nach.
