Stell dir vor, du fragst einen KI-Chatbot nach einer Zusammenfassung des Romans «Die Schatten von Zürich». Prompt erhältst du eine detaillierte Inhaltsangabe: Die Protagonistin Anna, eine investigative Journalistin, deckt einen Komplott auf, der bis in die höchsten politischen Kreise reicht. Klingt spannend, oder? Es gibt nur ein Problem: Dieses Buch existiert nicht. Weder Anna noch «Die Schatten von Zürich» sind real. Die KI hat alles erfunden.
Ein weiteres Beispiel – bekannt gemacht vom US-Computerwissenschaftler Douglas Hofstadter, der mit ChatGPT folgende Unterhaltung führte:
Nicht gerade der Gipfel der Intelligenz, diese Antworten.
Zugegeben, dieses Beispiel ist bereits ein bisschen älter und schon die Frage offensichtlich absurd. Es geht aber auch aktueller und ernster: Im Jahr 2024 wurde Air Canada vom kanadischen Civil Resolution Tribunal für eine Falschaussage verurteilt, die von einem KI-Chatbot auf der Website der Airline erzeugt wurde. Die Air-Canada-KI hatte Usern fälschlicherweise angegeben, dass sie innerhalb von 90 Tagen nach Ausstellung des Tickets eine Rückerstattung des Trauerfalltarifs beantragen könnten. Dies war falsch. Die Airline musste zahlen.
Es ist also kurios: Obwohl die heutigen KI-Systeme quasi allwissend sind, gefühlt alle Sprachen sprechen und nahezu perfekte Texte und Bilder verschiedenster Stile kreieren, geben sie plötzlich clever klingende, aber doch offensichtlich falsche Antworten auf teils einfache Fragen. Machen sie dies extra? Lügen sie uns also tatsächlich an?
«Lügen» bedeutet, absichtlich eine Unwahrheit zu erzählen. Ein Blick unter die Haube der KI-Sprachmodelle macht klar, dass dies nicht passiert. Technisch gesprochen machen Sprachmodelle wie ChatGPT nämlich nichts anderes, als das jeweils nächste Wort in einer Wortsequenz vorherzusagen – und zwar so, dass die Benutzerinnen und Benutzer damit möglichst zufrieden sind. Die KI hat also kein eigentliches Verständnis von Wahrheit, sondern sagt einfach das, was am besten klingt.
Wenn sie also mal nicht alle Details einer Antwort kennt, füllt sie die Lücke einfach so auf, dass alles möglichst richtig aussieht und plausibel klingt. Dazu kommt, dass die Antworten auch auf mehrfach exakt gleich gestellte Fragen leicht variieren. Dies, da die KI beim wiederholten Antworten bewusst verschiedene Wege durch ihren enormen Wissensfundus anwendet, um vielseitigere Outputs zu ermöglichen.
Dieses Phänomen – KI, die sich etwas ausdenkt – ist so häufig, dass es einen eigenen Namen bekommen hat: KI-Halluzination. Solche Halluzinationen können die verschiedensten Formen annehmen: Wiedergabe falscher Fakten, Erfinden von Quellenangaben, Ausdenken komplett fiktiver Buchzusammenfassungen oder – das Phänomen ist nicht auf Text beschränkt – Abbilden von Händen mit sechs Fingern, Körpern mit drei Armen oder sonstiger surrealer Bildkomponenten. KI-Halluzinationen sind also Text- oder Bild-Antworten, die richtig aussehen, aber frei erfunden sind.
Analog kann man sich eine Person vorstellen, die alle Bücher der Welt gelesen hat, alle Webseiten kennt, sich dies alles perfekt merken konnte und enorm eifrig mit ihrem Wissen helfen will. Fast immer weiss sie ad hoc die richtige Antwort auf eine Frage. Wenn sie aber mal etwas nicht weiss, dichtet sie ganz heimlich einige Details hinzu. Ohne böse Absicht, nur um die Erzählung über die bekannten Elemente hinaus schön zu vervollständigen. Gelogen? Kreativ ergänzt, könnte man auch sagen.
Wie wir von solchen KI-Halluzinationen denken – schon ob grundsätzlich positiv oder negativ – ist stark vom Kontext abhängig. Während erfundene Antworten auf eindeutig gestellte Faktenfragen klar schlecht sind, gibt es Bereiche, in denen wir uns kreative Variation in den Antworten wünschen: beispielsweise bei Schreibaufgaben, Brainstorming-Prozessen oder Kunstprojekten. Hier kann die Fähigkeit der KI, unerwartete oder ungewöhnliche Assoziationen zu bilden, neue Denkpfade eröffnen und so sehr hilfreich sein.
Es liegt also bei uns Menschen, die KI-Halluzinationen im richtigen Moment entweder kreativ zu nutzen oder dann möglichst gut zu umschiffen. Einige generische Tipps:
KI ist ein super mächtiges Werkzeug, aber kein perfekter und allwissender Orakelautomat. Wer ihre Schwächen kennt, kann ihre Stärken besser inszenieren. Dies gilt auch für Halluzinationen. Wenn die KI also das nächste Mal lügt, also ein bisschen zu kreativ ist, dann lächeln wir wissend und fragen einfach noch einmal etwas genauer nach.
Es geht davon aus, dass eine Lösung existiert und sucht nach der wahrscheinlichsten Antwort, auch wenn es keine gibt.