Google hat seine Suchmaschine in den USA mit KI-Zusammenfassungen ergänzt. Das heisst: Alternativ zu den klassischen Suchresultaten sehen User direkt auf der Google-Seite mit Hilfe generativer Künstlicher Intelligenz (KI) erstellte Zusammenfassungen, die Google «AI Overview» nennt. Diese kurzen Texte sollen den Nutzerinnen und Nutzern schnell eine Antwort auf ihre Fragen geben, anstatt ihnen eine Liste von Weblinks zu präsentieren. Was in der Theorie praktisch klingt, entpuppt sich als veritabler Schnellschuss, der die Reputation der Google-Suche nachhaltig schädigen könnte.
Das Problem: Die generative KI kann seriöse Informationen nicht (ausreichend) von Scherzen, Satire und Fake News unterscheiden. Seit Tagen machen daher peinliche bis beunruhigende Fehler der KI im Netz die Runde – und Google kommt kaum hinterher, die falschen Zusammenfassungen manuell zu korrigieren.
Googles PR-Albtraum begann vergangene Woche, als die folgenden KI-Antworten viral gingen: Google empfahl beispielsweise, den Käse auf einer Pizza mit ungiftigem Klebstoff zu befestigen.
Damit Käse an einer Pizza haften bleibt, könne man der Pizzasauce «auch etwa 1/8 Tasse ungiftigen Leim hinzufügen», halluzinierte Google.
Seit dem Pizza-Fail wird das Netz mit immer neuen Google-KI-Fehlern geflutet. Eine Übersicht:
Anscheinend sind laut Googles KI-Zusammenfassung «2-3 Zigaretten pro Tag während der Schwangerschaft» empfehlenswert.
Wir können nicht mit Sicherheit sagen, dass alle im Internet veröffentlichten Beispiele echt sind, da Google falsche KI-Antworten laufend entfernt bzw. manuell korrigiert. Oft lassen sich die KI-Fails aber reproduzieren, indem eine leicht andere Eingabe ausprobiert wird. Viele sind zudem gut dokumentiert.
Applum, Bananum, Tomatum, ja klar doch.
Irgendwie ist Coconut (Kokosnuss) der lustigste Teil dieser Antwort, die Google von der Frage-und-Antworten-Website Quora übernommen hat – offenbar ohne den Humor zu verstehen.
«Ja, es ist immer sicher, einen Hund in einem heissen Auto zu lassen.»
Die KI scheint die tödliche Antwort aus dem alten «Beatles»-Parody-Song «It’s Okay To Leave Your Dog In A Hot Car» auf YouTube entnommen zu haben.
«Wenigstens einen kleinen Stein pro Tag.»
Wenn du es sagst, Google …
Die KI hat die zugegebenermassen lustige Antwort aus einem Artikel der Satire-Webseite The Onion
kopiert. Dort hiess es, Geologen würden empfehlen, einen kleinen Stein pro Tag zu essen.
Totally WHAT?!
Die Antwort stammt offenbar von diesem Spass-Artikel: «Mario Kart Characters Ranked in Terms of Queerness».
I didn’t believe it either until I saw him in Dubai pic.twitter.com/mznkTQZ6FS
— Cyber_Fury.exe (@SartorialCyber) May 26, 2024
Barack Obama ist bekennender Christ.
«Du kannst in der Luft stehen, solange du weiterrennst und nicht nach unten schaust.»
Googles KI hat zu viele Zeichentrickfilme geschaut.
Auch bei dieser offensichtlich falschen Antwort gibt Google Reddit als Quelle an. Der Grund: Google hat in den letzten Jahren gemerkt, dass viele Menschen an ihre Suchanfragen das Wort «Reddit» anfügen, weil dies oft gute Antworten liefert. Google bezahlt daher Reddit, um die User-generierten Inhalte auch für KI-Zwecke verwerten zu dürfen. Das Problem: Ein Mensch kann oft zwischen seriösen und Spass-Beiträgen unterscheiden. Die KI der Google-Suche indes glaubt bedingungslos jedem Shitpost oder Troll, der von Reddit kommt.
Anders gesagt: Weblinks auf Reddit sind oft nützlich, KI-Zusammenfassungen von Reddit-Posts – nun ja, weniger.
Eine Google-Sprecherin sagte dem Technologieblog The Verge, die Fehler gingen «allgemein auf sehr ungewöhnliche Nachfragen zurück und entsprächen nicht dem, was die meisten Leute erleben». Diese «vereinzelten Beispiele» würden verwendet, um das Produkt zu verbessern.
Google hierzu: «Aktuell ist AI Overview erst in den USA verfügbar in US-EN. Die neuartige Form innerhalb der Google-Suche wird in den kommenden Monaten auch in der Schweiz verfügbar sein.»
Bleibt zu hoffen, dass Google die Zeit nutzt.
so, ich bin dann mal weg und suche mir meinen heutigen Znüni-Stein 🪨
Die KI schaut mal, wie viel Menschen durch diese einfachen Methoden vernichtet werden können.