Der Chatbot ChatGPT ist in aller Munde. Microsoft möchte für zehn Milliarden Dollar 49 Prozent der Organisation OpenAI, die den Bot entwickelt hat, erwerben. So will der Tech-Riese im Wettkampf um die beste künstliche Intelligenz (KI) ganz vorne mitmischen können. Und auch seine derzeit kaum benutzte Suchmaschine Bing massgeblich verbessern.
Denn die Software ChatGPT fördert anders als eine traditionelle Suchmaschine nicht einfach Links zu Tage, sondern generiert selber eine möglichst präzise Antwort auf die Frage. Dazu wurde das Programm praktisch mit dem ganzen Internet gefüttert, mit Wikipedia-Artikeln, digitalisierten Büchersammlungen und vielen anderen Textquellen.
Mit diesen Inhalten lernt die KI die Muster und Strukturen von Sprache kennen. Gibt man dem Chatbot nun ein Wort vor, kann er anhand von statistischen Zusammenhängen mit sehr hoher Wahrscheinlichkeit vorhersagen, wie das nächste Wort lauten soll. Dass dabei mitunter auch kuriose Ergebnisse zu Stande kommen und sogar Fake News generiert werden, zeigen unsere zehn Beispiele. Wir haben den Chatbot gefragt, wer die folgenden Schweizer Persönlichkeiten sind:
Aha, dass Blocher aus der SVP ausgetreten ist, entging uns. Wie die KI darauf kommt, ist nicht einfach nachzuvollziehen. Vermutlich handelt es sich um ein sprachliches Problem. Beim Generieren des Textes wurde die Vergangenheitsform des Verbes «sein» statt der Gegenwartsform verwendet.
Interessant. Diese Familienverhältnisse waren bisher nicht bekannt. Der geheime Bruder von Magdalena? Wie kam der Fehler zu Stande? Schwierig zu sagen. Offenbar kommt in den Texten, die der KI zur Verfügung stehen, «Albert Rösti» oft in engem Zusammenhang mit «Christoph Blocher» vor, und dieser wird ja öfters als «Vater der SVP», «Übervater» oder «Oberhaupt der Partei» bezeichnet. Vermutlich verstand die KI diese Bezeichnungen sehr konkret und machte Albert Rösti just zu seinem Sohn.
Kaum ein Mensch in der Schweiz denkt nicht an den Ringier-CEO, wenn er den Namen Marc Walder hört – derzeit erst recht. Für ChatGPT ist der Ringier-Chef aber zu unbekannt. Immerhin fragt er nach, bald kamen dann die Infos:
Leider wieder nicht ganz korrekt. Gemäss Walders Linkedin-Profil ist er seit 2008 CEO von Ringier Schweiz und Deutschland und seit 2012 CEO des gesamten Ringier-Konzerns. Ausserdem müsste es heissen, er «leitet das Unternehmen seit 2008» (nicht «hat geleitet»).
Eben wurde vermeldet, dass Yann Sommer von Borussia Mönchengladbach zu Bayern München gewechselt ist. ChatGPT vermeldet nun eine grosse Wende: Er ist zurück beim FC Basel! Das ist natürlich Quatsch. Die KI sollte wissen, dass Sommer seit 2014 bei Gladbach spielt, zumal sie ja auch weiss, dass er 2018 an der WM teilgenommen hat. Denn Wechsel zu Bayern kann sie aber nicht vermelden, da ihr Wissen auf dem Stand von 2021 ist. Sie kann nicht auf die aktuellen Daten des Internets zugreifen.
Wieder ein falscher Rücktritt! Neff hat ihre Karriere natürlich noch nicht beendet. Dieses Mal lässt sich der Fehler nicht auf einer sprachlichen Ebene erklären – wie bei Christoph Blocher. Keine Ahnung, woher die KI die falsche Information hat.
Den Namenswechsel der CVP zur Mitte hat die KI offenbar noch nicht mitbekommen. Die «Christdemokratische Volkspartei» gab es aber nie. CVP steht für Christlichdemokratische Volkspartei. Und mit den weiblichen Formen kennt sich die KI auch nicht so gut aus, sonst würde sie Amherd als Chefin und nicht als Chef bezeichnen.
Dieser Doppelname ist sehr selten. Da Baume-Schneider eben erst zur Bundesrätin gewählt wurde, wurde die KI noch nicht mit den entsprechenden Daten trainiert. Das Wissen der KI endet 2021. Der Doppelname ist aber sehr selten, deshalb verwundert es, dass der Chatbot ihn nicht mit der Politikerin in Verbindung bringt, die im Ständerat und Regierungsrat des Kantons Jura sass. Dass die KI überhaupt nichts mit diesem Namen anfangen kann, zeigt sich auch darin, dass sie nicht nachfragt wie bei Marc Walder, den sie zuerst auch nicht zuordnen kann.
Es wird an diesem Beispiel deutlich, dass die Stärke von ChatGPT nicht darin liegt, Informationen im Internet zu finden, wie etwa die Suchmaschine von Google, sondern eigene Antworten zu generieren, die sprachlich korrekt und plausibel sind.
Falsch, Peter Stamm hat nie den Deutschen Buchpreis erhalten. Das haben aus der Schweiz erst Melinda Nadj Abonji und Kim de l'Horizon. Die KI verwechselt hier den Deutschen mit dem Schweizer Buchpreis, den Stamm 2018 gewonnen hat.
Roger Schawinski hat viel gemacht – etwa mit Radio 24 das erste Privatradio und mit TeleZüri das erste Privatfernsehen in der Schweiz gegründet. Er ist aber weder Gründer des Radiosenders Energy noch war er dessen Geschäftsführer. Fake News!
Hier zeigt sich die Gefahr von Chatbots wie ChatGPT abermals. Da sie nicht einfach Quellen zitieren, sondern die Antworten auf Fragen mit Hilfe von künstlicher Intelligenz selber generieren, können unbeabsichtigt Falschinformationen entstehen.
Je stärker KI bei der Websuche integriert wird und statt Links zu Quellen gleich pfannenfertige Antworten liefert, desto grösser wird das Risiko, Fake News aufzusitzen. Vieles spricht dafür, dass sich Suchmaschinen in den nächsten Jahren mehr zu Chatbots wandeln werden. Der Trend ist nicht ungefährlich.
Ah. Danke. Und da behauptet Roger Schawinski noch: «S esch mini Idee gsi.»