ChatGTP und Konsorten sorgen seit einem Jahr für Furore: Mit dem Hype um den Chatbot und vergleichbare Anwendungen scheint es, dass Künstliche Intelligenz (KI) sich erstmals auch für Normalsterbliche als Werkzeug des alltäglichen Gebrauchs eignet. Damit wurden aber auch Warnungen vor der KI lauter – etwa vor der Tatsache, dass Sprachmodelle wie ChatGTP dazu neigen, Informationen zu erfinden. Und dass die KI menschliche Vorurteile widerspiegelt, die sich im gigantischen Datensatz verbergen, mit dem sie trainiert worden ist.
Nun zeigt eine im Wissenschaftsmagazin «Scientific Reports» erschienene Studie der Universität Deusto in Bilbao (Spanien), dass die Übernahme von Vorurteilen auch in der umgekehrten Richtung geschieht: Menschen können systematische Fehler einer voreingenommenen KI übernehmen. Benutzen sie eine solche KI, in deren «Denken» sich erlernte Verzerrungen eingeschlichen haben, spiegeln sie deren Fehler wider.
Die erstaunlichen Leistungen von heutigen KI-Modellen, die beispielsweise in der Lage sind, ein Gespräch zu führen, das sich kaum von einem Gespräch mit einem menschlichen Partner unterscheiden lässt, haben der KI ein Image der Zuverlässigkeit verliehen. Man neigt dazu, alle Informationen als wahr zu betrachten. In immer mehr Berufsfeldern werden daher KI-basierte Tools eingesetzt, um Spezialisten bei der Entscheidungsfindung zu unterstützen und Fehler zu minimieren.
Dies bleibt allerdings nicht ohne Risiken. Die Daten, die zum Training von KI-Modellen verwendet werden, spiegeln vorhergehende menschlich Entscheidungen wider. Wenn sich in diesen Daten Muster von systematischen Fehlern verbergen, wird der KI-Algorithmus diese lernen und reproduzieren. Tatsächlich gibt es Belege dafür, dass KI-Systeme menschliche Voreingenommenheiten gewissermassen erben – und noch verstärken.
Die Studie der Psychologinnen Lucía Vicente und Helena Matute zeigt nun, dass Menschen auch Vorurteile von der KI übernehmen. Damit besteht die Gefahr einer gefährlichen, selbstverstärkenden Schleife.
Die Forscherinnen führten drei Experimente durch, bei denen Freiwillige eine medizinische Diagnoseaufgabe lösten. Der Hälfte der Teilnehmer wurde ein voreingenommenes KI-Modell zugewiesen, das systematische Fehler aufwies. Die Kontrollgruppe konnte keine Hilfe von der KI in Anspruch nehmen und musste die Aufgabe daher selbst erledigen. Allerdings waren die künstliche Intelligenz, die medizinische Diagnoseaufgabe und die Krankheit fiktiv: Das gesamte Szenario war eine Simulation, um Interferenzen mit realen Situationen zu vermeiden.
Es zeigte sich, dass jene Teilnehmer, die vom KI-Algorithmus unterstützt wurden, dieselbe Art von Fehlern machten wie die KI. Die Kontrollgruppe machte diese Fehler hingegen nicht. Die Empfehlungen der KI beeinflussten also die Entscheidungen der Teilnehmer. Das wichtigste Ergebnis des Experiments bestand jedoch darin, dass die Testpersonen nach der Interaktion mit dem KI-System dessen systematische Fehler in einem nächsten Experiment auch dann nachahmten, wenn sie die Diagnoseaufgabe ohne Unterstützung lösten.
Mit anderen Worten: Testpersonen, die zunächst von einer voreingenommenen KI unterstützt wurden, übernahmen diese Voreingenommenheit und wiederholten sie in einem Kontext ohne diese Unterstützung. Sie zeigten damit eine vererbte Voreingenommenheit. Bei den Testpersonen der Kontrollgruppe wurde dieser Effekt nicht beobachtet.
Die beunruhigende Erkenntnis aus diesen Ergebnissen ist, dass voreingenommene Informationen eines KI-Modells, zumal sie professionell und selbstbewusst vermittelt werden, einen nachhaltigen negativen Einfluss auf menschliche Entscheidungen haben können. Dies lässt es als wünschbar erscheinen, weitere psychologische und multidisziplinäre Forschungen im Hinblick auf die Interaktion zwischen Mensch und KI durchzuführen.
Zudem sind evidenzbasierte neue Regelungen erforderlich, um eine faire und ethische KI zu gewährleisten. Dabei sollten nicht nur technische Merkmale, sondern auch psychologische Aspekte der Zusammenarbeit von KI und Mensch berücksichtigt werden. (dhr)
Nicht ganz... KI übernimmt Vorurteile von den Menschen und die Menschen übernehmen sie wieder von der KI
Das Problem dabei, die KI tönt sprachlich sehr überzeugend und resolut, kennt keinen Zweifel, darum wird sie auch nicht angezweifelt unf für bare Münze genommen.
Funktioniert logischerweise mit KI erst recht.