Wissen
Forschung

Menschen übernehmen Vorurteile von der Künstlichen Intelligenz

Mensch-KI, Symbolbild
Nicht nur die KI übernimmt Vorurteile vom Menschen – auch umgekehrt ist das der Fall. Bild: Shutterstock

Gefährliche Feedback-Schleife – Menschen übernehmen Vorurteile von der KI

06.10.2023, 19:5506.10.2023, 21:55
Mehr «Wissen»

ChatGTP und Konsorten sorgen seit einem Jahr für Furore: Mit dem Hype um den Chatbot und vergleichbare Anwendungen scheint es, dass Künstliche Intelligenz (KI) sich erstmals auch für Normalsterbliche als Werkzeug des alltäglichen Gebrauchs eignet. Damit wurden aber auch Warnungen vor der KI lauter – etwa vor der Tatsache, dass Sprachmodelle wie ChatGTP dazu neigen, Informationen zu erfinden. Und dass die KI menschliche Vorurteile widerspiegelt, die sich im gigantischen Datensatz verbergen, mit dem sie trainiert worden ist.

Nun zeigt eine im Wissenschaftsmagazin «Scientific Reports» erschienene Studie der Universität Deusto in Bilbao (Spanien), dass die Übernahme von Vorurteilen auch in der umgekehrten Richtung geschieht: Menschen können systematische Fehler einer voreingenommenen KI übernehmen. Benutzen sie eine solche KI, in deren «Denken» sich erlernte Verzerrungen eingeschlichen haben, spiegeln sie deren Fehler wider.

Image der Zuverlässigkeit

Die erstaunlichen Leistungen von heutigen KI-Modellen, die beispielsweise in der Lage sind, ein Gespräch zu führen, das sich kaum von einem Gespräch mit einem menschlichen Partner unterscheiden lässt, haben der KI ein Image der Zuverlässigkeit verliehen. Man neigt dazu, alle Informationen als wahr zu betrachten. In immer mehr Berufsfeldern werden daher KI-basierte Tools eingesetzt, um Spezialisten bei der Entscheidungsfindung zu unterstützen und Fehler zu minimieren.

Dies bleibt allerdings nicht ohne Risiken. Die Daten, die zum Training von KI-Modellen verwendet werden, spiegeln vorhergehende menschlich Entscheidungen wider. Wenn sich in diesen Daten Muster von systematischen Fehlern verbergen, wird der KI-Algorithmus diese lernen und reproduzieren. Tatsächlich gibt es Belege dafür, dass KI-Systeme menschliche Voreingenommenheiten gewissermassen erben – und noch verstärken.

Drei Experimente

Die Studie der Psychologinnen Lucía Vicente und Helena Matute zeigt nun, dass Menschen auch Vorurteile von der KI übernehmen. Damit besteht die Gefahr einer gefährlichen, selbstverstärkenden Schleife.

Die Forscherinnen führten drei Experimente durch, bei denen Freiwillige eine medizinische Diagnoseaufgabe lösten. Der Hälfte der Teilnehmer wurde ein voreingenommenes KI-Modell zugewiesen, das systematische Fehler aufwies. Die Kontrollgruppe konnte keine Hilfe von der KI in Anspruch nehmen und musste die Aufgabe daher selbst erledigen. Allerdings waren die künstliche Intelligenz, die medizinische Diagnoseaufgabe und die Krankheit fiktiv: Das gesamte Szenario war eine Simulation, um Interferenzen mit realen Situationen zu vermeiden.

Es zeigte sich, dass jene Teilnehmer, die vom KI-Algorithmus unterstützt wurden, dieselbe Art von Fehlern machten wie die KI. Die Kontrollgruppe machte diese Fehler hingegen nicht. Die Empfehlungen der KI beeinflussten also die Entscheidungen der Teilnehmer. Das wichtigste Ergebnis des Experiments bestand jedoch darin, dass die Testpersonen nach der Interaktion mit dem KI-System dessen systematische Fehler in einem nächsten Experiment auch dann nachahmten, wenn sie die Diagnoseaufgabe ohne Unterstützung lösten.

Mit anderen Worten: Testpersonen, die zunächst von einer voreingenommenen KI unterstützt wurden, übernahmen diese Voreingenommenheit und wiederholten sie in einem Kontext ohne diese Unterstützung. Sie zeigten damit eine vererbte Voreingenommenheit. Bei den Testpersonen der Kontrollgruppe wurde dieser Effekt nicht beobachtet.

Nachhaltiger negativer Einfluss

Die beunruhigende Erkenntnis aus diesen Ergebnissen ist, dass voreingenommene Informationen eines KI-Modells, zumal sie professionell und selbstbewusst vermittelt werden, einen nachhaltigen negativen Einfluss auf menschliche Entscheidungen haben können. Dies lässt es als wünschbar erscheinen, weitere psychologische und multidisziplinäre Forschungen im Hinblick auf die Interaktion zwischen Mensch und KI durchzuführen.

Zudem sind evidenzbasierte neue Regelungen erforderlich, um eine faire und ethische KI zu gewährleisten. Dabei sollten nicht nur technische Merkmale, sondern auch psychologische Aspekte der Zusammenarbeit von KI und Mensch berücksichtigt werden. (dhr)

«Nothing, Forever»: So sieht eine KI-generierte Sitcom aus, die unendlich läuft

Video: watson/een
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen
«Dumme Fragen!» - ChatGPT beklagt sich über uns
Video: watson
Das könnte dich auch noch interessieren:
33 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Firefly
06.10.2023 20:09registriert April 2016
"Menschen übernehmen Vorurteile von der KI"

Nicht ganz... KI übernimmt Vorurteile von den Menschen und die Menschen übernehmen sie wieder von der KI

Das Problem dabei, die KI tönt sprachlich sehr überzeugend und resolut, kennt keinen Zweifel, darum wird sie auch nicht angezweifelt unf für bare Münze genommen.
626
Melden
Zum Kommentar
avatar
Bär51
06.10.2023 20:10registriert Juni 2019
Dasselbe geschieht mit den Algorithmen in den sozialen Medien: es wird geglaubt, was man liest, und man verstärkt damit unbewusst noch die Beeinflussung.
Funktioniert logischerweise mit KI erst recht.
492
Melden
Zum Kommentar
avatar
Elmas Lento
06.10.2023 22:22registriert Mai 2017
Ich bin überzeugt, wäre die Quelle der falschen Informationen etwas anderes als eine KI gewesen, z.b. ein Mensch oder eine Anleitung, das Resultat wäre genau dasselbe gewesen. Wenn wir etwas nicht wissen und jemand das vermeintlich besser weiss nehmen wir dieses Wissen als richtig an bis es irgendwann mit anderen Informationen kollidiert.
210
Melden
Zum Kommentar
33
    Hoden im Adelswappen und andere seltsame historische Fakten

    Die Weltgeschichte ist voller seltsamer Begebenheiten – manche davon grausam, manche komisch. In unregelmässigen Abständen präsentieren wir einige dieser erstaunlichen historischen Fakten, von denen kaum jemand schon mal gehört hat.

    Zur Story