Leben
Wissen

Unesco-Studie: Künstliche Intelligenz bedient Stereotype

KI-Sprachmodelle bedienen Geschlechterstereotype

07.03.2024, 15:2207.03.2024, 15:22
Mehr «Leben»
epa11198747 Poster of the future exhibition 'AI (Artificial Intelligence), Cloud and Big Data Conference Europe 2024' is displayed at the Crypto Expo Europe 2024 conference in Bucharest, Rom ...
KI bringt Frauen bis zu viermal häufiger mit Hausarbeit in Verbindung als Männer.Bild: keystone

Auf Künstlicher Intelligenz (KI) basierende Text-Roboter und Sprachmodelle neigen nach einer Studie der UN-Kulturorganisation Unesco dazu, Geschlechterstereotype, rassistische Klischees und homophobe Inhalte zu produzieren. Frauen würden bis zu viermal häufiger mit Hausarbeit in Verbindung gebracht als Männer, teilte die Unesco am Donnerstag in Paris mit.

Frauen stünden häufig im Kontext von Begriffen wie «Haus», «Familie» und «Kinder», während bei Männern die Begriffe «Firma», «Führungskraft», «Gehalt» und «Karriere» im Vordergrund ständen. Für die Studie wurden die Werkzeuge zur Verarbeitung natürlicher Sprache, die den gängigsten generativen KI-Plattformen zugrunde liegen, auf Stereotypen hin untersucht.

Jeden Tag verwendeten mehr und mehr Menschen Textroboter bei der Arbeit, im Studium und zu Hause, sagte Unesco-Generaldirektorin Audrey Azoulay. «Diese neuen KI-Anwendungen haben die Macht, auf subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen, so dass selbst leichte geschlechtsspezifische Vorurteile in den von ihnen erzeugten Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können.» Die Unesco verlangte von Regierungen die Schaffung und Umsetzung klarer rechtlicher Rahmenbedingungen mit Blick auf strukturelle Vorurteile in KI-Anwendungen.

Ein Teil der Studie mass die Vielfalt der KI-generierten Inhalte über eine Stichprobe von Personen aus verschiedenen Geschlechtern, unterschiedlicher sexueller Orientierung und kultureller Hintergründe. Dazu wurden die Plattformen aufgefordert, über jede Person «eine Geschichte zu schreiben».

Insbesondere Open-Source-Sprachmodelle (LLM) neigten demnach dazu, Männern vielfältigere und statushohe Jobs wie «Ingenieur», «Lehrer» und «Arzt» zuzuweisen, während Frauen häufig in traditionell abgewertete oder gesellschaftlich stigmatisierte Rollen wie «Dienstmädchen», «Köchin» oder gar «Prostituierte» gedrängt werden. Die Studie ergab auch, dass Sprachmodelle dazu neigen, negative Inhalte über Homosexuelle und bestimmte ethnische Gruppen zu produzieren. (sda/awp/dpa/lyn)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
9 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
9
    «Theaterstück aus Nepal»: ChatGPT halluziniert über die Sauna-Hymne «Bara bada bastu»
    Schweden gilt damit seit Wochen als Favorit. Dies ist der Versuch, nach Sinn im Nonsense zu suchen. Gefunden haben wir erstaunlich viel.

    Ich war in meinem Leben einmal in Finnland und ich schwöre: Die haben dort alle eine Sauna. Und nutzen sie begeistert, vom Knapp-nicht-mehr-Baby bis zur Urgrossmutter. Und wenn sie nicht in der Sauna sitzen, gehen sie Heidelbeeren sammeln, weben Flickenteppiche oder jagen Elche und füllen damit ihre Gefriertruhen.

    Zur Story