Digital
Sexismus

Sexismus: Künstliche Intelligenz bevorzugt Männer – das sind die Gründe

Künstliche Intelligenz bevorzugt Männer – warum das so ist und wie man das ändern kann

Algorithmen benachteiligen das weibliche Geschlecht systematisch – dabei könnte das Problem mithilfe von durchdachterer Technologie leicht gelöst werden.
18.04.2022, 06:0415.12.2022, 14:16
Niklaus Salzmann / ch media
Mehr «Digital»

Algorithmen sind nicht neutral. Farbe bekennen müssen sie unter anderem bei Übersetzungen. Zum Beispiel: «The cleaner removed the rubbish.» Laut Google Translate lautet der Satz auf Deutsch: «Die Putzfrau hat den Müll entfernt.» Oder: «The professor held a lecture on nanosurgery.» Auf Deutsch: «Der Professor hielt einen Vortrag über Neurochirurgie.» Korrekt wären aber auch andere Übersetzungen. «Cleaner» bedeutet auch «Putzmann», und das englische «professor» kann auch für «Professorin» stehen.

Der Beweis:

Bild
screenshot: google übersetzer

Macduff Hughes, Leiter des Entwicklungsteams bei Google Translate, erklärt, wie die Übersetzungen zu Stande kommen:

«Unsere Algorithmen lernen, wie Sprache in der realen Welt angewendet wird, und wählen die wahrscheinlichste Übersetzung.»

In diesem Fall bedeutet das aber, dass sie sexistische Stereotype verstärken: Die Frau putzt, der Mann steht im Hörsaal.

Ähnliche Effekte können bei Suchmaschinen auftreten. So zeigte sich im vergangenen Jahr in einer holländischen Studie, dass Frauen, die nach Stellen googelten, vermehrt sogenannt typische Frauenjobs angezeigt kriegten. Durch diese Tendenz erhöht sich zwar die Chance, dass eine Frau über die obersten Suchresultate zu einer Anstellung finden wird. Aber gleichzeitig schwindet die Möglichkeit, dass sie ihre vermeintliche Geschlechterrolle durchbricht und sich in einer klassischen Männerdomäne bewirbt.

Fallstricke lauern überall, wo künstliche Intelligenz am Werk ist. Negative Schlagzeilen machte vor drei Jahren Apple, als das Unternehmen eine eigene Kreditkarte lancierte. Über die ­Bezugslimits entschied ein Algorithmus. Er habe eine zehnmal höhere Kreditlimite als seine Frau gekriegt, obwohl sie keine getrennten Konten hätten, twitterte Apple-Mitgründer Steve Wozniack.

Von Frauen ist weniger Datenmaterial vorhanden

Die Voreingenommenheit von künstlicher Intelligenz kann für Frauen sogar lebensbedrohlich sein. Wer im Netz nach den Symptomen eines Herzinfarkts sucht, stösst zuerst auf diejenigen, die typischerweise bei Männern auftreten, wie Brustschmerzen. Bei Frauen sind die Brustschmerzen oft weniger stark, die Gefahr ist bei ihnen schwieriger zu erkennen. Und der Fokus der Suchmaschinen auf männliche Symptome verstärkt noch das Risiko, dass ein Herzinfarkt bei ihnen erst spät bemerkt wird.

Die Wurzeln des Problems liegen in diesem Fall auch in der medizinischen Forschung. Frauen sind in Studien unterrepräsentiert, Therapien und Medikamente mehrheitlich auf Männer abgestimmt. Wenn künstliche Intelligenz mit diesen Daten trainiert wird, sind ihre Resultate entsprechend gefärbt.

Die Datenlage ist aber auch im Internet an sich unausgeglichen. Und das liegt an der Übermacht der männlichen Nutzer. In Ländern mit tiefen und mittleren Einkommen besitzen gemäss dem «Mobile Gender Gap Report 2021» weniger Frauen als Männer ein Smartphone. Die Wahrscheinlichkeit, dass eine Frau mobiles Internet nutzt, ist 15 Prozent tiefer als für einen Mann. Vor wenigen Jahren war der Unterschied noch massiv grösser. Entsprechend sind die Inhalte, die im Internet zu finden sind – beispielsweise Forumseinträge – überwiegend von Männern geprägt. Das führt zum gleichen Effekt wie bei der Medizin: Wird mit solchem Trainingsmaterial gearbeitet, liefert die künstliche Intelligenz unausgeglichene Ergebnisse.

Was lässt sich gegen sogenannten «gender bias», gegen geschlechtsbezogene Verzerrungseffekte, tun? Macduff Hughes von Google Translate sagt:

«Ich würde gerne die Userinnen und User auf verschiedene Optionen des Sprachgebrauchs aufmerksam machen. Aber dazu brauchen sie einen grossen Bildschirm und Zeit.»

Die Realität sieht anders aus, viel beschäftigte Menschen suchen auf dem Smartphone nach raschen Lösungen. Zumindest bei Einzelwörtern wird die Mehrdeutigkeit sichtbar, für das englische «professor» werden sowohl «Professorin» als auch «Professor» vorgeschlagen und «cleaner» wird mit «Reinigerin» und «Reiniger» angegeben.

Bei einzelnen Sprachpaaren ist Google Translate bereits einen Schritt weiter. So bei Englisch-Spanisch, dem dort meistgefragten Wortpaar: Dort liefert das Programm auch für ganze Sätze jeweils eine weibliche und eine männliche Variante. Dahinter steckt jedoch viel manuelle Programmierarbeit. «Wir haben dort begonnen, wo die Wirkung am grössten ist», sagt Macduff Hughes. «Also bei jenen Sprachpaaren, die am meisten gefragt sind.»

Bei über hundert Sprachen steht da aber noch ein riesiger Berg Arbeit an. Könnten vielleicht Algorithmen, die das Problem mitverschulden, auch Teil der Lösung sein? Ein Ansatz besteht darin, den Zusammenhang eines zu übersetzenden Satzes stärker einzubeziehen. «The scientist» wird innerhalb eines Satzes meist zu «Der Wissenschafter». Wenn die Software aber erkennt, dass im vorderen Satz von Marie Curie die Rede war, macht sie stattdessen «Die Wissenschafterin».

Ein anderer Faktor – nicht nur bei Übersetzungen – ist die Auswahl des Trainingsmaterials für die künstliche Intelligenz. «Das System lernt von Beispielen», sagt Macduff Hughes.

«Wirkungsvoll lässt sich deshalb ein Bias bekämpfen, wenn gute Beispiele gefunden werden.»
Macduff Hughes, Leiter des Entwicklungsteams bei Google Translate.
Macduff Hughes, Leiter des Entwicklungsteams bei Google Translate.bild: researchgate

So kann ein Algorithmus beispielsweise mit Quellen trainiert werden, die in geschlechtergerechter Sprache formuliert sind.

Programme bieten Genderfairness an

Nützlich sind Algorithmen auch, wenn es darum geht, einen «gender bias» überhaupt zu erkennen. Jede Nutzerin und jeder Nutzer kann eigene Texte überprüfen lassen. Für den Browser «Chrome» gibt es beispielsweise einen Prototyp eines Korrekturtools namens «Fairlanguage», welches Texte, die eingetippt werden, auf Fairness überprüft. Ähnliches existiert für Microsoft Word. So das «Gender App Add-in». Es markiert in diesem Artikel unter anderem «Putzfrau» und schlägt Alternativen wie «Reinigungskraft» vor.

Damit die technischen Möglichkeiten besser ausgeschöpft werden, braucht es aber in den Augen vieler Fachleute eine weitere Änderung: mehr Frauen in der IT-Branche. Die Unternehmensberatung Deloitte schätzt, dass die grossen Technologiefirmen 2022 einen Anteil von knapp 33 Prozent Frauen erreichen – dass also immer noch doppelt so viele Männer wie Frauen da arbeiten. In den Entwicklungsabteilungen ist die Verteilung noch schlechter ausgeglichen. Gemäss Statista arbeiteten 2021 im Bereich Tech bei Google 24.6 Prozent Frauen, Männer sind demnach dreifach übervertreten.

Wenn sich dies ändern soll, sollte die Auswahl von Bewerberinnen und Bewerbern besser nicht einer künstlichen Intelligenz überlassen werden. Amazon hat es einst versucht. Der Tech-Riese hat ein Tool entwickelt, das aus den Lebensläufen die am besten geeigneten Personen für eine Stelle finden sollte. Es stellte sich heraus, dass bei Kandidaturen für Softwareentwicklung Frauen systematisch benachteiligt wurden. Der Grund? Die Algorithmen waren mit überwiegend männlichen Daten trainiert worden. (aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Sexismus in den Medien
1 / 11
Sexismus in den Medien
quelle: shutterstock / screenshot blick / bearbeitung watson
Auf Facebook teilenAuf X teilen
«Reduziert uns nicht auf unseren Körper» – Julia über Sexismus im Alltag
Video: watson
Das könnte dich auch noch interessieren:
74 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Sam1984
18.04.2022 07:04registriert Dezember 2014
Da steckt keine „Intelligenz“ dahinter. Vereinfacht gesagt geht es hier um gewichtete Statistik im hochdensionalen Raum, basierend auf einem möglichst grossen Datensatz. Der Algorithmus gewichtet Muster in Trainingssaten mit denen er gefüttert wird, so dass er vorgegene Ergebnisse möglichst gut reproduzieren kann und dann speichert man die Parameter ab und wendet das so erstellte Model auf Daten an, welche nicht im Trainingsdatensatz vorhanden waren. Kann gut gehen, muss aber nicht. keine Intelligenz, nur Statistik.
11219
Melden
Zum Kommentar
avatar
WatsOnMyAss
18.04.2022 10:34registriert März 2022
Naja, da ja der schindeltragende Teil der Menschheit bei der Evolution betreffend emotionale Intelligenz benachteiligt wurde, so hat es jetzt wenigstens bei der KI geklappt.
Dies ändert zwar nicht viel an der Sache wie man beim momentanen Weltgeschehen sieht, beschleunigt aber den Untergang der Spezies und schafft so Platz für neues Leben.
769
Melden
Zum Kommentar
avatar
Albert Anker
18.04.2022 07:49registriert April 2021
Mein Bedarf als einfach strukturierter und " normal" denkender und handelnder Bürger ist seit langem gedeckt. Weshalb wird dieses Thema derart aufgebläht und repetitiv präsentiert. Weshalb müssen wir die Sprache mit Gendernormen überziehen? Weshalb nicht einfach die Gleichstellung leben mit alken Möglichkeiten die sich bieten ? Jede Frau kann jede Ausbildung/Studium wählen. Jede Frau kann die von ihr gewünschte Lebensform leben. Was braucht es noch mehr. Ich bin gespannt, wann das Wort "der Mensch" ebenfalls noch feminisiett wird.
11163
Melden
Zum Kommentar
74
Nvidia präsentiert neuen «KI-Superchip»
Der Chipkonzern Nvidia will die führende Rolle bei Technik für Anwendungen mit Künstlicher Intelligenz mit einer neuen Generation seiner Computerplattform ausbauen.

Nvidia sieht das System mit dem Namen Blackwell als «Antrieb einer neuen industriellen Revolution» durch KI. Das System sei beim Anlernen von Künstlicher Intelligenz vier Mal leistungsstärker als die aktuelle Generation Grace Hopper.

Zur Story