Algorithmen sind nicht neutral. Farbe bekennen müssen sie unter anderem bei Übersetzungen. Zum Beispiel: «The cleaner removed the rubbish.» Laut Google Translate lautet der Satz auf Deutsch: «Die Putzfrau hat den Müll entfernt.» Oder: «The professor held a lecture on nanosurgery.» Auf Deutsch: «Der Professor hielt einen Vortrag über Neurochirurgie.» Korrekt wären aber auch andere Übersetzungen. «Cleaner» bedeutet auch «Putzmann», und das englische «professor» kann auch für «Professorin» stehen.
Macduff Hughes, Leiter des Entwicklungsteams bei Google Translate, erklärt, wie die Übersetzungen zu Stande kommen:
In diesem Fall bedeutet das aber, dass sie sexistische Stereotype verstärken: Die Frau putzt, der Mann steht im Hörsaal.
Ähnliche Effekte können bei Suchmaschinen auftreten. So zeigte sich im vergangenen Jahr in einer holländischen Studie, dass Frauen, die nach Stellen googelten, vermehrt sogenannt typische Frauenjobs angezeigt kriegten. Durch diese Tendenz erhöht sich zwar die Chance, dass eine Frau über die obersten Suchresultate zu einer Anstellung finden wird. Aber gleichzeitig schwindet die Möglichkeit, dass sie ihre vermeintliche Geschlechterrolle durchbricht und sich in einer klassischen Männerdomäne bewirbt.
Fallstricke lauern überall, wo künstliche Intelligenz am Werk ist. Negative Schlagzeilen machte vor drei Jahren Apple, als das Unternehmen eine eigene Kreditkarte lancierte. Über die Bezugslimits entschied ein Algorithmus. Er habe eine zehnmal höhere Kreditlimite als seine Frau gekriegt, obwohl sie keine getrennten Konten hätten, twitterte Apple-Mitgründer Steve Wozniack.
I'm a current Apple employee and founder of the company and the same thing happened to us (10x) despite not having any separate assets or accounts. Some say the blame is on Goldman Sachs but the way Apple is attached, they should share responsibility.
— Steve Wozniak (@stevewoz) November 10, 2019
Die Voreingenommenheit von künstlicher Intelligenz kann für Frauen sogar lebensbedrohlich sein. Wer im Netz nach den Symptomen eines Herzinfarkts sucht, stösst zuerst auf diejenigen, die typischerweise bei Männern auftreten, wie Brustschmerzen. Bei Frauen sind die Brustschmerzen oft weniger stark, die Gefahr ist bei ihnen schwieriger zu erkennen. Und der Fokus der Suchmaschinen auf männliche Symptome verstärkt noch das Risiko, dass ein Herzinfarkt bei ihnen erst spät bemerkt wird.
Die Wurzeln des Problems liegen in diesem Fall auch in der medizinischen Forschung. Frauen sind in Studien unterrepräsentiert, Therapien und Medikamente mehrheitlich auf Männer abgestimmt. Wenn künstliche Intelligenz mit diesen Daten trainiert wird, sind ihre Resultate entsprechend gefärbt.
Die Datenlage ist aber auch im Internet an sich unausgeglichen. Und das liegt an der Übermacht der männlichen Nutzer. In Ländern mit tiefen und mittleren Einkommen besitzen gemäss dem «Mobile Gender Gap Report 2021» weniger Frauen als Männer ein Smartphone. Die Wahrscheinlichkeit, dass eine Frau mobiles Internet nutzt, ist 15 Prozent tiefer als für einen Mann. Vor wenigen Jahren war der Unterschied noch massiv grösser. Entsprechend sind die Inhalte, die im Internet zu finden sind – beispielsweise Forumseinträge – überwiegend von Männern geprägt. Das führt zum gleichen Effekt wie bei der Medizin: Wird mit solchem Trainingsmaterial gearbeitet, liefert die künstliche Intelligenz unausgeglichene Ergebnisse.
Was lässt sich gegen sogenannten «gender bias», gegen geschlechtsbezogene Verzerrungseffekte, tun? Macduff Hughes von Google Translate sagt:
Die Realität sieht anders aus, viel beschäftigte Menschen suchen auf dem Smartphone nach raschen Lösungen. Zumindest bei Einzelwörtern wird die Mehrdeutigkeit sichtbar, für das englische «professor» werden sowohl «Professorin» als auch «Professor» vorgeschlagen und «cleaner» wird mit «Reinigerin» und «Reiniger» angegeben.
Bei einzelnen Sprachpaaren ist Google Translate bereits einen Schritt weiter. So bei Englisch-Spanisch, dem dort meistgefragten Wortpaar: Dort liefert das Programm auch für ganze Sätze jeweils eine weibliche und eine männliche Variante. Dahinter steckt jedoch viel manuelle Programmierarbeit. «Wir haben dort begonnen, wo die Wirkung am grössten ist», sagt Macduff Hughes. «Also bei jenen Sprachpaaren, die am meisten gefragt sind.»
Bei über hundert Sprachen steht da aber noch ein riesiger Berg Arbeit an. Könnten vielleicht Algorithmen, die das Problem mitverschulden, auch Teil der Lösung sein? Ein Ansatz besteht darin, den Zusammenhang eines zu übersetzenden Satzes stärker einzubeziehen. «The scientist» wird innerhalb eines Satzes meist zu «Der Wissenschafter». Wenn die Software aber erkennt, dass im vorderen Satz von Marie Curie die Rede war, macht sie stattdessen «Die Wissenschafterin».
Ein anderer Faktor – nicht nur bei Übersetzungen – ist die Auswahl des Trainingsmaterials für die künstliche Intelligenz. «Das System lernt von Beispielen», sagt Macduff Hughes.
So kann ein Algorithmus beispielsweise mit Quellen trainiert werden, die in geschlechtergerechter Sprache formuliert sind.
Nützlich sind Algorithmen auch, wenn es darum geht, einen «gender bias» überhaupt zu erkennen. Jede Nutzerin und jeder Nutzer kann eigene Texte überprüfen lassen. Für den Browser «Chrome» gibt es beispielsweise einen Prototyp eines Korrekturtools namens «Fairlanguage», welches Texte, die eingetippt werden, auf Fairness überprüft. Ähnliches existiert für Microsoft Word. So das «Gender App Add-in». Es markiert in diesem Artikel unter anderem «Putzfrau» und schlägt Alternativen wie «Reinigungskraft» vor.
Damit die technischen Möglichkeiten besser ausgeschöpft werden, braucht es aber in den Augen vieler Fachleute eine weitere Änderung: mehr Frauen in der IT-Branche. Die Unternehmensberatung Deloitte schätzt, dass die grossen Technologiefirmen 2022 einen Anteil von knapp 33 Prozent Frauen erreichen – dass also immer noch doppelt so viele Männer wie Frauen da arbeiten. In den Entwicklungsabteilungen ist die Verteilung noch schlechter ausgeglichen. Gemäss Statista arbeiteten 2021 im Bereich Tech bei Google 24.6 Prozent Frauen, Männer sind demnach dreifach übervertreten.
Wenn sich dies ändern soll, sollte die Auswahl von Bewerberinnen und Bewerbern besser nicht einer künstlichen Intelligenz überlassen werden. Amazon hat es einst versucht. Der Tech-Riese hat ein Tool entwickelt, das aus den Lebensläufen die am besten geeigneten Personen für eine Stelle finden sollte. Es stellte sich heraus, dass bei Kandidaturen für Softwareentwicklung Frauen systematisch benachteiligt wurden. Der Grund? Die Algorithmen waren mit überwiegend männlichen Daten trainiert worden. (aargauerzeitung.ch)
Dies ändert zwar nicht viel an der Sache wie man beim momentanen Weltgeschehen sieht, beschleunigt aber den Untergang der Spezies und schafft so Platz für neues Leben.