DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Sexismusfalle beim Google Übersetzungsdienst.
Sexismusfalle beim Google Übersetzungsdienst.
bild: shutterstock / screenshot 

Der Google-Translate-Roboter ist ein Sexist – weil er von unseren Gewohnheiten lernt

Sätze, die im Türkischen genderneutral sind, erhalten nach der Übersetzung mit Google Translate eine sexistische Bedeutung. 
30.11.2017, 12:3530.11.2017, 14:55

Türkisch ist eine genderneutrale Sprache. Die Bezeichnungen «er» und «sie» existieren nicht. Stattdessen gibt es nur das Personalpronomen «o». Auch für die Nomen gibt es kein Genus. Heisst es zu Deutsch: «Sie ist eine sympathische Person», würde das im Türkischen sinngemäss mit: «Diese Frau ist eine sympathische Person» umschrieben werden. 

So weit, so gut. Doch was passiert nun, wenn der Google-Translate-Roboter das Türkische übersetzt? Seht selbst:

screenshot: google translate

Die Sätze werden gegendert. Das Kochen wird weiblich assoziiert, also ist es eine Köchin. Das Tüfteln wird männlich assoziiert, also muss es ein Ingenieur sein. 

Auf dieses Phänomen aufmerksam geworden ist Emre Sarbak, der in den USA lebt, türkische Wurzeln hat und in der Tech-Branche arbeitet. Auf Facebook postete er einen Screenshot seiner Ergebnisse einer Übersetzung vom Türkischen ins Englische:

Interessant ist, dass in seinem Beispiel die englische Übersetzung nicht nur gegendert wird, sondern dass es auch zu sexistischen Zuschreibungen kommt, wie beispielsweise «He is hard working» und «She is lazy».

Als ein Journalist den Eintrag entdeckt und auf den sozialen Medien weiterverbreitet, geht der Post viral. Auf Twitter wird er tausendfach geteilt.

Doch wie ist diese in die weibliche und männliche Form adaptierte Übersetzung von Google Translate zu erklären? Der Journalist schreibt auf Twitter, dass Google Translate einen Algorithmus verwendet, der sich in seinen Übersetzungen auf die Häufigkeit der gesuchten Wörter stützt. Wurde in der Vergangenheit das Wort «Ingenieur» oft in seiner männlichen Form gesucht und übersetzt, lernt der Algorithmus: Ingenieur ist männlich.

Somit lernt Google Translate also, welche Vorurteile in der Gesellschaft vorherrschen und reproduziert diese. Frauen gelten als unglücklich und faul, Männer als stark und emotional gesetzt.

Und so übersetzt Google die aktuelle Bachelor-Folge:

Video: watson/Emily Engkent

Die neue Übersetzer-App von Google im Test

1 / 11
Die neue Übersetzer-App von Google im Test
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer
DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Analyse

Das sollten auch Trump-Hasser über die neue Social-Media-App «GETTR» wissen

Die von einem Ex-Berater von Donald Trump lancierte Social-Media-Plattform hat massive Sicherheitsprobleme. Und es gibt weitere beunruhigende Erkenntnisse.

Wenige Tage nachdem der frühere Trump-Sprecher Jason Miller einen Twitter-Klon lancierte, war das neue soziale Netzwerk bereits von massiven Problemen betroffen. Im Folgenden fassen wir die Fakten zu «GETTR» zusammen. Eine Bemerkung vorab: Die watson-Recherchen zeigen, dass Unternehmen und Prominente gut daran tun, zu prüfen, ob dort Fake-Accounts unter ihrem Namen geführt werden.

* Die Macher vermarkten ihre App in marktschreierischen Grossbuchstaben, wir halten uns im Folgenden an Gettr.

Solche …

Artikel lesen
Link zum Artikel