Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Die umstrittene Wordcloud, bevor duden.de die problematischen Begriffe entfernt hat. screenshot: duden.de

Rassistische Wortwolke

Asylbewerber «abschieben», «niederstechen» und «verbrennen»: Der Online-Duden muss die Vorschlagsfunktion abschalten

Eine Duden-Software zeigt an, welche Ausdrücke oft zusammen mit einem Stichwort genannt werden – dabei kommt es zu unschönen Resultaten. Nun überdenkt die Redaktion ihre Praxis.



Die Website des Duden bietet eine interessante Funktion: Sie zeigt an, welche Begriffe im Zusammenhang mit einem Wort besonders oft auftauchen. Dass es ein Computer ist, der dafür zwei Milliarden Wörter abgrast, hat seine Vorteile – ein Mensch würde das niemals hinbekommen.

Dafür merkt ein Computer nicht, wenn Verbindungen auftauchen, die, sagen wir mal, nicht ganz okay sind. Wie eine watson-Leserin feststellte, spuckt die Wolke beim Stichwort «Asylbewerber» Ausdrücke wie «anerkennen», «aufnehmen» und «unterbringen» aus. «Abschieben» ist nicht gerade schön, aber wird verständlicherweise in dem Zusammenhang genannt.

Doch zwei Begriffe sind schlicht menschenverachtend: «niederstechen» und «verbrennen».

Duden hat die umstrittenen Verbindungen nach einem Hinweis von watson umgehend gelöscht. Sprecherin Dr. Nicole Weiffen sagt:

«Wir haben die fragwürdigen Begriffe jetzt erst mal entfernt, bis wir in der Dudenredaktion eine Klärung herbeigeführt haben, wie wir grundsätzlich damit umgehen wollen.»

Bild

So sieht die Wortwolke jetzt aus. Screenshot duden.de

Die Dudenredaktion muss eine Grundsatzfrage klären: Steht es in ihrer Verantwortung, computergenerierte Resultate anzupassen? Oder soll man die Software die Realität abbilden lassen, wie sie halt ist? Im Erklärungstext zu der Funktion steht:

«[Die Daten] sind kein Ergebnis redaktioneller Arbeit und stellen keine Handlungsempfehlung oder Wertung dar.»

Aber kann man solche Zusammenhänge einfach so stehen lassen?

Für die typischen Verbindungen durchsucht der Computer eine digitale Volltextsammlung mit über zwei Milliarden Wortformen aus Texten der letzten zehn Jahre. Dabei sind unterschiedlichste Textsorten vertreten: Romane, Sachbücher, Zeitungsartikel, Zeitschriftenbeiträge.

Die Berechnung basiert auf statistischen Verfahren: Je öfter das rote Kontextwort in der Nähe des Stichworts auftaucht, desto grösser ist es in der Wortwolke. «Anerkennen» und «unterbringen» fallen demnach öfter als «niederstechen» und «verbrennen». Doch offensichtlich wurden sie oft genug genannt, um es in die Wolke zu schaffen.

«Die Wortwolke prägt sich ein»

Der Wirtschafts-Ethiker Oliver Bendel von der Fachhochschule Nordwestschweiz in Brugg-Windisch findet die Wortwolke problematisch, obwohl sie computergeneriert ist:

«Die Maschine schleppt Begriffe an, die eine schlechte Gesellschaft für den Asylbewerber darstellen. Dieser gerät ins Zwielicht. Die Wortwolke prägt sich ein.»

Die Funktion berge weitere Tücken, so Bendel: Beim Stichwort Asylbewerber zeigt sie «Sozialhilfeempfänger» an. Das Wort ist nicht an sich negativ belegt, es ist keine Beleidigung. «Interessant ist aber, was in unserem Kopf passiert, wenn wir ‹Asylbewerber› und ‹Sozialhilfeempfänger› zusammen sehen», so Bendel.

Google kennt das Problem

Der Duden steht mit der Problematik nicht alleine da. Im Oktober 2013 machte die UNO-Frauenorganisation darauf aufmerksam, dass die Auotocomplete-Funktion von Google sexistische Vorschläge ausspuckt. 

Gibt man im Suchfeld «Frauen sollten...» ein, kommen Vorschläge wie «zu Hause bleiben», «Sklaven sein», «in der Küche stehen». In seinem Buch Dataclysm argumentiert der Autor Christian Rudder, die Auto-Vervollständigen-Funktion würde Vorurteile nicht nur darstellen, sondern bestärken.

«Google handelt nicht als Big Brother, sondern als älterer Bruder, der dir mentale Zigaretten gibt.»

Christian Rudder

Daran hat sich bis heute nicht viel geändert. Auch bei einer deutschsprachigen Google-Suche taucht ein negatives Frauenbild auf:

Bei Suchanfragen mit Flüchtlingen und Asylbewerbern ergibt interessanterweise mehrheitlich positive Resultate. Ein paar Beispiele:

Warum das so ist, ist nicht herauszufinden. Der Algorithmus ist so durchsichtig wie Stahlbeton. Google verweist auf Anfrage auf ihre Hilfe-Seite, da steht:

«Die Vervollständigung von Suchanfragen wird ohne jegliche menschliche Beteiligung automatisch von einem Algorithmus generiert.»

Einige wenige Suchbegriffe würden jedoch von dem Algorithmus ausgeschlossen. Vielleicht gibt es wirklich sehr wenig heikle Suchanfragen im Zusammenhang mit Migranten. Vielleicht hat der Internet-Gigant aber auch seine Hand im Spiel. 

Das könnte dich auch interessieren:

Alle gegen Trump: Demokraten treten an zum ersten TV-Duell

Link zum Artikel

Wer in Europa am meisten Dreckstrom produziert – und wie die Schweiz dasteht

Link zum Artikel

25 Bilder von Sportstars, die Ferien machen

Link zum Artikel

Mit diesen 10 Apps pimpst du dein Smartphone zum Büro für unterwegs

Link zum Artikel

Holland ist aus dem Häuschen, weil diesem Schwimmer gerade Historisches gelang

Link zum Artikel

Schneider-Ammanns Topbeamter gab vertrauliche Infos an Privatindustrie weiter

Link zum Artikel

Weshalb die Ära Erdogan jetzt schneller vorübergehen könnte, als du denkst

Link zum Artikel

Das sind die besten Rekruten der besten Armee der Welt

Link zum Artikel

9 «Ratschlag»-Klassiker, die du dir in Zukunft einfach mal sparen kannst

Link zum Artikel

Christian Wasserfallen nicht mehr FDP-Vize – wegen der Klimafrage?

Link zum Artikel
Alle Artikel anzeigen

Abonniere unseren Newsletter

0
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
0Alle Kommentare anzeigen

«Die Pride ist für alle da» – FDP-Politikerin verteidigt Auftritt von Luca Hänni an Pride

Die Luzerner FDP-Politikerin Anne-Sophie Morand ist im Vorstand der Pride für die Politik zuständig. Sie verteidigt den Auftritt von Luca Hänni gegen Kritik.

Es wirkt, als wären Homosexuelle in der Mitte der Gesellschaft angekommen. Wie sieht es rechtlich aus?Anne-Sophie Morand: Gesellschaftlich akzeptiert sind wir mehr und mehr, aber wir sind noch nicht am Ziel. Zum Beispiel haben Transgender- Personen eine überproportional hohe Arbeitslosenquote und homosexuelle Menschen werden auch heute noch auf der Strasse angegriffen. Rechtlich geht es voran, es gibt aber noch viel zu tun. Zur parlamentarischen Initiative für die Ehe für alle läuft im …

Artikel lesen
Link zum Artikel