UserInput

Die umstrittene Wordcloud, bevor duden.de die problematischen Begriffe entfernt hat. screenshot: duden.de

Rassistische Wortwolke

Asylbewerber «abschieben», «niederstechen» und «verbrennen»: Der Online-Duden muss die Vorschlagsfunktion abschalten

Eine Duden-Software zeigt an, welche Ausdrücke oft zusammen mit einem Stichwort genannt werden – dabei kommt es zu unschönen Resultaten. Nun überdenkt die Redaktion ihre Praxis.

06.02.15, 07:48 07.02.15, 06:52

Die Website des Duden bietet eine interessante Funktion: Sie zeigt an, welche Begriffe im Zusammenhang mit einem Wort besonders oft auftauchen. Dass es ein Computer ist, der dafür zwei Milliarden Wörter abgrast, hat seine Vorteile – ein Mensch würde das niemals hinbekommen.

Dafür merkt ein Computer nicht, wenn Verbindungen auftauchen, die, sagen wir mal, nicht ganz okay sind. Wie eine watson-Leserin feststellte, spuckt die Wolke beim Stichwort «Asylbewerber» Ausdrücke wie «anerkennen», «aufnehmen» und «unterbringen» aus. «Abschieben» ist nicht gerade schön, aber wird verständlicherweise in dem Zusammenhang genannt.

Doch zwei Begriffe sind schlicht menschenverachtend: «niederstechen» und «verbrennen».

Duden hat die umstrittenen Verbindungen nach einem Hinweis von watson umgehend gelöscht. Sprecherin Dr. Nicole Weiffen sagt:

«Wir haben die fragwürdigen Begriffe jetzt erst mal entfernt, bis wir in der Dudenredaktion eine Klärung herbeigeführt haben, wie wir grundsätzlich damit umgehen wollen.»

So sieht die Wortwolke jetzt aus. Screenshot duden.de

Die Dudenredaktion muss eine Grundsatzfrage klären: Steht es in ihrer Verantwortung, computergenerierte Resultate anzupassen? Oder soll man die Software die Realität abbilden lassen, wie sie halt ist? Im Erklärungstext zu der Funktion steht:

«[Die Daten] sind kein Ergebnis redaktioneller Arbeit und stellen keine Handlungsempfehlung oder Wertung dar.»

Aber kann man solche Zusammenhänge einfach so stehen lassen?

Für die typischen Verbindungen durchsucht der Computer eine digitale Volltextsammlung mit über zwei Milliarden Wortformen aus Texten der letzten zehn Jahre. Dabei sind unterschiedlichste Textsorten vertreten: Romane, Sachbücher, Zeitungsartikel, Zeitschriftenbeiträge.

Die Berechnung basiert auf statistischen Verfahren: Je öfter das rote Kontextwort in der Nähe des Stichworts auftaucht, desto grösser ist es in der Wortwolke. «Anerkennen» und «unterbringen» fallen demnach öfter als «niederstechen» und «verbrennen». Doch offensichtlich wurden sie oft genug genannt, um es in die Wolke zu schaffen.

«Die Wortwolke prägt sich ein»

Der Wirtschafts-Ethiker Oliver Bendel von der Fachhochschule Nordwestschweiz in Brugg-Windisch findet die Wortwolke problematisch, obwohl sie computergeneriert ist:

«Die Maschine schleppt Begriffe an, die eine schlechte Gesellschaft für den Asylbewerber darstellen. Dieser gerät ins Zwielicht. Die Wortwolke prägt sich ein.»

Die Funktion berge weitere Tücken, so Bendel: Beim Stichwort Asylbewerber zeigt sie «Sozialhilfeempfänger» an. Das Wort ist nicht an sich negativ belegt, es ist keine Beleidigung. «Interessant ist aber, was in unserem Kopf passiert, wenn wir ‹Asylbewerber› und ‹Sozialhilfeempfänger› zusammen sehen», so Bendel.

Google kennt das Problem

Der Duden steht mit der Problematik nicht alleine da. Im Oktober 2013 machte die UNO-Frauenorganisation darauf aufmerksam, dass die Auotocomplete-Funktion von Google sexistische Vorschläge ausspuckt. 

Gibt man im Suchfeld «Frauen sollten...» ein, kommen Vorschläge wie «zu Hause bleiben», «Sklaven sein», «in der Küche stehen». In seinem Buch Dataclysm argumentiert der Autor Christian Rudder, die Auto-Vervollständigen-Funktion würde Vorurteile nicht nur darstellen, sondern bestärken.

«Google handelt nicht als Big Brother, sondern als älterer Bruder, der dir mentale Zigaretten gibt.»

Christian Rudder

Daran hat sich bis heute nicht viel geändert. Auch bei einer deutschsprachigen Google-Suche taucht ein negatives Frauenbild auf:

Bei Suchanfragen mit Flüchtlingen und Asylbewerbern ergibt interessanterweise mehrheitlich positive Resultate. Ein paar Beispiele:

Warum das so ist, ist nicht herauszufinden. Der Algorithmus ist so durchsichtig wie Stahlbeton. Google verweist auf Anfrage auf ihre Hilfe-Seite, da steht:

«Die Vervollständigung von Suchanfragen wird ohne jegliche menschliche Beteiligung automatisch von einem Algorithmus generiert.»

Einige wenige Suchbegriffe würden jedoch von dem Algorithmus ausgeschlossen. Vielleicht gibt es wirklich sehr wenig heikle Suchanfragen im Zusammenhang mit Migranten. Vielleicht hat der Internet-Gigant aber auch seine Hand im Spiel. 

Hol dir die catson-App!

Die flauschigste App der Welt! 10 von 10 Katzen empfehlen sie ihren Menschen weiter.
Abonniere unseren NewsletterNewsletter-Abo
9 Kommentare anzeigen
9
Um mit zudiskutieren oder Bilder und Youtube-Videos zu posten, musst du eingeloggt sein.
Youtube-Videos und Links einfach ins Textfeld kopieren.
600
  • Gelöschter Benutzer 06.02.2015 09:00
    Highlight Wollen wir ein angenehmes verzerrtes Abbild oder ein unangenehmes wahres Abbild?
    39 2 Melden
    • Roman Rey 06.02.2015 10:06
      Highlight Sehr, sehr gute Frage.
      16 1 Melden
    • HappyMe 06.02.2015 10:51
      Highlight Ja, gute Frage. Aber wollen wir, dass ein Standardnachschlagewerk wie Duden solche, wenn auch statistisch ermittelte, Begriffe als "Typische Verbindung" / Vorschlag aufführt? Wie sind diese ausserdem zu verstehen? Wer verbrennt hier wen oder was? In welchem Kontext standen die Wörter vormals? Wäre es nicht besser, bei politisch umstrittenen Begriffen wie "Asylbewerber" auf die Wordcloud zu verzichten? In Hinblick auf die Political Correctness wäre der Verzicht meines Erachtens die beste Lösung.
      1 8 Melden
    • Gelöschter Benutzer 06.02.2015 10:54
      Highlight Wenn «Asylbewerber niederstechen» ein Abbild ist, dann hoffentlich nicht von der Realität. Trolle und Idioten wissen sehr gut, wie man mit Algorithmen und der Wahrnehmung anderer Realitäten schafft.
      11 11 Melden
    • Roman Rey 06.02.2015 11:04
      Highlight Naja, in dem Fall entstanden die Zusammenhänge aus einer Textsammlung aus Romanen und Medienartikeln und nicht von Troll-Kommentaren im Internet.
      17 1 Melden
    • Citation Needed 06.02.2015 11:11
      Highlight Wenn das abbild zum vorbild wird kann ich mit moderaten kosmetischen eingriffen leben... Bloss ist die Grenze fliessend... :-(
      2 2 Melden
    • smoe 07.02.2015 12:47
      Highlight @petar
      Ich empfehle dir, dich mal mit den entsprechenden Algorithmen und statistischen Methoden tiefer auseinanderzusetzen, bevor du voreilige Schlüsse ziehst. Bei einer entsprechend grossen Datenmenge ist es nicht so einfach Resultate zu verfälschen, wie viele meinen. Zumindest wenn es um einen einzelnen, häufigen verwendeten Begriff geht. Bei einem seltenen Wort wie z.B. «ver­ka­se­ma­tu­ckeln» wäre es etwas anderes. Auch wenn es auf den ersten Blick verstörend wirkt, bilden diese computergenerierten Verbindungen sehr wohl bis zu einem gewissen Grad die Realität ab. Die Realität der Verwendung des Wortes. Ohne die Methoden der Duden zu kennen, bin ich mir sehr sicher, dass die kritisierten Verbindungen zustande kommen, weil Medien eher über einen «Asylbewerber» berichten, wenn er gegen ein Gesetz verstösst, als wenn er es nicht tut. Es ist also der subjektive Nachrichtenwert von Ereignissen, die Medien, die hier die Wahrnehmung verzerren – nicht fiese Internet-Trolle.

      Ähnlich sieht es bei den Google Resultaten aus: Natürlich sind Vorschläge zu Komplettierung von Sätzen, die mit «Frauen können nicht» beginnen sexistisch. Was sollen sie denn bitteschön sonst sein? Die Resultate für «Männer können nicht» sind übrigens nicht anders, nur schreibt darüber niemand. Als Vergleich: Wie viele Aussagen habt ihr gehört oder gelesen, die mit «Ich bin kein Rassist, aber …» anfingen und dann nicht rassistisch waren?

      Objektive Auswertungen durch Computer können Enthüllender sein, als so manchem lieb ist. Deshalb verstehe ich nicht wie die Leute bei Duden, die sich ja mit Sprache und deren Verwendung auskennen sollten, so naiv sein konnten, diese Funktion aufzuschalten, ohne vorauszusehen, dass der Schuss nach hinten losgehen wird. Asylbewerber sind nur die Spitze des Eisbergs. Bei «Mann» gibt es die Verbindung zu «erschiessen» bei «Frau» zu «vergewaltigen» …

      Soll man also solche Funktionen abschalten, weil viele Menschen nicht mit wertfreien Resultaten wie diesen umgehen können, oder sollte man versuchen aufzuklären wie diese zustande kommen? Ich weiss es nicht. Aber Computergenerierte Inhalte werden zukünftig nur häufiger anzutreffen sein, nicht weniger.
      7 1 Melden
    • Gelöschter Benutzer 07.02.2015 13:09
      Highlight @smoe: Touché. Gebe dir Recht.
      8 1 Melden
    600
  • Gelöschter Benutzer 06.02.2015 08:05
    Highlight Laut google.ch können Männer nicht zuhören, nicht lieben, nicht einparken. Und Männer müssen um Frauen kämpfen, jagen, vermissen...
    34 4 Melden
    600

23 lustige und skurrile Fragen, die tatsächlich im Internet gestellt wurden

Es gibt keine dummen Fragen, nur dumme Antworten. Heisst es. Das ist Quatsch. Fakt ist: Das Internet beweist das Gegenteil. 

Das Prinzip von Webseiten wie GuteFrage ist simpel: Jemand stellt eine Frage und die Community versucht, dem oder der Hilfesuchenden mit gutem Rat beizustehen. Mitunter sind die Fragen aber so bizarr, ulkig oder schlicht dumm, dass sie im Netz rasch die Runde machen. Wir haben ein wenig auf GuteFrage gestöbert und sind dabei auf mehr als nur merkwürdige Fragestellungen gestossen. Oft ist nicht klar, ob die Frage ernst gemeint ist oder ob sich jemand einen Spass erlaubt.

Unser Tipp: …

Artikel lesen