Aktuelle Themen:

Subramani Subbu und Suman Howladder: Wächter an den Online-Abgründen. bild: samuel schumacher

Diese Inder löschen Pornos und Gräuel-Bilder aus dem Netz – und leiden dabei Höllenqualen

In indischen Löschfabriken arbeiten täglich Tausende Menschen daran, dass uns manche Dinge im Internet nicht begegnen. Sie reinigen im Auftrag von Facebook und Co. das Internet rund um die Uhr von extremen Bildern und Videos. Der Job macht viele kaputt. Eine Reportage von der digitalen Front gegen das Böse.

Publiziert: 09.10.18, 11:46 Aktualisiert: 10.10.18, 06:37
Samuel Schumacher / Schweiz am Wochenende

Ein einziger Fehler wäre ein Desaster, eine einzige Unaufmerksamkeit könnte Revolten auslösen. So wie vor zwei Wochen, als eine Falschmeldung auf einer Online-Plattform im Norden Indiens zum Lynchmord an einem Vieh-Transport-Chauffeur geführt hat. Subramani Subbu (32) weiss das.

Er blickt starr durch die Brillengläser auf seinen Bildschirm. Von draussen dringt der Verkehrslärm der indischen Millionen-Metropole Bangalore in das heruntergekühlte Grossraumbüro.

Drinnen sitzen junge Menschen, vorwiegend Männer, versunken in den Abgründen des Internets. Über ihre Bildschirme flimmern Live-Videochats, Fotos, Filmausschnitte, Textnachrichten. Maustastenklicken mischt sich ins dumpfe Grossstadtrauschen.

Verstörende Gewalt, Selbstmordversuche, Kindsmissbrauch: Über die Bildschirme der Content-Moderatoren flimmert, was die Welt nicht sehen soll. screenshot: youtube / Field of Vision

Subbu klickt eifrig mit. Rund 20'000 Fotos und Videos im Schnelldurchlauf schaut er sich jeden Tag an; Dateien, die Menschen auf Sozialen Medien teilen oder auf ihren Dating-Profilen aufschalten wollen; Dateien, die manchmal schreckliche Dinge zeigen. Abgehackte Köpfe, missbrauchte Kinder, Selbstmordversuche vor laufender Handy-Kamera.

Etwa fünf Prozent der Bilder und Videos, die über Subbus Bildschirm flimmern, zeigen solchen «Blut-Inhalt», wie Subbu das nennt. «Diese Dinge setzen sich in deinem Kopf fest», sagt der junge Inder mit dem stoppeligen Bart. «Albträume hatte ich bisher aber nie.» Er habe sich an vieles gewöhnt. Und er habe gelernt, wie wichtig seine Arbeit sei. «Wenn es uns nicht gäbe, dann brächen morgen politische Unruhen aus, dann wäre das Internet im Nu eine reine Porno-Plattform.»

Subramani Subbu ist ein «Content Moderator», so etwas wie eine menschliche Firewall gegen alles Böse und Verbotene. Sein Job besteht darin, Inhalte aus dem Internet zu löschen, die niemand zu Gesicht bekommen sollte, weil sie Gewalt und illegale Pornografie zeigen oder gegen Copyright-Bestimmungen verstossen. Schätzungsweise 150'000 Menschen arbeiten weltweit als Content-Moderatoren, vorwiegend in Billiglohnländern wie Indien.

Sex überfordert die Roboter

Im einzigen Einzelbüro des Gebäudes am Rande von Bangalore sitzt Suman Howladder (37) und kämpft gegen die hereinbrechende Mailflut seiner Kunden. Howladder war einer der ersten, die erkannt haben, wie wichtig die Arbeit der Content-Moderatoren im digitalen Zeitalter sein wird. «Wir alle haben Smartphones und posten ständige Dinge online. Es ist wichtig, dass das jemand im Auge behält und einschreiten kann, wenn gefährliche oder gefälschte Dateien in Umlauf kommen», sagt Howladder.

1.825 Milliarden...

... Bilder, Videos und Textdateien haben die Content-Moderatoren von Foiwe in den vergangenen acht Jahren nach illegalen Inhalten durchsucht. Aktuell sichten die knapp 400 Mitarbeiter mehr als 800 Dateien – pro Minute.

Vor acht Jahren hat er die Firma Foiwe gegründet und drei Content- Moderatoren eingestellt. Heute arbeiten in seinen Grossraumbüros in Bangalore, Kalkutta und im russischen Kazan fast 400 Moderatoren im Schichtbetrieb rund um die Uhr. In fünf Jahren, schätzt Howladder, werden es doppelt so viele sein. Die Branche boomt.

Künstliche Intelligenz und automatisierte Programme würden ihnen einen Teil der Arbeit abnehmen, erzählt der Mann mit den hellwachen Augen. Ohne menschliche Moderatoren aber würde das System nicht funktionieren. «Programme checken vielleicht, wenn jemand auf seinem Dating-Profil ein Foto von Brad Pitt hochlädt und eine falsche Identität vorgibt», sagt er. Wenn es aber darum geht, Missbrauch und verbotene Sex-Praktiken zu erkennen, dann brauche es den menschlichen Blick, um richtig zu entscheiden.

«Manchmal kann unsere Arbeit sehr verstörend sein»

Richtig entscheiden, das lernen Howladders Angestellte in einem zweiwöchigen Crashkurs am Anfang ihrer Anstellung. «Manchmal kann unsere Arbeit sehr verstörend sein», sagt man ihnen dann. «Jeden Tag sehen wir Fotos von Kindsmissbrauch. Manchmal sind die Bilder so übel, dass ihr euch fragt, wie man das überhaupt anschauen kann. Aber das ist ein Teil des Jobs. Ihr seid hier, um diese Dinge zu löschen, damit sie niemand anders sehen kann.»

Junge Inder erhalten einen zweiwöchigen Crashkurs zum Content Moderator. screenshot: youtube / field of vision

Die Bilder im Kopf

Die Firmen, in deren Auftrag Howladders Truppe sich durch die Schattentäler des Internets schlägt, haben ihre Sitze auf der ganzen Welt. Die Dating-Seiten Growlr, Mamba und IQ Elite gehören dazu, europäische Online-Verkaufsplattformen und chinesische Live-Chat-Anbieter. Mehrere Social-Media-Giganten setzen auf die Dienste von Foiwe. Ihre Namen aber behält Howladder für sich. Seine Mitarbeiter haben Geheimhaltungs-Vereinbarungen unterzeichnet. Die Kunden wollen nicht, dass ihr Brand plötzlich im Zusammenhang mit den düsteren Realitäten des Internets erscheinen.

Doch ab und zu dringt das Thema trotzdem an die Öffentlichkeit. Ende September etwa hat Selena Scola, die während neun Monaten für Facebook als Content-Moderatorin gearbeitet hatte, das Unternehmen verklagt. Scola sagt, durch die tägliche Konfrontation mit Kindsmissbrauch, Vergewaltigungen und Suizid-Videos leide sie an einer posttraumatischen Belastungsstörung.

2016 verklagten zwei ehemalige Content-Moderatoren im Dienste des Software-Giganten Microsoft ihren Arbeitgeber aus demselben Grund. Diese Klagen westlicher Mitarbeiter sind neben den Kosteneinsparungen wohl einer der Hauptgründe, wieso Firmen wie Facebook, Microsoft oder YouTube (gehört zu Google) die digitale Drecksarbeit an Billigarbeiter in anonymen Grossraumbüros in Asien auslagern.

Sie retten täglich Tausende

Birgit Kleim überraschen die Klagen der Content-Moderatoren nicht. Die Professorin für Psychotherapie an der Universität Zürich weiss, wie viel Stress solche Bilder im menschlichen Hirn auslösen können. Untersuchungen zeigten, dass nicht nur die effektive Konfrontation mit sexueller oder sonst wie gearteter Gewalt, sondern alleine schon das Betrachten von Bildern mit Gewaltdarstellungen zu posttraumatischen Störungen führen könne, erklärt Kleim.

«Das ist ein ernstzunehmendes Problem für bestimmte Berufsgruppen wie Content-Moderatoren.» Hohe Erregbarkeit, kaum zu verdrängende Bilder im Kopf, plötzliche Flashbacks: Die Betroffenen werden zu Gefangenen der eigenen Erinnerungen an das, was sie gesehen haben.

screenshot: youtube / field of vision

Dass Inder, die in ihren Massenmedien traditionell viel Gewalt, Unfallopfer und Leichen zu sehen bekommen, weniger anfällig sind für solche Traumata als westliche Content-Moderatoren, das glaubt Birgit Kleim nicht. Individuelle Unterschiede könne es geben. «Wissenschaftlich gesehen gibt es aber keinen Befund, dass Personen mit bestimmtem kulturellem Hintergrund besser mit Gewaltdarstellungen umgehen können als andere.» Content-Moderatoren bräuchten in jedem Fall einen Ansprechpartner und die Möglichkeit, sich mit anderen auszutauschen, um das Gesehene zu verarbeiten, sagt Kleim.

Haben sie, sagt Suman Howladder. Foiwe habe eine Helpline, auf die die Mitarbeitenden anrufen können, falls sie Probleme kriegen. «In acht Jahren hatten wir keinen einzigen Anruf», betont der Foiwe-Chef. Wer sich der Aufgabe nicht mehr gewachsen fühle, könne jederzeit das Projekt wechseln und etwa für die E-Commerce-Kunden arbeiten. Da gibts keine Pornos und Hinrichtungen, sondern nur gefälschte iPhones und gefakte Markenprodukte.

Aber Belastungen hin oder her, irgendjemand müsse sich mit den düsteren Seiten des Internets auseinandersetzen. «Wenn es uns morgen nicht mehr gäbe, bräche im Internet das Chaos aus», sagt Howladder. «Nur schon der Gedanke daran macht mir Angst.» Auf den Chat-Plattformen retteten seine Leute täglich Tausende Menschen vor Betrügern, auf den Dating-Seiten garantierten sie dafür, dass harmlose Bildergalerien nicht zu Hardcore-Porno-Sammlungen würden, auf den Sozialen Medien stellten sie sicher, dass nicht jeder Unwahrheiten verbreiten könne.

Die Grenzen des Bösen

Was unwahr ist und was nicht, was drin liegt und was nicht, das entscheiden die Auftraggeber. «Wir arbeiten zu hundert Prozent nach den Guidelines unserer Kunden. Sie geben die Regeln vor», sagt Howladder. Moral wird zur Verhandlungsmasse, die Grenzen zwischen Gut und Böse werden willkürlich gezogen.

Howladders Truppe ist nicht die ermahnende Instanz, sie ist die gehorsame Kraft im Hintergrund, die den digitalen Content gerade so zurechtrückt, wie es den Kunden passt. Keine Bikinibilder? Kein Problem. Keine Kritik am Unternehmen? Kein Problem. Keine politischen Statements? Kein Problem. «Unsere Moderatoren sind neutral und lernbereit», sagt Howladder.

«Wir machen, was der Kunde sagt.»

Dass unerfahrene junge Inder, oft gerade knapp fertig mit dem Informatikstudium und kaum älter als 25, darüber entscheiden, was die Weltöffentlichkeit zu sehen bekommt und was vor ihr verborgen bleibt, darin sieht der Foiwe-Chef kein Problem. Inder seien sehr offen, Bangalore – der Hauptsitz von Foiwe – ein internationaler Schmelztiegel. «Unsere Moderatoren können sich schnell in die Kultur unserer Kunden eindenken und wissen, wo die Grenzen liegen.» Sie schauten etwa westliche Filme, um die westlichen Werte kennenzulernen.

Und für die Kunden aus dem Nahen Osten oder aus Russland habe er Moderatoren, die die Sprachen perfekt sprechen und die Kulturen gut kennen würden. «Alles kein Problem», sagt Suman Howladder und lächelt. Und wenn Firmen wie Facebook das Abbilden von stillenden Müttern nicht erlaubten, gleichzeitig aber kaum gegen hetzerische Gewaltaufrufe gegen ethnische Minderheiten vorgingen (wie derzeit etwa in Burma), dann sei das nicht seine Verantwortung. «Wir machen, was der Kunde sagt.»

«Hate Speech» bei Facebook – was toleriert wird, und was nicht

Dürfen Facebook-Nutzer «Asylanten raus» fordern und Flüchtlinge als «faule Räuber und Diebe» bezeichnen, «die unser Land überschwemmen»? Die Antwort lautet ... EPA/EPA / KOCA SULEJMANOVIC
... Ja. Zwar bilden Flüchtlinge für Facebook eine «quasi geschützte Gruppe». Doch geniessen sie weniger Schutz als andere, vollständig geschützte Gruppen wie etwa «Rasse» (Race), Ethnie oder nationale Herkunft. EPA/EPA / MOHAMMED BADRA
Facebook hält das Grundrecht der freien Meinungsäusserung auch für verächtliche Postings hoch. Demnach ist erlaubt zu schreiben, dass man Migranten für faul und für dreckige Diebe und Räuber hält, die nur nach Europa kommen, um die Sozialsysteme auszubeuten. AP/AP / Ferdinand Ostrop
Facebook hält in der internen Definition zu der «Quasi Protected Category (QPC)» der Migranten fest, dass es nicht auf deren Motivation ankomme.
Die Bestimmungen zu Hassreden («Hate Speech») gelten für Menschen, die vor Kriegen und Naturkatastrophen flüchten, aber auch für Wirtschaftsflüchtlinge. kaltura://1789921/178992100/71000/1_4yjt7uy2 / reuters-video
Interessant sei die Fussnote zum internen Facebook-Dokument, hält die «Süddeutsche Zeitung» fest. Darin heisse es: «Flüchtlinge sind eine verletzliche Gruppe, und wir wollen entwürdigende Kommentare entfernen, die sich gegen sie richten. Gleichzeitig wollen wir eine breite gesellschaftliche Debatte über Migration ermöglichen, ein wichtiges Thema in den kommenden Wahlkämpfen.» EPA DPA / MARTIN SCHUTT
Unangetastet bleiben sollen gemäss den internen Facebook-Richtlinien auch andere erniedrigende Postings, wenn sie sich gegen Migranten richten ... ap/ap / MOHAME BEN KHALIFA
... und nicht gegen Engländer, US-Amerikaner oder Schweizer. Denn die nationale Herkunft gehört zu einer von acht geschützten Facebook-Kategorien (im Gegensatz zu den Ländern selbst).
Geschützt werden sollen die Migranten aber bei eindeutigen Drohungen. Solche Äusserungen sollen die Facebook-Moderatoren löschen. EPA/EFE / MIGUEL PAQUET
Gelöscht werden sollen auch entmenschlichende Zuschreibungen, wie zum Beispiel: «Migranten sind dreckige Kakerlaken, die unser Land überschwemmen.»
Dürfen Facebook-Nutzer dazu aufrufen, dicke Menschen umzubringen? shutterstock / shutterstock
Das wird in der Tat toleriert. Da das Körpergewicht ein veränderliches Merkmal sei, zählt Facebook Hass-Postings gegen Fettleibige nicht als Hassrede, die gelöscht werden muss. Gleiches gilt für Alter, Beruf, Haarfarbe und viele andere Eigenschaften.
Vor Hassrede geschützt sind weder Reiche und Arme ...
... noch US-Demokraten, Kommunisten oder Grüne.
Die anderen sieben geschützten Kategorien sind: Geschlecht (Gender), sexuelle Orientierung, Rasse, Ethnie sowie schwerwiegende und dauerhafte Behinderungen oder Krankheiten.
Wenn eine der genannten Gruppen bedroht, beleidigt, herabgesetzt oder ausgegrenzt wird, soll der entsprechende Beitrag von den zuständigen Moderatoren entfernt werden. Allerdings muss der Beitrag von einem Facebook-User «gemeldet» worden sein.
Kompliziert wird es, sobald unterschiedliche Kategorien zusammenfallen. Was ist mit «Bringt alle Muslime um»? Laut Facebook-Regelung ... AP / OSMAN ORSAL
... ein klarer Fall: Religiöse Überzeugung zählt zu den geschützten Kategorien, solche Äusserungen werden nicht toleriert. KEYSTONE / PETER KLAUNZER
Gelöscht werden muss auch: «Bringt alle muslimischen Flüchtlinge um!» Hingegen ... AP/AP / Bernat Armangue
... erlaubt ist «Bringt alle muslimischen Lehrer um», ebenso Gewaltaufrufe gegen muslimische Arbeitslose, Teenager, Dunkelhaarige, Reiche oder Fettleibige. AP/AP / Bernat Armangue
Was ist mit «Alle Terroristen sind Muslime»? Gemäss Facebook-Regelung ... AP/AP / Bernat Armangue
... ist dies eine zulässige Aussage, da Terroristen keine geschützte Gruppe sind. AP/AP / Giannis Papanikos
Gelöscht werden müsste dagegen: «Alle Muslime sind Terroristen». EPA/EFE / Quique Garcia
Elend kompliziert, ja! Dieses Flussdiagramm soll Facebook-Moderatoren instruieren, wie sie vorgehen müssen, wenn geschützte Gruppen bedroht oder beleidigt werden.
Die Mehrheit der Facebook-User bleibt im Unklaren. Vage formuliert finden sich die Regeln auch in den öffentlichen «Gemeinschaftsstandards» von Facebook.

Dass dieser Kunde oft in den Metropolen des globalen Westens sitzt und seine digitale Schlacke in den südasiatischen Molochen nach allzu üblen Partikeln durchwühlen lässt, überrascht kaum. Nach den Textilfabriken und den Mega-Callcentern, die bereits in den asiatischen Raum ausgelagert worden sind, ist die Content-Moderation nur eine weitere Branche, deren Fachkräfte weit weg von den westlichen Endkonsumenten ihre Arbeit verrichten. Digitaler Kolonialismus? Nein, sagt Howladder. «Die Gesellschaft ist sowieso global.»

Draussen im Grossraumbüro neigt sich Subramani Subbus Acht-Stunden-Schicht ihrem Ende zu. Die globale Gesellschaft ist tausendfach über seinen Bildschirm geflimmert, in all ihren Schattierungen. Manchmal würde er gerne wissen, wie die Leute leben, über deren digitales Schicksal er tagtäglich waltet.

Doch im Ausland war er noch nie. Nur schon der Weg nach Hause ist für ihn jeden Tag eine herausfordernde Reise. Zweieinhalb Stunden braucht der Bus für die knapp 20 Kilometer durch den Stau in der 13-Millionen-Stadt. Subbu nutzt die Zeit, um Filme zu schauen, ohne Schnelldurchlauf, ohne ständiges «Weiter»-Klicken, ohne ständig Dinge löschen zu müssen, fast wie ein ganz normaler Mensch. (aargauerzeitung.ch)

«Die Moderatoren» – ein Blick in die Löschfabrik in Bangalore

Video: YouTube/Field of Vision

Dieser Journalist ging durch die Social-Media-Hölle

Video: srf

Das könnte dich auch interessieren:

Wie ich nach 3 Stunden Möbelhaus von Wolke 7 plumpste

Die Fallzahlen steigen wieder leicht an – so sieht's in deinem Kanton aus

Der Mann, der es wagt, Trump zu widersprechen

Magic Johnson vs. Larry Bird – ein College-Final als Beginn einer grossen Sportrivalität

4 Gründe, weshalb die Corona-Zahlen des BAG wenig mit der Realität zu tun haben