Digital
Indien

Sie retten täglich Tausende – aber der Job in den Internet-Löschfabriken macht sie kaputt

Subramani Subbu und Suman Howladder: Wächter an den Online-Abgründen.
Subramani Subbu und Suman Howladder: Wächter an den Online-Abgründen.bild: samuel schumacher

Diese Inder löschen Pornos und Gräuel-Bilder aus dem Netz – und leiden dabei Höllenqualen

In indischen Löschfabriken arbeiten täglich Tausende Menschen daran, dass uns manche Dinge im Internet nicht begegnen. Sie reinigen im Auftrag von Facebook und Co. das Internet rund um die Uhr von extremen Bildern und Videos. Der Job macht viele kaputt. Eine Reportage von der digitalen Front gegen das Böse.
09.10.2018, 11:4610.10.2018, 06:37
Samuel Schumacher / Schweiz am Wochenende
Mehr «Digital»

Ein einziger Fehler wäre ein Desaster, eine einzige Unaufmerksamkeit könnte Revolten auslösen. So wie vor zwei Wochen, als eine Falschmeldung auf einer Online-Plattform im Norden Indiens zum Lynchmord an einem Vieh-Transport-Chauffeur geführt hat. Subramani Subbu (32) weiss das.

Er blickt starr durch die Brillengläser auf seinen Bildschirm. Von draussen dringt der Verkehrslärm der indischen Millionen-Metropole Bangalore in das heruntergekühlte Grossraumbüro.

Drinnen sitzen junge Menschen, vorwiegend Männer, versunken in den Abgründen des Internets. Über ihre Bildschirme flimmern Live-Videochats, Fotos, Filmausschnitte, Textnachrichten. Maustastenklicken mischt sich ins dumpfe Grossstadtrauschen.

Verstörende Gewalt, Selbstmordversuche, Kindsmissbrauch: Über die Bildschirme der Content-Moderatoren flimmert, was die Welt nicht sehen soll.screenshot: youtube / Field of Vision

Subbu klickt eifrig mit. Rund 20'000 Fotos und Videos im Schnelldurchlauf schaut er sich jeden Tag an; Dateien, die Menschen auf Sozialen Medien teilen oder auf ihren Dating-Profilen aufschalten wollen; Dateien, die manchmal schreckliche Dinge zeigen. Abgehackte Köpfe, missbrauchte Kinder, Selbstmordversuche vor laufender Handy-Kamera.

Etwa fünf Prozent der Bilder und Videos, die über Subbus Bildschirm flimmern, zeigen solchen «Blut-Inhalt», wie Subbu das nennt. «Diese Dinge setzen sich in deinem Kopf fest», sagt der junge Inder mit dem stoppeligen Bart. «Albträume hatte ich bisher aber nie.» Er habe sich an vieles gewöhnt. Und er habe gelernt, wie wichtig seine Arbeit sei. «Wenn es uns nicht gäbe, dann brächen morgen politische Unruhen aus, dann wäre das Internet im Nu eine reine Porno-Plattform.»

Subramani Subbu ist ein «Content Moderator», so etwas wie eine menschliche Firewall gegen alles Böse und Verbotene. Sein Job besteht darin, Inhalte aus dem Internet zu löschen, die niemand zu Gesicht bekommen sollte, weil sie Gewalt und illegale Pornografie zeigen oder gegen Copyright-Bestimmungen verstossen. Schätzungsweise 150'000 Menschen arbeiten weltweit als Content-Moderatoren, vorwiegend in Billiglohnländern wie Indien.

Sex überfordert die Roboter

Im einzigen Einzelbüro des Gebäudes am Rande von Bangalore sitzt Suman Howladder (37) und kämpft gegen die hereinbrechende Mailflut seiner Kunden. Howladder war einer der ersten, die erkannt haben, wie wichtig die Arbeit der Content-Moderatoren im digitalen Zeitalter sein wird. «Wir alle haben Smartphones und posten ständige Dinge online. Es ist wichtig, dass das jemand im Auge behält und einschreiten kann, wenn gefährliche oder gefälschte Dateien in Umlauf kommen», sagt Howladder.

1.825 Milliarden...
... Bilder, Videos und Textdateien haben die Content-Moderatoren von Foiwe in den vergangenen acht Jahren nach illegalen Inhalten durchsucht. Aktuell sichten die knapp 400 Mitarbeiter mehr als 800 Dateien – pro Minute.

Vor acht Jahren hat er die Firma Foiwe gegründet und drei Content- Moderatoren eingestellt. Heute arbeiten in seinen Grossraumbüros in Bangalore, Kalkutta und im russischen Kazan fast 400 Moderatoren im Schichtbetrieb rund um die Uhr. In fünf Jahren, schätzt Howladder, werden es doppelt so viele sein. Die Branche boomt.

Künstliche Intelligenz und automatisierte Programme würden ihnen einen Teil der Arbeit abnehmen, erzählt der Mann mit den hellwachen Augen. Ohne menschliche Moderatoren aber würde das System nicht funktionieren. «Programme checken vielleicht, wenn jemand auf seinem Dating-Profil ein Foto von Brad Pitt hochlädt und eine falsche Identität vorgibt», sagt er. Wenn es aber darum geht, Missbrauch und verbotene Sex-Praktiken zu erkennen, dann brauche es den menschlichen Blick, um richtig zu entscheiden.

«Manchmal kann unsere Arbeit sehr verstörend sein»

Richtig entscheiden, das lernen Howladders Angestellte in einem zweiwöchigen Crashkurs am Anfang ihrer Anstellung. «Manchmal kann unsere Arbeit sehr verstörend sein», sagt man ihnen dann. «Jeden Tag sehen wir Fotos von Kindsmissbrauch. Manchmal sind die Bilder so übel, dass ihr euch fragt, wie man das überhaupt anschauen kann. Aber das ist ein Teil des Jobs. Ihr seid hier, um diese Dinge zu löschen, damit sie niemand anders sehen kann.»

Junge Inder erhalten einen zweiwöchigen Crashkurs zum Content Moderator.
Junge Inder erhalten einen zweiwöchigen Crashkurs zum Content Moderator.screenshot: youtube / field of vision

Die Bilder im Kopf

Die Firmen, in deren Auftrag Howladders Truppe sich durch die Schattentäler des Internets schlägt, haben ihre Sitze auf der ganzen Welt. Die Dating-Seiten Growlr, Mamba und IQ Elite gehören dazu, europäische Online-Verkaufsplattformen und chinesische Live-Chat-Anbieter. Mehrere Social-Media-Giganten setzen auf die Dienste von Foiwe. Ihre Namen aber behält Howladder für sich. Seine Mitarbeiter haben Geheimhaltungs-Vereinbarungen unterzeichnet. Die Kunden wollen nicht, dass ihr Brand plötzlich im Zusammenhang mit den düsteren Realitäten des Internets erscheinen.

Doch ab und zu dringt das Thema trotzdem an die Öffentlichkeit. Ende September etwa hat Selena Scola, die während neun Monaten für Facebook als Content-Moderatorin gearbeitet hatte, das Unternehmen verklagt. Scola sagt, durch die tägliche Konfrontation mit Kindsmissbrauch, Vergewaltigungen und Suizid-Videos leide sie an einer posttraumatischen Belastungsstörung.

2016 verklagten zwei ehemalige Content-Moderatoren im Dienste des Software-Giganten Microsoft ihren Arbeitgeber aus demselben Grund. Diese Klagen westlicher Mitarbeiter sind neben den Kosteneinsparungen wohl einer der Hauptgründe, wieso Firmen wie Facebook, Microsoft oder YouTube (gehört zu Google) die digitale Drecksarbeit an Billigarbeiter in anonymen Grossraumbüros in Asien auslagern.

Sie retten täglich Tausende

Birgit Kleim überraschen die Klagen der Content-Moderatoren nicht. Die Professorin für Psychotherapie an der Universität Zürich weiss, wie viel Stress solche Bilder im menschlichen Hirn auslösen können. Untersuchungen zeigten, dass nicht nur die effektive Konfrontation mit sexueller oder sonst wie gearteter Gewalt, sondern alleine schon das Betrachten von Bildern mit Gewaltdarstellungen zu posttraumatischen Störungen führen könne, erklärt Kleim.

«Das ist ein ernstzunehmendes Problem für bestimmte Berufsgruppen wie Content-Moderatoren.» Hohe Erregbarkeit, kaum zu verdrängende Bilder im Kopf, plötzliche Flashbacks: Die Betroffenen werden zu Gefangenen der eigenen Erinnerungen an das, was sie gesehen haben.

Bild
screenshot: youtube / field of vision

Dass Inder, die in ihren Massenmedien traditionell viel Gewalt, Unfallopfer und Leichen zu sehen bekommen, weniger anfällig sind für solche Traumata als westliche Content-Moderatoren, das glaubt Birgit Kleim nicht. Individuelle Unterschiede könne es geben. «Wissenschaftlich gesehen gibt es aber keinen Befund, dass Personen mit bestimmtem kulturellem Hintergrund besser mit Gewaltdarstellungen umgehen können als andere.» Content-Moderatoren bräuchten in jedem Fall einen Ansprechpartner und die Möglichkeit, sich mit anderen auszutauschen, um das Gesehene zu verarbeiten, sagt Kleim.

Haben sie, sagt Suman Howladder. Foiwe habe eine Helpline, auf die die Mitarbeitenden anrufen können, falls sie Probleme kriegen. «In acht Jahren hatten wir keinen einzigen Anruf», betont der Foiwe-Chef. Wer sich der Aufgabe nicht mehr gewachsen fühle, könne jederzeit das Projekt wechseln und etwa für die E-Commerce-Kunden arbeiten. Da gibts keine Pornos und Hinrichtungen, sondern nur gefälschte iPhones und gefakte Markenprodukte.

Aber Belastungen hin oder her, irgendjemand müsse sich mit den düsteren Seiten des Internets auseinandersetzen. «Wenn es uns morgen nicht mehr gäbe, bräche im Internet das Chaos aus», sagt Howladder. «Nur schon der Gedanke daran macht mir Angst.» Auf den Chat-Plattformen retteten seine Leute täglich Tausende Menschen vor Betrügern, auf den Dating-Seiten garantierten sie dafür, dass harmlose Bildergalerien nicht zu Hardcore-Porno-Sammlungen würden, auf den Sozialen Medien stellten sie sicher, dass nicht jeder Unwahrheiten verbreiten könne.

Die Grenzen des Bösen

Was unwahr ist und was nicht, was drin liegt und was nicht, das entscheiden die Auftraggeber. «Wir arbeiten zu hundert Prozent nach den Guidelines unserer Kunden. Sie geben die Regeln vor», sagt Howladder. Moral wird zur Verhandlungsmasse, die Grenzen zwischen Gut und Böse werden willkürlich gezogen.

Howladders Truppe ist nicht die ermahnende Instanz, sie ist die gehorsame Kraft im Hintergrund, die den digitalen Content gerade so zurechtrückt, wie es den Kunden passt. Keine Bikinibilder? Kein Problem. Keine Kritik am Unternehmen? Kein Problem. Keine politischen Statements? Kein Problem. «Unsere Moderatoren sind neutral und lernbereit», sagt Howladder.

«Wir machen, was der Kunde sagt.»

Dass unerfahrene junge Inder, oft gerade knapp fertig mit dem Informatikstudium und kaum älter als 25, darüber entscheiden, was die Weltöffentlichkeit zu sehen bekommt und was vor ihr verborgen bleibt, darin sieht der Foiwe-Chef kein Problem. Inder seien sehr offen, Bangalore – der Hauptsitz von Foiwe – ein internationaler Schmelztiegel. «Unsere Moderatoren können sich schnell in die Kultur unserer Kunden eindenken und wissen, wo die Grenzen liegen.» Sie schauten etwa westliche Filme, um die westlichen Werte kennenzulernen.

Und für die Kunden aus dem Nahen Osten oder aus Russland habe er Moderatoren, die die Sprachen perfekt sprechen und die Kulturen gut kennen würden. «Alles kein Problem», sagt Suman Howladder und lächelt. Und wenn Firmen wie Facebook das Abbilden von stillenden Müttern nicht erlaubten, gleichzeitig aber kaum gegen hetzerische Gewaltaufrufe gegen ethnische Minderheiten vorgingen (wie derzeit etwa in Burma), dann sei das nicht seine Verantwortung. «Wir machen, was der Kunde sagt.»

«Hate Speech» bei Facebook – was toleriert wird, und was nicht

1 / 27
«Hate Speech» bei Facebook – was toleriert wird, und was nicht
Dürfen Facebook-Nutzer «Asylanten raus» fordern und Flüchtlinge als «faule Räuber und Diebe» bezeichnen, «die unser Land überschwemmen»? Die Antwort lautet ...
quelle: epa/epa / koca sulejmanovic
Auf Facebook teilenAuf X teilen

Dass dieser Kunde oft in den Metropolen des globalen Westens sitzt und seine digitale Schlacke in den südasiatischen Molochen nach allzu üblen Partikeln durchwühlen lässt, überrascht kaum. Nach den Textilfabriken und den Mega-Callcentern, die bereits in den asiatischen Raum ausgelagert worden sind, ist die Content-Moderation nur eine weitere Branche, deren Fachkräfte weit weg von den westlichen Endkonsumenten ihre Arbeit verrichten. Digitaler Kolonialismus? Nein, sagt Howladder. «Die Gesellschaft ist sowieso global.»

Draussen im Grossraumbüro neigt sich Subramani Subbus Acht-Stunden-Schicht ihrem Ende zu. Die globale Gesellschaft ist tausendfach über seinen Bildschirm geflimmert, in all ihren Schattierungen. Manchmal würde er gerne wissen, wie die Leute leben, über deren digitales Schicksal er tagtäglich waltet.

Doch im Ausland war er noch nie. Nur schon der Weg nach Hause ist für ihn jeden Tag eine herausfordernde Reise. Zweieinhalb Stunden braucht der Bus für die knapp 20 Kilometer durch den Stau in der 13-Millionen-Stadt. Subbu nutzt die Zeit, um Filme zu schauen, ohne Schnelldurchlauf, ohne ständiges «Weiter»-Klicken, ohne ständig Dinge löschen zu müssen, fast wie ein ganz normaler Mensch. (aargauerzeitung.ch)

«Die Moderatoren» – ein Blick in die Löschfabrik in Bangalore

Dieser Journalist ging durch die Social-Media-Hölle

Video: srf
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
24 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Eagle
09.10.2018 13:58registriert Januar 2016
Helden einer kranken Zivilisation.
33314
Melden
Zum Kommentar
avatar
so wie so
09.10.2018 20:46registriert Juli 2015
Vor ein paar Jahren bin ich auf Facebook unerwartet und zufällig auf eine Seite mit Fotos von Kindsmissbrauch gestossen. Man hört und liest davon und hat vielleicht eine Ahnung. Es zu sehen hat mich aber wie ein Schlag getroffen.Bis heute bekomme ich es nicht aus dem Kopf. Ich frage mich, ob jemand diesen Kindern half und wie es ihnen wohl geht.

Ein einziger Kontakt mit diesen Gräuel hat mich für immer verändert. Ich kann mir nicht vorstellen, wie es diesen Moderatoren geht und was der Job mit ihnen macht. Ich wills vielleicht gar nicht wissen.
1192
Melden
Zum Kommentar
avatar
Firefly
09.10.2018 21:07registriert April 2016
Wieso werden die Bilder nur gelöscht und die Verursacher nicht verfolgt?
433
Melden
Zum Kommentar
24
High-Speed-Internetprojekt im Westen Luzerns nimmt wieder Fahrt auf

Der Aufbau eines schnellen Internets im ländlichen Westen von Luzern ist einen Schritt weiter gekommen. 15 im Verbund Prioris zusammengeschlossene Gemeinden realisieren ihr Vorhaben mit der Regionalen Glasfaser Schweiz AG als Partnerin.

Zur Story