Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Image

Subramani Subbu und Suman Howladder: Wächter an den Online-Abgründen. bild: samuel schumacher

Diese Inder löschen Pornos und Gräuel-Bilder aus dem Netz – und leiden dabei Höllenqualen

In indischen Löschfabriken arbeiten täglich Tausende Menschen daran, dass uns manche Dinge im Internet nicht begegnen. Sie reinigen im Auftrag von Facebook und Co. das Internet rund um die Uhr von extremen Bildern und Videos. Der Job macht viele kaputt. Eine Reportage von der digitalen Front gegen das Böse.

Samuel Schumacher / Schweiz am Wochenende



Ein einziger Fehler wäre ein Desaster, eine einzige Unaufmerksamkeit könnte Revolten auslösen. So wie vor zwei Wochen, als eine Falschmeldung auf einer Online-Plattform im Norden Indiens zum Lynchmord an einem Vieh-Transport-Chauffeur geführt hat. Subramani Subbu (32) weiss das.

Er blickt starr durch die Brillengläser auf seinen Bildschirm. Von draussen dringt der Verkehrslärm der indischen Millionen-Metropole Bangalore in das heruntergekühlte Grossraumbüro.

Drinnen sitzen junge Menschen, vorwiegend Männer, versunken in den Abgründen des Internets. Über ihre Bildschirme flimmern Live-Videochats, Fotos, Filmausschnitte, Textnachrichten. Maustastenklicken mischt sich ins dumpfe Grossstadtrauschen.

Verstörende Gewalt, Selbstmordversuche, Kindsmissbrauch: Über die Bildschirme der Content-Moderatoren flimmert, was die Welt nicht sehen soll. screenshot: youtube / Field of Vision

Subbu klickt eifrig mit. Rund 20'000 Fotos und Videos im Schnelldurchlauf schaut er sich jeden Tag an; Dateien, die Menschen auf Sozialen Medien teilen oder auf ihren Dating-Profilen aufschalten wollen; Dateien, die manchmal schreckliche Dinge zeigen. Abgehackte Köpfe, missbrauchte Kinder, Selbstmordversuche vor laufender Handy-Kamera.

Etwa fünf Prozent der Bilder und Videos, die über Subbus Bildschirm flimmern, zeigen solchen «Blut-Inhalt», wie Subbu das nennt. «Diese Dinge setzen sich in deinem Kopf fest», sagt der junge Inder mit dem stoppeligen Bart. «Albträume hatte ich bisher aber nie.» Er habe sich an vieles gewöhnt. Und er habe gelernt, wie wichtig seine Arbeit sei. «Wenn es uns nicht gäbe, dann brächen morgen politische Unruhen aus, dann wäre das Internet im Nu eine reine Porno-Plattform.»

Subramani Subbu ist ein «Content Moderator», so etwas wie eine menschliche Firewall gegen alles Böse und Verbotene. Sein Job besteht darin, Inhalte aus dem Internet zu löschen, die niemand zu Gesicht bekommen sollte, weil sie Gewalt und illegale Pornografie zeigen oder gegen Copyright-Bestimmungen verstossen. Schätzungsweise 150'000 Menschen arbeiten weltweit als Content-Moderatoren, vorwiegend in Billiglohnländern wie Indien.

Sex überfordert die Roboter

Im einzigen Einzelbüro des Gebäudes am Rande von Bangalore sitzt Suman Howladder (37) und kämpft gegen die hereinbrechende Mailflut seiner Kunden. Howladder war einer der ersten, die erkannt haben, wie wichtig die Arbeit der Content-Moderatoren im digitalen Zeitalter sein wird. «Wir alle haben Smartphones und posten ständige Dinge online. Es ist wichtig, dass das jemand im Auge behält und einschreiten kann, wenn gefährliche oder gefälschte Dateien in Umlauf kommen», sagt Howladder.

1.825 Milliarden...

... Bilder, Videos und Textdateien haben die Content-Moderatoren von Foiwe in den vergangenen acht Jahren nach illegalen Inhalten durchsucht. Aktuell sichten die knapp 400 Mitarbeiter mehr als 800 Dateien – pro Minute.

Vor acht Jahren hat er die Firma Foiwe gegründet und drei Content- Moderatoren eingestellt. Heute arbeiten in seinen Grossraumbüros in Bangalore, Kalkutta und im russischen Kazan fast 400 Moderatoren im Schichtbetrieb rund um die Uhr. In fünf Jahren, schätzt Howladder, werden es doppelt so viele sein. Die Branche boomt.

Künstliche Intelligenz und automatisierte Programme würden ihnen einen Teil der Arbeit abnehmen, erzählt der Mann mit den hellwachen Augen. Ohne menschliche Moderatoren aber würde das System nicht funktionieren. «Programme checken vielleicht, wenn jemand auf seinem Dating-Profil ein Foto von Brad Pitt hochlädt und eine falsche Identität vorgibt», sagt er. Wenn es aber darum geht, Missbrauch und verbotene Sex-Praktiken zu erkennen, dann brauche es den menschlichen Blick, um richtig zu entscheiden.

«Manchmal kann unsere Arbeit sehr verstörend sein»

Richtig entscheiden, das lernen Howladders Angestellte in einem zweiwöchigen Crashkurs am Anfang ihrer Anstellung. «Manchmal kann unsere Arbeit sehr verstörend sein», sagt man ihnen dann. «Jeden Tag sehen wir Fotos von Kindsmissbrauch. Manchmal sind die Bilder so übel, dass ihr euch fragt, wie man das überhaupt anschauen kann. Aber das ist ein Teil des Jobs. Ihr seid hier, um diese Dinge zu löschen, damit sie niemand anders sehen kann.»

Image

Junge Inder erhalten einen zweiwöchigen Crashkurs zum Content Moderator. screenshot: youtube / field of vision

Die Bilder im Kopf

Die Firmen, in deren Auftrag Howladders Truppe sich durch die Schattentäler des Internets schlägt, haben ihre Sitze auf der ganzen Welt. Die Dating-Seiten Growlr, Mamba und IQ Elite gehören dazu, europäische Online-Verkaufsplattformen und chinesische Live-Chat-Anbieter. Mehrere Social-Media-Giganten setzen auf die Dienste von Foiwe. Ihre Namen aber behält Howladder für sich. Seine Mitarbeiter haben Geheimhaltungs-Vereinbarungen unterzeichnet. Die Kunden wollen nicht, dass ihr Brand plötzlich im Zusammenhang mit den düsteren Realitäten des Internets erscheinen.

Doch ab und zu dringt das Thema trotzdem an die Öffentlichkeit. Ende September etwa hat Selena Scola, die während neun Monaten für Facebook als Content-Moderatorin gearbeitet hatte, das Unternehmen verklagt. Scola sagt, durch die tägliche Konfrontation mit Kindsmissbrauch, Vergewaltigungen und Suizid-Videos leide sie an einer posttraumatischen Belastungsstörung.

2016 verklagten zwei ehemalige Content-Moderatoren im Dienste des Software-Giganten Microsoft ihren Arbeitgeber aus demselben Grund. Diese Klagen westlicher Mitarbeiter sind neben den Kosteneinsparungen wohl einer der Hauptgründe, wieso Firmen wie Facebook, Microsoft oder YouTube (gehört zu Google) die digitale Drecksarbeit an Billigarbeiter in anonymen Grossraumbüros in Asien auslagern.

Sie retten täglich Tausende

Birgit Kleim überraschen die Klagen der Content-Moderatoren nicht. Die Professorin für Psychotherapie an der Universität Zürich weiss, wie viel Stress solche Bilder im menschlichen Hirn auslösen können. Untersuchungen zeigten, dass nicht nur die effektive Konfrontation mit sexueller oder sonst wie gearteter Gewalt, sondern alleine schon das Betrachten von Bildern mit Gewaltdarstellungen zu posttraumatischen Störungen führen könne, erklärt Kleim.

«Das ist ein ernstzunehmendes Problem für bestimmte Berufsgruppen wie Content-Moderatoren.» Hohe Erregbarkeit, kaum zu verdrängende Bilder im Kopf, plötzliche Flashbacks: Die Betroffenen werden zu Gefangenen der eigenen Erinnerungen an das, was sie gesehen haben.

Image

screenshot: youtube / field of vision

Dass Inder, die in ihren Massenmedien traditionell viel Gewalt, Unfallopfer und Leichen zu sehen bekommen, weniger anfällig sind für solche Traumata als westliche Content-Moderatoren, das glaubt Birgit Kleim nicht. Individuelle Unterschiede könne es geben. «Wissenschaftlich gesehen gibt es aber keinen Befund, dass Personen mit bestimmtem kulturellem Hintergrund besser mit Gewaltdarstellungen umgehen können als andere.» Content-Moderatoren bräuchten in jedem Fall einen Ansprechpartner und die Möglichkeit, sich mit anderen auszutauschen, um das Gesehene zu verarbeiten, sagt Kleim.

Haben sie, sagt Suman Howladder. Foiwe habe eine Helpline, auf die die Mitarbeitenden anrufen können, falls sie Probleme kriegen. «In acht Jahren hatten wir keinen einzigen Anruf», betont der Foiwe-Chef. Wer sich der Aufgabe nicht mehr gewachsen fühle, könne jederzeit das Projekt wechseln und etwa für die E-Commerce-Kunden arbeiten. Da gibts keine Pornos und Hinrichtungen, sondern nur gefälschte iPhones und gefakte Markenprodukte.

Aber Belastungen hin oder her, irgendjemand müsse sich mit den düsteren Seiten des Internets auseinandersetzen. «Wenn es uns morgen nicht mehr gäbe, bräche im Internet das Chaos aus», sagt Howladder. «Nur schon der Gedanke daran macht mir Angst.» Auf den Chat-Plattformen retteten seine Leute täglich Tausende Menschen vor Betrügern, auf den Dating-Seiten garantierten sie dafür, dass harmlose Bildergalerien nicht zu Hardcore-Porno-Sammlungen würden, auf den Sozialen Medien stellten sie sicher, dass nicht jeder Unwahrheiten verbreiten könne.

Die Grenzen des Bösen

Was unwahr ist und was nicht, was drin liegt und was nicht, das entscheiden die Auftraggeber. «Wir arbeiten zu hundert Prozent nach den Guidelines unserer Kunden. Sie geben die Regeln vor», sagt Howladder. Moral wird zur Verhandlungsmasse, die Grenzen zwischen Gut und Böse werden willkürlich gezogen.

Howladders Truppe ist nicht die ermahnende Instanz, sie ist die gehorsame Kraft im Hintergrund, die den digitalen Content gerade so zurechtrückt, wie es den Kunden passt. Keine Bikinibilder? Kein Problem. Keine Kritik am Unternehmen? Kein Problem. Keine politischen Statements? Kein Problem. «Unsere Moderatoren sind neutral und lernbereit», sagt Howladder.

«Wir machen, was der Kunde sagt.»

Dass unerfahrene junge Inder, oft gerade knapp fertig mit dem Informatikstudium und kaum älter als 25, darüber entscheiden, was die Weltöffentlichkeit zu sehen bekommt und was vor ihr verborgen bleibt, darin sieht der Foiwe-Chef kein Problem. Inder seien sehr offen, Bangalore – der Hauptsitz von Foiwe – ein internationaler Schmelztiegel. «Unsere Moderatoren können sich schnell in die Kultur unserer Kunden eindenken und wissen, wo die Grenzen liegen.» Sie schauten etwa westliche Filme, um die westlichen Werte kennenzulernen.

Und für die Kunden aus dem Nahen Osten oder aus Russland habe er Moderatoren, die die Sprachen perfekt sprechen und die Kulturen gut kennen würden. «Alles kein Problem», sagt Suman Howladder und lächelt. Und wenn Firmen wie Facebook das Abbilden von stillenden Müttern nicht erlaubten, gleichzeitig aber kaum gegen hetzerische Gewaltaufrufe gegen ethnische Minderheiten vorgingen (wie derzeit etwa in Burma), dann sei das nicht seine Verantwortung. «Wir machen, was der Kunde sagt.»

«Hate Speech» bei Facebook – was toleriert wird, und was nicht

Dass dieser Kunde oft in den Metropolen des globalen Westens sitzt und seine digitale Schlacke in den südasiatischen Molochen nach allzu üblen Partikeln durchwühlen lässt, überrascht kaum. Nach den Textilfabriken und den Mega-Callcentern, die bereits in den asiatischen Raum ausgelagert worden sind, ist die Content-Moderation nur eine weitere Branche, deren Fachkräfte weit weg von den westlichen Endkonsumenten ihre Arbeit verrichten. Digitaler Kolonialismus? Nein, sagt Howladder. «Die Gesellschaft ist sowieso global.»

Draussen im Grossraumbüro neigt sich Subramani Subbus Acht-Stunden-Schicht ihrem Ende zu. Die globale Gesellschaft ist tausendfach über seinen Bildschirm geflimmert, in all ihren Schattierungen. Manchmal würde er gerne wissen, wie die Leute leben, über deren digitales Schicksal er tagtäglich waltet.

Doch im Ausland war er noch nie. Nur schon der Weg nach Hause ist für ihn jeden Tag eine herausfordernde Reise. Zweieinhalb Stunden braucht der Bus für die knapp 20 Kilometer durch den Stau in der 13-Millionen-Stadt. Subbu nutzt die Zeit, um Filme zu schauen, ohne Schnelldurchlauf, ohne ständiges «Weiter»-Klicken, ohne ständig Dinge löschen zu müssen, fast wie ein ganz normaler Mensch. (aargauerzeitung.ch)

«Die Moderatoren» – ein Blick in die Löschfabrik in Bangalore

Play Icon

Video: YouTube/Field of Vision

Dieser Journalist ging durch die Social-Media-Hölle

Play Icon

Video: srf

Abonniere unseren Newsletter

29
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
29Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • kuwi 10.10.2018 19:18
    Highlight Highlight Es ist bezeichnend, dass man solche die Seele belastenden Arbeiten an Billiglohnländer auslagert....
  • wartschnell 10.10.2018 18:03
    Highlight Highlight Die Problematik existiert auch in Europa. In Berlin sind 600 solcher Content Moderatoren angestellt. Teils ebenfalls unter horrenden psychischen Belastungen.
  • Firefly 09.10.2018 21:07
    Highlight Highlight Wieso werden die Bilder nur gelöscht und die Verursacher nicht verfolgt?
    • Olaf44512 09.10.2018 22:08
      Highlight Highlight Das passiert auch. Es gibt mehrere Stufen der Eskalation die der Content Moderator für einen Eintrag wählen kann. Bei den extremen Fällen werden auch direkt Behörden informiert. Der Grossteil des contents sind aber eigentlich harmlos, entsprechen aber nicht den Guidelines.
  • Ms. Song 09.10.2018 20:46
    Highlight Highlight Vor ein paar Jahren bin ich auf Facebook unerwartet und zufällig auf eine Seite mit Fotos von Kindsmissbrauch gestossen. Man hört und liest davon und hat vielleicht eine Ahnung. Es zu sehen hat mich aber wie ein Schlag getroffen.Bis heute bekomme ich es nicht aus dem Kopf. Ich frage mich, ob jemand diesen Kindern half und wie es ihnen wohl geht.

    Ein einziger Kontakt mit diesen Gräuel hat mich für immer verändert. Ich kann mir nicht vorstellen, wie es diesen Moderatoren geht und was der Job mit ihnen macht. Ich wills vielleicht gar nicht wissen.
    • Holzkopf 10.10.2018 23:36
      Highlight Highlight Ich bin vor Jahren via Link in einem harmlosen Blog ungewollt auf eine Website gekommen, die Videos von gewaltsamen Toden sammelt (Unfälle, Suizide, Morde, erzwungene Morde etc.). Ich wusste erst nicht, was es war und dummerweise schaffte ich es nicht „einfach wegzusehen“. Ich habe noch nie etwas verstörenderes gesehen; ein Video verfolgt mich noch bis heute...GoT ist eine Kindersendung dagegen...
    • Ms. Song 11.10.2018 08:30
      Highlight Highlight @Holzkopf

      In meiner Jugend gab es eine Seite "rotten irgendwas", welche solches Material sammelte. Es war eine Art Mutprobe/Wettkampf wer sich mehr Zeugs ansehen konnte und dabei möglichst cool blieb. Ich weiss allerdings nicht, was davon echt und was Fake war.
  • raues Endoplasmatisches Retikulum 09.10.2018 15:51
    Highlight Highlight Da lobe ich mir 4chan, da brauchts sowas (praktisch) nicht und jeder Nutzer traumatisiert nur sich selber.
  • äti 09.10.2018 15:27
    Highlight Highlight Ich denke, Zuckerberg +Co, müssten diesen Job machen.
    • Pana 09.10.2018 22:59
      Highlight Highlight Wurde das Internet nicht in der Schweiz erfunden? Dann würde ich für dein "&Co" auch mal sämtliche Schweizer für diese Arbeit nominieren. Nicht weniger absurd als deine Forderung (wie schon in einem älteren Artikel debattiert wurde).
  • Eagle 09.10.2018 13:58
    Highlight Highlight Helden einer kranken Zivilisation.
    • Duscholux 09.10.2018 16:06
      Highlight Highlight Nö. Internetzensierer und Urheberechtdurchsetzer sind bestimmt keine Helden.
    • sambeat 09.10.2018 22:16
      Highlight Highlight @Duscholux: Von denen ist auch nicht die Rede...
    • Eagle 09.10.2018 22:50
      Highlight Highlight Inhalte wie extreme Gewalt, Kinderpornos, Vergewaltigungen und ähnliche Scheusslichkeiten haben für dich mit Zensieren und Urheberrecht zu tun?
      Aha.
  • Ökonometriker 09.10.2018 13:22
    Highlight Highlight Wenn jemand Blödsinn postet kann ich diese Person auch einfach unfrienden oder ihr nicht mehr folgen... ich bräuchte da niemand, der das Zeug für meinen Komfort löscht und sich dabei selbst schädigt. Manchmal einfach krass, wir dekadent die westliche Gesellschaft geworden ist.
    • Garp 09.10.2018 14:08
      Highlight Highlight Die verstörenden Bilder hast Du dann aber bereits gesehen. Und Jugenliche z.B. sind neugierig und ihre Hirne noch empfindlicher. Verstörende, brutale Bilder und Videos können massive Schäden anrichten. Manche wollen das nicht begreifen.
    • Bits_and_More 09.10.2018 14:08
      Highlight Highlight Es geht hier wohl nicht nur um "Blödsinn", sondern auch um die Verbreitung von Fotos / Videos welchen Missbrauch zeigen. Hier geht es sehr wohl auch darum, dass solche Fotos nicht noch weiter verbreitet werden, gerade zum Schutz der Opfer.
    • Fruchtzwerg 09.10.2018 14:09
      Highlight Highlight Zwischen dem, was du "Blödsinn" nennst, und Enthauptungs- oder Vergewaltigungs- und Kinderporno-Videos gibt es ja wohl einen himmelweiten Unterschied *kopfschüttel*
    Weitere Antworten anzeigen
  • Kivi 09.10.2018 12:11
    Highlight Highlight Habe einmal eine Doku über solche Leute aus den Philippinen gesehen. Der Grund warum dort das Internet überwacht wird ist nicht hauptsächlich wegen der tiefen Löhne sondern weil die Philippiner durch ihren Familienzusammenhalt emotional gefesstigt sind. Z.b. die Selbstmordrate ist dort fasst am tiefsten Weltweit.
    • DemonCore 09.10.2018 12:40
      Highlight Highlight Ja, man kann sich die Dinge auch schön reden. Es ist ein Drecksarbeit, und die amerikanischen Datenkraken lassen jemanden diese Drecksarbeit machen - auch nur auf öffentlichen Druck hin - und dafür wollen sie auf keinen Fall mehr als unbedingt nötig bezahlen. Wegen der philip. Suizidrate: Die Philipinen sind auch ein Drittweltland mit einer tief korrupten Verwaltung und ausserdem stockkatholisch. Es wundert mich nicht, dass es da angeblich fast keine Selbstmorde gibt.
    • LeChef 09.10.2018 12:41
      Highlight Highlight Weil sie emotional gefestigt sind, wird das Internet überwacht..? Diese Logik geht irgendwie über meinen Horizont.
    • LeChef 09.10.2018 12:43
      Highlight Highlight Ah ok, das ist die Begründung dafür, dass das genau auf die Philippinen outgesourct wird, und nicht irgendwo anders. Verstehe.
    Weitere Antworten anzeigen

Wie unsere Gadgets Fabrikarbeiter in den Tod treiben (und was du tun kannst)

Weihnachtszeit, Gadget-Zeit. Mit diesen Tipps rund um den Kauf von Mobilgeräten kannst du etwas gegen die Ausbeutung in den Fabriken tun. 

Es beginnt bei uns. Unserem Hunger nach neuer Technik. Nach glänzenden Gadgets. Schnäppchen.

Hinter den Tech-Konzernen und bekannten Marken stehen die Fabriken, und die wälzen den Produktions- und Preisdruck auf die Menschen am Fliessband ab.

Ihr Job treibt sie in die Verzweiflung.

Eine von den Schweizer Hilfsorganisationen Brot für alle und Fastenopfer mitfinanzierte Studie belegt: Die gesundheitsschädigenden Arbeitsbedingungen in chinesischen Elektronikfirmen erhöhen das Suizid-Risiko …

Artikel lesen
Link to Article