Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
FILE - This July 16, 2013, file photo shows a sign at Facebook headquarters in Menlo Park, Calif. Facebook is trying to coax â??news desertsâ? into bloom with the expansion of a tool that provides people with local news and information, but says it still has a lot to learn. The social media giant said Thursday, Sept. 12, 2019, it is expanding its â??Today Inâ? service to 6,000 cities and towns across the U.S., up from 400 previously. (AP Photo/Ben Margot, File)
Facebook

Alles Daumen hoch bei Facebook? Nun, nicht immer, denn es werden Unmengen Fake News und verstörende Inhalte geteilt. Bild: AP

Der «Guardian» hat mit Facebook-Moderatoren gesprochen – ihre Aussagen sind erschreckend



Ende Juni hatte Facebook rund 1.6 Milliarden aktive User. Also Personen, die sich täglich ins Soziale Netzwerk einloggen. Diese laden gigantische Mengen an Daten hoch. An einem einzigen Tag werden etwa 350 Millionen Fotos auf die Plattform gestellt. Sie alle müssen einem gewissen Standard entsprechen und dürfen die Facebook-Regeln nicht verletzen.

Um dies zu überprüfen setzt das Unternehmen tausende Personen ein, welche sich durch den Content klicken. Sie müssen entscheiden, ob der Content okay ist, oder ob er gelöscht werden muss. Etwa dann, wenn Gewalt oder Pornographie zu sehen ist.

Nun hat die britische Zeitung The Guardian mit in Berlin ansässigen Moderatoren gesprochen, welche für das Unternehmen jahrelang Facebook-Beiträge überprüft haben. Es hat sich herausgestellt, dass der Job sie bis an ihre Grenzen und darüber hinaustreibt. Die Interviewten sprachen davon, dass einige wegen der Hassreden und Fake News weit ins rechte politische Spektrum gedriftet seien. Andere seien süchtig nach verstörenden Inhalten geworden.

Widerliche Sex-Chats und Fake News

Nebst Fotos und Videos müssen die Moderatoren auch verdächtige private Chats kontrollieren und das kann zuweilen ziemlich an die Nieren gehen. Eine Mitarbeiterin – alle wollten anonym bleiben – erzählt: «90 Prozent drehen sich um Sex. Wir haben reiche weisse Männer aus Europa, aus den USA, die an Kinder auf den Philippinen schreiben ...»

FILE - In this May 1, 2018, file photo, Facebook CEO Mark Zuckerberg delivers the keynote speech at F8, Facebook's developer conference, in San Jose, Calif. Federal regulators are fining Facebook $5 billion for privacy violations and instituting new oversight and restrictions on its business. But they are only holding Zuckerberg personally responsible in a limited fashion. (AP Photo/Marcio Jose Sanchez, File)
Mark Zuckerberg

Mark Zuckerberg hat ein Monster geschaffen, das nur schwer zu kontrollieren ist. Bild: AP

Weil es den Job als solches noch nicht lange gibt, sei das Ganze wie ein Experiment, sagt ein anderer Moderator. Zunächst wurde vom Unternehmen vorgegeben, dass 1000 Beiträge in einer achtstündigen Schicht kontrolliert werden müssen. 30 Sekunden Zeit pro Beitrag.

Für die Mitarbeiter eine kaum auszuhaltende Arbeitslast, wie ein Interviewter zu Protokoll gibt. «Ich denke, es ist eine Verletzung der Menschenrechte. Man kann niemanden bitten, schnell zu arbeiten, gut zu arbeiten und verstörende Inhalte zu sehen. Die Dinge, die wir gesehen haben, sind einfach nicht richtig.»

Mittlerweile ist das Volumen auf die Hälfte reduziert worden. Doch die Belastung bleibt hoch. Der Content setzt den Moderatoren zu:

«All diese Hassreden, mit denen wir jeden Tag zu tun haben, beeinflussen wahrscheinlich unsere politische Sichtweise. So kann ein normaler Mensch, ein liberaler Mensch, vielleicht auch ein progressiver Mensch, konservativer werden, sich mehr mit Themen wie Migration beschäftigen. Viele der Hassreden, die wir täglich erhalten, sind Fake News ... die darauf abzielen, sehr spezielle politische Ansichten zu teilen.»

Ein Moderator.

Trotz der grossen Herausforderung vor welcher die Moderatoren täglich stehen, werden sie schlecht bezahlt. «Eigentlich das Mindesteinkommen», sagen sie. Die psychologische Unterstützung ist offenbar ebenfalls ungenügend. Viele Mitarbeiter wüssten sich nur mit Medikamenten zu helfen.

So reagiert Facebook

Die Probleme seien nicht unlösbar, so die Moderatoren, auch sei ihre Arbeit wichtig, doch es müssten unbedingt mehr Leute eingestellt werden, um die Belastung zu reduzieren.

Facebook selber sagt gegenüber dem Guardian:

Content-Moderatoren leisten wichtige Arbeit, um unsere Community sicher zu halten, und wir nehmen unsere Verantwortung wahr, ihr Wohlbefinden unglaublich ernst zu nehmen. Wir arbeiten eng mit unseren Partnern zusammen, um sicherzustellen, dass sie die Unterstützung bieten, die die Menschen benötigen, einschliesslich Training, psychologischer Unterstützung und Technologie, um ihre Exposition gegenüber verstörenden Inhalten zu begrenzen.

Content-Moderation ist eine neue und herausfordernde Branche, daher lernen wir ständig dazu und sind bestrebt, die Art und Weise, wie sie verwaltet wird, zu verbessern. Wir nehmen alle Berichte, dass unsere hohen Standards nicht eingehalten werden ernst und arbeiten mit unseren Partnern zusammen, um diese Anliegen zu untersuchen

Facebook nimmt Stellung gegenüber dem Guardian.

(cma)

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com (umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

23 Firmen-Logos, aber in ehrlich

watson kommentiert Hasskommentare

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Themen
48 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
c-bra
17.09.2019 20:41registriert April 2016
also ich nutze Facebook ja sowieso und überhaupt nicht, deshalb bin ich der Meinung, dass mein Leben mega viel geiler ist als eures.
Gruss Hansel
69755
Melden
Zum Kommentar
1 rundes Quadrat
17.09.2019 20:33registriert June 2019
Erschreckend. Dennoch wird hier bald irgend ein Hansel kommentieren dass er ja sowieso und überhaubt kein facebook nutzt und sein leben deshalb mega viel geiler ist als meins und deins.
50162
Melden
Zum Kommentar
ConcernedCitizen
17.09.2019 21:35registriert October 2014
Richtig aufräumen wollen sie dann auch nicht. Wäre doof wenn plötzlich 30% der User gelöscht werden, da sie entweder fake sind oder widerliches Zeugs posten. Der Aktienkurs würde sofort einbrechen.
2082
Melden
Zum Kommentar
48

Trumps Geheim-Projekt «Abschreckung» enthüllt – 3,5 Millionen schwarze Wähler betroffen

Der Facebook-Skandal um Cambridge Analytica ist zurück. Britische Enthüllungsjournalisten reden von «einem der grössten Leaks der Geschichte».

Bei den US-Präsidentschaftswahlen 2016 wurde durch das Wahlkampfteam von Donald Trump versucht, Wahlberechtigte in Schlüsselstaaten mit psychologischen Tricks zu entmutigen und von der Stimmabgabe abzuhalten.

Neue Enthüllungen vom Montag zeigen, dass über die Auswertung von Facebook-Nutzerdaten unter anderem 3,5 Millionen schwarze Wähler herausgefiltert und persönliche Informationen über sie in einer Datenbank gespeichert wurden. Mit dem Ziel, sie über bezahlte Facebook-Postings zu manipulieren.

Artikel lesen
Link zum Artikel