DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Kommentar

Mark Zuckerberg hat ein Monster geschaffen, das nicht zu zähmen ist

Interne Facebook-Dokumente zeigen, wie das weltgrösste «soziale» Netzwerk gegen abscheuliche Inhalte und asoziale Tendenzen kämpft. Ein aussichtsloses Unterfangen.
22.05.2017, 18:0323.05.2017, 10:40

Wann wurde Mark Zuckerberg zum ersten Mal bewusst, dass er ein Monstrum geschaffen hat? Und wie wird er es dereinst seiner Tochter Max (sie ist erst 2) erklären?

Folter, Mord und Missbrauch. Selbstverstümmelungen und Tierquälerei. Gewaltverherrlichung und übelste Pornografie.

Zu jeder Tages- und Nachtzeit. In Grossaufnahme. Slow Motion. Und immer öfters live. Vor laufender Kamera.

Nein, Facebook ist kein «soziales» Netzwerk mehr. Daran werden 3000 zusätzliche Kontrolleure wenig ändern.

Das ganze Ausmass ist schlimmer, als wir bereits wussten, respektive annehmen mussten. Dies belegen interne Dokumente, die dem Guardian zugespielt wurden.

Die britische Zeitung hat die «Facebook Files» am Sonntag in einer Artikel-Serie publik gemacht.
Die britische Zeitung hat die «Facebook Files» am Sonntag in einer Artikel-Serie publik gemacht.screenshot: guardian

Was Facebook löscht, und was toleriert wird...

1 / 16
Was Facebook erlaubt – und was gelöscht wird
quelle: epa/epa / ritchie b. tongo
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Entlarvend sind die schriftlichen Anweisungen an die «Content-Moderatoren», wie sie mit konkreten Aufrufen zu Gewalt umgehen sollen. Löschen oder nicht?

Demnach soll man nicht dazu aufrufen dürfen, Trump zu erschiessen. Hingegen ist es zulässig, detailliert zu beschreiben, wie man «einer Schlampe das Genick bricht»...

Bei allen beanstandeten, respektive problematischen Inhalten sollen die Moderatoren den Kontext beachten. Dies erschwert die rasche Beurteilung – und führt zwangsläufig zu Fehlern.

Ein Beispiel: Das folgende Foto eines gequälten Hundes sei absolut ok, das Video muss lediglich als «verstörend» gekennzeichnet werden, um Betrachter zu warnen.

Auszug aus internen Schulungsunterlagen.
Auszug aus internen Schulungsunterlagen.screenshot: guardian

Ein weiteres «Minenfeld» ist der Umgang mit Usern, die sich selber verletzen oder gar einen Suizid planen. Die Süddeutsche Zeitung, die die Dokumente einsehen konnte, schreibt zur umstrittenen Video-Live-Übertragung (Facebook Live):

Facebook möchte Nutzern auch in Zukunft erlauben, solche Handlungen live zu streamen. Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie – diese zu entfernen könnte verhindern, dass sie gehört werden, heisst es. Man habe diese Richtlinien mit Experten entwickelt. Für die Sicherheit der Betroffenen sei es das Beste, wenn sie live mit ihren Zuschauern in Kontakt bleiben könnten (...).

Im Zweifelsfall: nichts tun

Viele der Facebook-Angestellten sind offenbar im Umgang mit entsprechenden Postings unsicher, darum werden laut den britischen und deutschen Medienberichten in den Schulungsunterlagen häufig gestellte Fragen aufgeführt. Wie etwa: «Ich bin mir nicht sicher, ob die Person wirklich unsere Hilfe braucht, was soll ich tun?» – Die Antwort: «Wenn es nicht offensichtlich ist, dass sie Hilfe brauchen, ignoriere den Inhalt einfach.»

Oder anders ausgedrückt: Im Zweifelsfall gar nichts tun und darauf hoffen, dass andere Facebook-User reagieren und bei besorgniserregenden Beobachtungen aktiv werden.

Ausser Kontrolle

Ich will hier nicht weiter auf die Facebook-Regelungen eingehen. Denn sie verdeutlichen vor allem eines: Der US-Konzern wird die Probleme auf absehbare Zeit nicht in den Griff bekommen. Das sehen offensichtlich auch Unternehmens-Insider so.

«Facebook hat die Kontrolle über seine Inhalte verloren. Es ist zu schnell zu gross geworden.»
So zitiert der «Guardian» eine nicht namentlich genannte Quelle.quelle: guardian

Die «Süddeutsche Zeitung» (SZ) erinnert in ihrem aktuellen Bericht an die Leidtragenden, die als menschliche Facebook-Filter arbeiten, um unseren Aufenthalt in der Social-Media-Blase möglichst angenehm und störungsfrei zu gestalten...

«Eine Recherche des SZ-Magazins deckte im vergangenen Dezember auf, dass allein in Berlin 600 Menschen beim Dienstleister Arvato angestellt sind, die im Auftrag von Facebook Inhalte prüfen und löschen. Sie leiden unter ihren Arbeitsbedingungen, arbeiten für ein Gehalt knapp über dem Mindestlohn und erhalten wenig psychologische Unterstützung. Die wäre nötig, da viele der Mitarbeiter regelmässig Fotos und Videos von Folter, Mord oder Kindesmissbrauch sichten müssen.»

Verbieten?

Facebook lässt uns in menschliche Abgründe blicken, so wie dies jede Internet-Plattform tut, die frei zugänglich ist. «Wo ist das Problem?», werden hartgesottene User fragen.

In diesem früheren Meinungsbeitrag habe ich Facebook kritisiert und gefordert, Live-Videoübertragungen einzuschränken.

Das stiess bei einigen Lesern auf Unverständnis. watson-User Pana kommentierte, dass es keine Zauberformel gebe.

«Willst du Autofahren verbieten, weil es Betrunkene und Raser gibt? Missbrauch hat es immer gegeben, und wird es immer geben. Dafür von Facebook eine Zauberformel zu erwarten, ist absurd.»

Abgesehen davon, dass ich es begrüssen würde, wenn man betrunkene und rasende Lenker noch härter anfasst: Verbote sind meiner Meinung nach nicht angebracht. Wir sollten Facebook aber auch nicht mit dem Autofahren vergleichen.

Facebook ist kein an sich neutrales Transportmittel, sondern ein US-Konzern, der mit personalisierter Werbung Milliarden verdient, aus monetären und juristischen Gründen in Irland sitzt und nur widerstrebend die hiesigen strengeren Datenschutzbestimmungen beachtet und umsetzt.

Als börsenkotiertes Unternehmen ist Facebook seinen Aktionären verpflichtet. Selbst wenn Postings gegen nationale Gesetze verstossen, braucht es häufig zusätzlichen Druck, bis reagiert wird. Davon können Betroffene ein Lied singen.

Mord ist Mord

Facebook wolle erklärtermassen die Meinungsfreiheit so hoch wie möglich halten, uns so wenig wie nötig einschränken, schreibt die NZZ in einem lesenswerten Beitrag (Titel: Warum für Facebook Mord nicht gleich Mord ist). Diese Maxime mache Facebook so attraktiv für seine Nutzer. Und darauf wiederum gründe letztlich das Geschäftsmodell des Konzerns.

Illustriert wird dies ausgerechnet durch das tragische Schicksal einer Mutter in Thailand, die bei Facebook Live verfolgen musste, wie ihr eigenes Kind vom Freund getötet wurde.

Ein solches Business mag weiterhin sehr viel Geld einbringen. Immerhin können die meisten von uns selber entscheiden, ob sie es durch ihre wertvolle Zeit «mitfinanzieren».

Das könnte dich auch interessieren:

Facebook erklärt seine Spielregeln

1 / 14
Facebook erklärt seine Spielregeln
quelle: epa/dpa / maurizio gambarini
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

53 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Sensenmaa
22.05.2017 19:22registriert Mai 2017
Zum Glück habe ich schon lange kein FB mehr.
7711
Melden
Zum Kommentar
avatar
Madison Pierce
22.05.2017 18:22registriert September 2015
Was mich noch interessieren würde: In letzter Zeit lese ich hier viele kritische Kommentare zu Facebook (was ich durchaus begrüsse). Gleichzeitig ist Facebook Connect auf jeder Seite eingebunden und der "Teilen"-Button ebenfalls.

Gibt es Überlegungen dazu? Oder sind Redaktion und Webdesign komplett getrennt?

Wenn man aus wirtschaftlichen Gründen nicht auf die "Teilen"-Funktion verzichten kann, könnte man die "zwei Klick"-Variante einsetzen: https://www.heise.de/extras/socialshareprivacy/ So würden nur Daten zu FB übertragen, wenn jemand den Artikel teilen will.
642
Melden
Zum Kommentar
avatar
Madison Pierce
22.05.2017 18:17registriert September 2015
Facebook hat das Problem, dass es selbst für Ordnung sorgen muss. In Webforen gab es schon immer unangebrachte Inhalte, aber die wurden schnell entfernt, weil langjährige Mitglieder zu Moderatoren wurden.

Zudem sind die Regeln so kompliziert, weil man es allen recht machen soll. Ein nacktes Kind kann verbotene Pornografie sein, aber auch ein historisches Foto vom Vietnamkrieg. Ein Hakenkreuz kann von Neonazis verwendet werden, oder aber in einer Geschichtsgruppe. Brüste können Pornografie sein, oder das Stillen zeigen... (Da wurde Facebook ja schon für Löschungen kritisiert.)
613
Melden
Zum Kommentar
53
Die deutsche Corona-Warn-App zeigt neu auch an, ob Maskenpflicht gilt
Die Entwickler der deutschen Corona-Warn-App haben eine neue Version mit neuen Funktionen angekündigt.

Maskenpflicht ja oder nein: Diese Information lässt sich künftig über die deutsche Corona-Warn-App anzeigen, wie die Entwickler der Anwendung mitteilen. «Ab Version 2.27 zeigt Ihnen die Corona-Warn-App im Bereich ‹Zertifikate› den aktuellen Maskenstatus als entsprechendes Symbol, falls politische Regelungen es erfordern», heisst es.

Zur Story