John Galt
Aber spätestens wenn FB Gruppen empfiehlt, tragen sie die Verantwortung für die Inhalte mit. Wenn FB Gruppen mit strafrechtlich relevanten Inhalten vorschlägt, dann muss der Staat eingreifen können, und auch FB zur Verantwortung ziehen.
Facebook versagt bei der Bekämpfung von mutmasslich illegalen Inhalten in rechten Facebook-Gruppen. Die privaten Gruppen werden für Hass und Hetze missbraucht und Facebooks Empfehlungs-Algorithmus trägt zur Verbreitung bei. Es geht um Mordaufrufe und Holocaust-Leugnung, aber auch um Aufrufe zu schwersten Gewalttaten im Internet.
Das zeigt eine grosse Recherche, die deutsche Journalisten der öfffentlich-rechtlichen Medienhäuser BR, NDR und WDR in den vergangenen Monaten durchgeführt haben. Ihr Projekt #Hassmaschine sorgt derzeit für Schlagzeilen.
In einer gemeinsamen Auswertung haben Reporterinnen und Reporter der öffentlich-rechtlichen Medienhäuser 2,6 Millionen Posts aus 138 meist geschlossenen rechten Facebook-Gruppen per Computer erfasst und analysiert. Die Daten reichen bei einigen Gruppen zurück bis ins Jahr 2010.
Es handelt sich gemäss Reporter-Angaben um «den bisher tiefsten Einblick in eine rechte, mitunter rechtsextreme Schattenwelt im weltweit grössten Netzwerk». Möglich wurde dies dank einem Aussteiger, der zum Hinweisgeber wurde.
Die Journalisten schreiben:
Facebook unternimmt zum einen zu wenig gegen die Veröffentlichung von Hass und Hetze in diesen geschlossenen Gruppen. Zum andern trägt der Empfehlungs-Algorithmus zur Weiterverbreitung und Popularität bei. Und der US-Konzern hat massiv gegen strengere Massnahmen lobbyiert und versucht, politische Einflussnahme zu verhindern.
Noch viel schlimmer, als befürchtet.
Die Recherchen in Zusammenhang mit dem Projekt Hassmaschine ergaben nun laut Bericht:
Der untersuchte Datensatz sei nicht repräsentativ, schreibt tagesschau.de, er verdeutliche aber Tendenzen. Die Auswertung zeige, dass sich der Anteil der hassgeladenen Sprache in den analysierten Gruppen zwischen 2012 und 2018 vervierfacht hat. 25 der untersuchten Gruppen hätten zudem einen Bezug zur deutschen rechtspopulistischen Partei AfD.
Zu konkreten Beispielen und Fällen wollte sich das Unternehmen nicht äussern. Die Verantwortlichen winden sich.
Das sehen unabhängige Beobachter anders.
Facebook verfolgt eine neue Strategie: Die mehr als zwei Milliarden Nutzer sollen sich in Gruppen organisieren. Es geht also darum, Teilöffentlichkeiten zu schaffen, die sich im besten Fall selber kontrollieren und freiwillig regulieren.
Facebook bezahlt aber auch Content-Moderatoren, die von Drittfirmen angestellt sind. Sie überprüfen, ob die von den Usern gemeldeten Beiträge gegen die Hausregeln verstossen, die sogenannten Gemeinschaftsstandards. In diesen Regeln ist festgelegt, was auf der Plattform erlaubt ist und was nicht. Tatsächlich löscht Facebook viele von Moderatoren gemeldete Beiträge. Doch viel bleibt auch stehen.
In den USA hat Facebook im Frühjahr auf massiven juristischen Druck hin eingewilligt, erkrankten Moderatoren von problematischen Inhalten 52 Millionen Dollar Schadenersatz zu zahlen. Das Geld geht an Personen, die durch ihre Arbeit psychisch stark in Mitleidenschaft gezogen wurden und an posttraumatischen Belastungsstörungen leiden. Die Betroffenen hatten eine Sammelklage eingereicht.
Als Moderatoren bezeichnet Facebook auch Mitglieder von Facebook-Gruppen, die gewisse administrative Tätigkeiten übernehmen, dies im Auftrag der Administratoren. Zu den Unterschieden gibts dieses Facebook-Hilfe-Dokument.
Vorteil für Facebook: Administratoren und Moderatoren sorgen innerhalb der Gruppen für Ordnung und können auch User sperren – was den Konzern entlastet. Freiwillige übernehmen im besten Fall gratis die Drecksarbeit.
Nein. Das «Wall Street Journal» (WSJ) machte Ende Mai publik, dass die Probleme mit dem Empfehlungs-Algorithmus intern schon länger bekannt sind. Eine Facebook-Mitarbeiterin habe 2016 deutsche Facebook-Gruppen mit politischen Inhalten analysiert. Das Ergebnis: Jede dritte Gruppe sei voll mit rassistischen oder verschwörungsideologischen Beiträgen.
In einer internen Präsentation hiess es gemäss WSJ-Bericht, dass 64 Prozent aller Beitritte in extremistischen Gruppen auf die Empfehlungswerkzeuge von Facebook zurückgingen. Und weiter: «Unsere Empfehlungssysteme vergrössern das Problem.» Wie reagierte Mark Zuckerberg?
Facebook verweise nun darauf, in den vergangenen drei Jahren Massnahmen gegen polarisierende Inhalte getroffen zu haben, halten die deutschen Reporter fest. Viel gebracht hat es ganz offensichtlich nicht, wie die Ergebnisse des Projekts Hassmaschine zeigen. Rechte Hetze blüht weiter.
Melde Hass-Postings konsequent. So wie es beispielsweise das Online-Kollektiv Reconquista Internet tut. Diesen Sommer ist ein eigentlicher «Meldemarathon» geplant, um gegen die Verbreitung von Hass und Hetze vorzugehen.
Jeder couragierte Mensch müsse sich, immer wieder, mit kleinen Taten oder wenigen Worten, schützend vor die unantastbare Menschenwürde stellen. Es geht vor allem darum, Hass im Netz nicht unwidersprochen zu lassen. Vielmehr solle man mit «Counter Speech» den Postings entgegnen.
Der öffentliche Druck und Widerstand nimmt zu, wie der «Guardian» am Dienstag berichtet. Mehrere bekannte US-Unternehmen hätten kostenpflichtige Werbung auf Facebook vorübergehend eingestellt. Dies weil es der marktführende Social-Media-Konzern versäumt habe, gegen die Verbreitung von Hass auf der Plattform vorzugehen.
North Face, Patagonia und weitere Firmen beteiligten sich an der kürzlich in den USA lancierten Kampagne «Stop Hate for Profit». Deren kritische Botschaft trifft Mark Zuckerberg dort, wo es schmerzt: Facebook mache 70 Milliarden Dollar Werbeeinnahmen pro Jahr, verstärke gleichzeitig «die Botschaften der weissen Rassisten» und erlaube «die Aufstachelung zur Gewalt». Dies wolle man nicht mehr hinnehmen.
Patagonia is proud to join the Stop Hate for Profit campaign. We will pull all ads on Facebook and Instagram, effective immediately, through at least the end of July, pending meaningful action from the social media giant.
— Patagonia (@patagonia) June 21, 2020
Lösch deinen Facebook- und Instagram-Account. Und statt WhatsApp solltest du Signal oder Threema verwenden, oder sonst einen unabhängigen Messenger-Dienst, der keiner der grossen Datenkraken noch mehr «Nahrung» liefert.
Weniger (oder gar kein) Social Media ist nicht nur viel gesünder, sondern kommt auch der Umwelt zugute. Und unterstützte journalistisch arbeitende Medien, die auch wirklich gerade stehen für die Inhalte, die sie publizieren.
Viele Journalisten berichten kritisch über Facebook und die Misstände, die auf der Plattform herrschen. Gleichzeitig schalten allerdings auch viele Medienhäuser selber Werbung bei Facebook und nutzen auch die Facebook-Tochter Instagram um eigene Inhalte zu verbreiten und die Reichweite zu erhöhen. Dazu gehört auch das Newsportal watson.
"Facebook faces advertiser revolt over failure to address hate speech" the @guardian reports.
— Rasmus Kleis Nielsen (@rasmus_kleis) June 23, 2020
It is not part of the revolt, but running ads on Facebook
Just as @DailyMailUK is
And @Telegraph is
And @thetimes is
Screenshots from Facebook Ad archive today https://t.co/eGyMNMb3PI pic.twitter.com/GoEbr8ITuY
In Deutschland seien Online-Plattformen wie Facebook verpflichtet, Mordaufrufe und andere Drohungen zu Gewaltdelikten sowie Postings mit volksverhetzendem Inhalt den Strafverfolgungsbehörden zu melden, hält tagesschau.de fest. Eine gesetzliche Verpflichtung, «aktiv nach diesen Inhalten zu suchen», habe Facebook jedoch weiterhin nicht.