Digital
Rassismus

Projekt Hassmaschine – was in rechten Facebook-Gruppen läuft

Der gesellschaftliche Widerstand wächst gegen die Hassbotschaften und die Hetze, die in geschlossenen Facebook-Gruppen verbreitet werden.
Der gesellschaftliche Widerstand wächst gegen die Hassbotschaften und die Hetze, die in geschlossenen Facebook-Gruppen verbreitet werden.screenshot: hassreport / reconquista internet

Projekt Hassmaschine – Reporter decken auf, was in privaten rechten Facebook-Gruppen läuft

Reporter haben 2,6 Millionen deutschsprachige Posts ausgewertet. Die grosse Recherche bringt Erschreckendes zutage.
23.06.2020, 17:1606.01.2021, 06:22
Mehr «Digital»

Was ist passiert?

Facebook versagt bei der Bekämpfung von mutmasslich illegalen Inhalten in rechten Facebook-Gruppen. Die privaten Gruppen werden für Hass und Hetze missbraucht und Facebooks Empfehlungs-Algorithmus trägt zur Verbreitung bei. Es geht um Mordaufrufe und Holocaust-Leugnung, aber auch um Aufrufe zu schwersten Gewalttaten im Internet.

Das zeigt eine grosse Recherche, die deutsche Journalisten der öfffentlich-rechtlichen Medienhäuser BR, NDR und WDR in den vergangenen Monaten durchgeführt haben. Ihr Projekt #Hassmaschine sorgt derzeit für Schlagzeilen.

Bild

In einer gemeinsamen Auswertung haben Reporterinnen und Reporter der öffentlich-rechtlichen Medienhäuser 2,6 Millionen Posts aus 138 meist geschlossenen rechten Facebook-Gruppen per Computer erfasst und analysiert. Die Daten reichen bei einigen Gruppen zurück bis ins Jahr 2010.

Es handelt sich gemäss Reporter-Angaben um «den bisher tiefsten Einblick in eine rechte, mitunter rechtsextreme Schattenwelt im weltweit grössten Netzwerk». Möglich wurde dies dank einem Aussteiger, der zum Hinweisgeber wurde.

«Wir haben 2,6 Millionen Beiträge ausgewertet, aus 138, meist privaten, Gruppen. Gefunden haben wir eine Semi-Öffentlichkeit, voller Todesdrohungen, Nazipropaganda und rassistischen Beleidigungen.»
Hakan Tanriverdi, Programmiererquelle: twitter
Projekt #Hassmaschine
In einem automatisierten Prozess wurden zwischen September und November 2019 sämtliche Kommentare und Posts in den Facebook-Gruppen seit deren Gründung extrahiert. Zudem wurden Screenshots aller Inhalte angefertigt. Die Hate-Speech-Inhalte wurden mittels Stichwortsuchen (Text) und Deep Learning (Bild) identifiziert.

Was hat es mit privaten Gruppen auf sich?

Die Journalisten schreiben:

«Private Gruppen sind für Facebook mittlerweile zentraler Teil der Strategie, die aktuell mehr als zwei Milliarden Nutzer auf der Plattform zu halten. Wer Mitglied einer privaten Facebook-Gruppe ist, bekommt deshalb Vorschläge, neuen Gruppen beizutreten. Dass diese Empfehlungen zum Problem werden können, soll Facebook schon länger bekannt sein.»

Facebook unternimmt zum einen zu wenig gegen die Veröffentlichung von Hass und Hetze in diesen geschlossenen Gruppen. Zum andern trägt der Empfehlungs-Algorithmus zur Weiterverbreitung und Popularität bei. Und der US-Konzern hat massiv gegen strengere Massnahmen lobbyiert und versucht, politische Einflussnahme zu verhindern.

Wie schlimm ist es?

Noch viel schlimmer, als befürchtet.

Die Recherchen in Zusammenhang mit dem Projekt Hassmaschine ergaben nun laut Bericht:

  • Mit einfacher Stichwortsuche fanden die Journalisten mehr als zehntausend, oft rassistische Beleidigungen.
  • Dann gingen sie über tausend mutmasslich strafbaren Inhalten nach: Von Holocaustleugnung, bis zu hundertfachen Aufrufen zu Mord und Vergewaltigung. Auch Terrorverdächtige seien in den Gruppen aktiv.
  • Viele der extremsten Inhalte würden über Bilder kommuniziert, die sich per Stichwortsuche nicht finden lassen.
  • Für die #Hassmaschine-Auswertung hat das Team auch einen frei verwendbaren Bilderkennungs-Algorithmus verwendet, den Facebook selbst entwickelt hat. Dieser Algorithmus sei darauf trainiert worden, SS-Runen und Hakenkreuze zu erkennen, was zu über hundert Treffern führte.
  • Von Facebook bezahlte Content-Moderatoren löschen gemeldete Beiträge, doch vieles bleibt stehen: Nicht gelöscht wurde «etwa ein antisemitisches Propagandavideo, in dem unter anderem Adolf Hitler glorifiziert wird, das Hakenkreuz gezeigt und Juden als Verantwortliche für Migrationsbewegungen in Europa dargestellt werden».
  • In vielen der privaten Facebook-Gruppen fault der Fisch vom Kopf her: Die Administratoren selbst beteiligen sich an der Verbreitung problematischer Inhalte.
«Gruppen sollen davon leben, dass Administratoren für ein gutes Diskussionsklima sorgen. Aber wenn dein Admin selbst mitmacht und Hitler-Memes postet, wenn alle einer Meinung sind in dieser Semi-Öffentlichkeit, dann wird natürlich auch weniger gemeldet.»
Hakan Tanriverdi

Der untersuchte Datensatz sei nicht repräsentativ, schreibt tagesschau.de, er verdeutliche aber Tendenzen. Die Auswertung zeige, dass sich der Anteil der hassgeladenen Sprache in den analysierten Gruppen zwischen 2012 und 2018 vervierfacht hat. 25 der untersuchten Gruppen hätten zudem einen Bezug zur deutschen rechtspopulistischen Partei AfD.

Was sagt Facebook?

Zu konkreten Beispielen und Fällen wollte sich das Unternehmen nicht äussern. Die Verantwortlichen winden sich.

«Wir möchten Hassrede natürlich löschen. Und wir haben im Kampf gegen Hassrede in den letzten Jahren sehr grosse Fortschritte gemacht.»
Facebook-Deutschland-Sprecher

Das sehen unabhängige Beobachter anders.

«Die Betreiber von sozialen Netzwerken müssen Extremismus entschlossener entgegentreten, radikale Beiträge entfernen, und dürfen enthemmten Menschen keine Plattform mehr bieten.»
Reconquista Internet

Die «Dreckarbeit» machen andere

Facebook verfolgt eine neue Strategie: Die mehr als zwei Milliarden Nutzer sollen sich in Gruppen organisieren. Es geht also darum, Teilöffentlichkeiten zu schaffen, die sich im besten Fall selber kontrollieren und freiwillig regulieren.

Facebook bezahlt aber auch Content-Moderatoren, die von Drittfirmen angestellt sind. Sie überprüfen, ob die von den Usern gemeldeten Beiträge gegen die Hausregeln verstossen, die sogenannten Gemeinschaftsstandards. In diesen Regeln ist festgelegt, was auf der Plattform erlaubt ist und was nicht. Tatsächlich löscht Facebook viele von Moderatoren gemeldete Beiträge. Doch viel bleibt auch stehen.

In den USA hat Facebook im Frühjahr auf massiven juristischen Druck hin eingewilligt, erkrankten Moderatoren von problematischen Inhalten 52 Millionen Dollar Schadenersatz zu zahlen. Das Geld geht an Personen, die durch ihre Arbeit psychisch stark in Mitleidenschaft gezogen wurden und an posttraumatischen Belastungsstörungen leiden. Die Betroffenen hatten eine Sammelklage eingereicht.

Als Moderatoren bezeichnet Facebook auch Mitglieder von Facebook-Gruppen, die gewisse administrative Tätigkeiten übernehmen, dies im Auftrag der Administratoren. Zu den Unterschieden gibts dieses Facebook-Hilfe-Dokument.

Vorteil für Facebook: Administratoren und Moderatoren sorgen innerhalb der Gruppen für Ordnung und können auch User sperren – was den Konzern entlastet. Freiwillige übernehmen im besten Fall gratis die Drecksarbeit.

Ist das ein neues Phänomen?

Nein. Das «Wall Street Journal» (WSJ) machte Ende Mai publik, dass die Probleme mit dem Empfehlungs-Algorithmus intern schon länger bekannt sind. Eine Facebook-Mitarbeiterin habe 2016 deutsche Facebook-Gruppen mit politischen Inhalten analysiert. Das Ergebnis: Jede dritte Gruppe sei voll mit rassistischen oder verschwörungsideologischen Beiträgen.

In einer internen Präsentation hiess es gemäss WSJ-Bericht, dass 64 Prozent aller Beitritte in extremistischen Gruppen auf die Empfehlungswerkzeuge von Facebook zurückgingen. Und weiter: «Unsere Empfehlungssysteme vergrössern das Problem.» Wie reagierte Mark Zuckerberg?

Facebook verweise nun darauf, in den vergangenen drei Jahren Massnahmen gegen polarisierende Inhalte getroffen zu haben, halten die deutschen Reporter fest. Viel gebracht hat es ganz offensichtlich nicht, wie die Ergebnisse des Projekts Hassmaschine zeigen. Rechte Hetze blüht weiter.

Was DU JETZT tun kannst

Melde Hass-Postings konsequent. So wie es beispielsweise das Online-Kollektiv Reconquista Internet tut. Diesen Sommer ist ein eigentlicher «Meldemarathon» geplant, um gegen die Verbreitung von Hass und Hetze vorzugehen.

Wir rufen jeden couragierten Bürger dazu auf, schwerpunktmässig in der 40. Kalenderwoche strafrechtlich relevante Inhalte an die Online-Meldestelle respect! (https://goo.gl/k2yKSk) weiterzuleiten. Diese kümmert sich unabhängig vom zugrundeliegenden Hintergrund um weitere Schritte.
Reconquista Internet

Jeder couragierte Mensch müsse sich, immer wieder, mit kleinen Taten oder wenigen Worten, schützend vor die unantastbare Menschenwürde stellen. Es geht vor allem darum, Hass im Netz nicht unwidersprochen zu lassen. Vielmehr solle man mit «Counter Speech» den Postings entgegnen.

Was tun Firmen?

Der öffentliche Druck und Widerstand nimmt zu, wie der «Guardian» am Dienstag berichtet. Mehrere bekannte US-Unternehmen hätten kostenpflichtige Werbung auf Facebook vorübergehend eingestellt. Dies weil es der marktführende Social-Media-Konzern versäumt habe, gegen die Verbreitung von Hass auf der Plattform vorzugehen.

North Face, Patagonia und weitere Firmen beteiligten sich an der kürzlich in den USA lancierten Kampagne «Stop Hate for Profit». Deren kritische Botschaft trifft Mark Zuckerberg dort, wo es schmerzt: Facebook mache 70 Milliarden Dollar Werbeeinnahmen pro Jahr, verstärke gleichzeitig «die Botschaften der weissen Rassisten» und erlaube «die Aufstachelung zur Gewalt». Dies wolle man nicht mehr hinnehmen.

Du willst mehr tun?

Lösch deinen Facebook- und Instagram-Account. Und statt WhatsApp solltest du Signal oder Threema verwenden, oder sonst einen unabhängigen Messenger-Dienst, der keiner der grossen Datenkraken noch mehr «Nahrung» liefert.

Weniger (oder gar kein) Social Media ist nicht nur viel gesünder, sondern kommt auch der Umwelt zugute. Und unterstützte journalistisch arbeitende Medien, die auch wirklich gerade stehen für die Inhalte, die sie publizieren.

Viele Journalisten berichten kritisch über Facebook und die Misstände, die auf der Plattform herrschen. Gleichzeitig schalten allerdings auch viele Medienhäuser selber Werbung bei Facebook und nutzen auch die Facebook-Tochter Instagram um eigene Inhalte zu verbreiten und die Reichweite zu erhöhen. Dazu gehört auch das Newsportal watson.

In Deutschland seien Online-Plattformen wie Facebook verpflichtet, Mordaufrufe und andere Drohungen zu Gewaltdelikten sowie Postings mit volksverhetzendem Inhalt den Strafverfolgungsbehörden zu melden, hält tagesschau.de fest. Eine gesetzliche Verpflichtung, «aktiv nach diesen Inhalten zu suchen», habe Facebook jedoch weiterhin nicht.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
«Hate Speech» bei Facebook – was toleriert wird, und was nicht
1 / 27
«Hate Speech» bei Facebook – was toleriert wird, und was nicht
Dürfen Facebook-Nutzer «Asylanten raus» fordern und Flüchtlinge als «faule Räuber und Diebe» bezeichnen, «die unser Land überschwemmen»? Die Antwort lautet ...
quelle: epa/epa / koca sulejmanovic
Auf Facebook teilenAuf X teilen
Zuviel am Handy? Dr. Watson weiss, woran du leidest
Video: watson
Das könnte dich auch noch interessieren:
37 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
John Galt
23.06.2020 18:26registriert November 2014
Ich verstehe dass Facebook und Twitter darauf bestehen, dass sie nicht für alle Inhalte verantwortlich sind.
Aber spätestens wenn FB Gruppen empfiehlt, tragen sie die Verantwortung für die Inhalte mit. Wenn FB Gruppen mit strafrechtlich relevanten Inhalten vorschlägt, dann muss der Staat eingreifen können, und auch FB zur Verantwortung ziehen.
22326
Melden
Zum Kommentar
avatar
Coffeetime ☕
23.06.2020 18:18registriert Dezember 2018
FB Gründer waren wohl am Anfang sehr naiv, so dass sie nicht überlegt haben, was für abgründiger Schrott auch publiziert werden könnte. Wären sie rigoros seit Anfang an gegen solche Inhalte vorgegangen, hätte es mit dem Sauber halten geklappt. Aber eben, viel Geld verdienen und nichts verbieten wollen war ihr Motto. Jetzt müssen arme Inder für uns westliche Welt aufräumen, und das ohne Schutzkonzept, neben Ausbeutung (wenig Lohn) gehen sie auch psychisch zu Grunde.

Was läuft denn in der Welt falsch, dass so viel Leute Hass, Gewalt, Perverse Inhalte so ausleben wollen?
12422
Melden
Zum Kommentar
avatar
Randy Orton
23.06.2020 21:19registriert April 2016
Das Problem bei facebook ist, dass Inhalte die man meldet, meist einfach durchgewunken werden. Ich habe schon Aufruf zum Genozid an Juden, Holocaustleugnung und direkte Gewaltandrohung an Einzelpersonen gemeldet - wurde alles als „nicht gegen die Richtlinien verstossend“ gewertet. Facebook müsste für die Verbreitung strafrechtlich relevanter Aussagen spätestens dann verantwortlich sein, wenn sie darauf hingewiesen werden und nichts unternehmen.
765
Melden
Zum Kommentar
37
Darum würde Roger Schawinski keinen Tesla mehr kaufen
Er ist ein Tesla-Fahrer der ersten Stunde, doch nun schüttelt Roger Schawinski den Kopf über das Benehmen von Elon Musk. Wirken sich dessen Eskapaden auf die Absätze der Elektroauto-Marke Tesla aus?

Die Marke Tesla hat ein Chef-Problem. Elon Musks Eskapaden auf X häufen sich, das geht von Hitlervergleichen bis zur plötzlichen Hinwendung Richtung Putin, nachdem er zu Kriegsbeginn die Ukraine noch mit seinen Internet-Satelliten Starlink unterstützt hatte.

Zur Story