Ein internes Memo zeigt, dass politische Manipulation durch Bot-Netzwerke von der Facebook-Führung ignoriert wurde.
Bild: keystone
«Blut an den Händen» – Ex-Mitarbeiterin publiziert, was Facebook geheim halten wollte
Ein internes Memo einer ehemaligen Facebook-Mitarbeiterin wirft der Führungsetage vor, politische Manipulationen durch Bot-Netzwerke zu ignorieren. Mit teils tödlichen Folgen.
Um was geht's?
Eine mittlerweile entlassene Datenwissenschaftlerin von Facebook, Sophie Zhang, erhebt schwere Vorwürfe an die Adresse ihres ehemaligen Arbeitgebers. Facebook habe unzählige Beweise dafür ignoriert, dass Fake-Accounts auf ihrem Netzwerk massiven Einfluss auf Wahlen und politische Angelegenheiten ausübten.
Zhang wurde Anfangs September entlassen und publizierte an ihrem letzten Arbeitstag ein 6600 Wörter langes internes Memo, welches dann «Buzzfeed News» zugespielt wurde.
Zhang deutete an, dass sie gefeuert wurde, weil sie das obere Management mit ihren Bedenken konfrontierte. Ihr sei gesagt worden, sie solle aufhören, sich mit Themen zu beschäftigen, die den Rahmen ihres Zuständigkeitsbereichs sprengen. Zhang war zuständig für das Analysieren von «koordiniertem, nicht authentischem Verhalten», Facebooks Ausdruck für Bot-Netzwerke und andere koordinierte Aktivitäten mit dem Ziel, Wahlergebnisse zu beeinflussen und politische Kandidaten zu unterminieren.
Aus dem Memo geht ebenso hervor, dass Zhang ein Abfindungspaket in der Höhe von 64'000 Dollar abgelehnt hat. Dies, weil es eine Nicht-Verleumdungs-Klausel beinhaltete, die es ihr verboten hätte, öffentlich über das Unternehmen zu sprechen.
Was sind die Vorwürfe?
«Während den drei Jahren, die ich bei Facebook verbracht habe, habe ich mehrere krasse Versuche ausländischer Regierungen vorgefunden, unsere Plattform in grossem Massstab zu missbrauchen, um ihre eigenen Bürger in die Irre zu führen», schreibt Zhang in ihrem Memo und bilanziert: «Ich weiss, dass ich inzwischen Blut an meinen Händen habe.»
Nichts Neues, könnte man meinen. Diese Vorwürfe an die Adresse von Facebook sind bekannt. Aber Zhang liefert auch konkrete Beispiele.
«Buzzfeed» hat einige der heftigsten Anschuldigungen zusammengefasst:
- Die Chef-Etage von Facebook brauchte neun Monate, um auf eine koordinierte Kampagne zu reagieren, «die Tausende nicht authentische Assets [a.k.a. Bots] nutzte, um den Präsidenten Juan Orlando Hernandez von Honduras massiv zu stärken und das honduranische Volk in die Irre zu führen.» Zwei Wochen nachdem Facebook dagegen vorgegangen sei, sind die Bots zurückgekehrt und Zhang lieferte sich mit den Operatoren dahinter ein Katz-und-Maus-Spiel. Die Bots sind heute noch aktiv.
- In Aserbaidschan entdeckte Zhang, dass die regierende politische Partei «Tausende Bots nutzte, um die Opposition massiv zu schikanieren.» Facebook untersuchte das Problem erst ein Jahr nachdem Zhang darüber berichtet hatte. Die Untersuchung ist noch nicht abgeschlossen.
- Zhang und ihre Kollegen entfernten «10,5 Millionen Fake-Reaktionen und Fans von hochrangigen Politikern in Brasilien und den USA bei den Wahlen im 2018.»
- Im Februar 2019 informierte ein NATO-Forscher Facebook darüber, dass er «russische Bot-Aktivitäten auf dem Profil eines hochrangigen US-Politikers entdeckte, von denen Facebook nichts mitgekriegt hatte.» Zhang entfernte die Aktivitäten, indem sie «das Feuer sofort löschte», schreibt sie.
- In der Ukraine fand Zhang «gescriptete nicht authentische Aktivität», die sowohl die Pro-EU-Kandidatin Julia Timoschenko als auch den ehemaligen Premier und Verbündeten Poroschenkos, Wolodymyr Hrojsman, unterstützte. «Wolodymyr Zelenksy und seine Fraktion waren die einzige grosse Gruppe, die nicht betroffen war», sagte Zhang über den derzeitigen ukrainischen Premier.
- In Bolivien entdeckte Zhang Bot-Aktivitäten, die die Opposition unterstützte, entschied sich aber «nicht dafür, diese zu priorisieren», weil sie mit Arbeit ausgelastet war. Monate später versank die bolivianische Politik im Chaos, was zum Rücktritt von Präsident Evo Morales und Massenprotesten führte. Dabei kamen Dutzende Menschen ums Leben.
- Nachdem sie während der Corona-Pandemie von koordinierter Manipulation auf der Facebook-Seite des spanischen Gesundheitsministeriums erfahren hatte, half Zhang dabei, 672'000 gefälschte Konten zu finden und entfernen, die «weltweit ähnliche Ziele verfolgten», so auch in den USA.
- In Indien war sie daran beteiligt, ein «politisch ausgeklügeltes Netzwerk von mehr als tausend Akteuren» zu entfernen, das die Lokalwahlen in Delhi im Februar zu beeinflussen versuchte. Facebook hat dieses Netzwerk nie öffentlich erwähnt – auch nicht, dass es entfernt wurde.
Weil darin auch persönliche Infos über Zhang erhalten sind, hat Buzzfeed davon abgesehen, das Memo in voller Länge zu publizieren. Aus dem Memo geht auch hervor, dass Zhang nicht unbedingt wollte, dass dieses an die Öffentlichkeit gerät:
«Ich sehe mich selbst in eine unmögliche Lage versetzt – hin- und hergerissen zwischen meiner Loyalität gegenüber dem Unternehmen und meiner Loyalität gegenüber der Welt als Ganzes. Das Letzte, was ich tun möchte, ist, von unseren Bemühungen für die bevorstehenden US-Wahlen abzulenken. Aber ich weiss, dass dieser Post dies intern wahrscheinlich tun wird.»
Hier liegen laut Zhang die Probleme
Die Datenwissenschaftlerin selbst glaubt nicht, dass Facebook diese Manipulationen mit schlechter Absicht zulässt. Das Problem sei schlicht ein Mangel an Ressourcen. Dazu komme Facebooks Tendenz, sich auf globale Bot-Aktivitäten zu fokussieren, die ein Risiko für das Image von Facebook darstellen. «Kleinere» Angelegenheiten wie nationale Beeinflussungen fänden dabei wenig Raum – weil es sich verhältnismässig um kleine Netzwerke handle.
«Es ist ein offenes Geheimnis, dass Facebooks kurzfristige Entscheidungen weitestgehend durch PR und Furcht vor negativer Aufmerksamkeit motiviert sind», schreibt Zhang. Erst wenn genug medialer Druck aufgebaut würde, unternehme Facebook etwas gegen Manipulationen.
Ein weiteres Problem, das Zhang beschreibt, sind die internen Kommunikationswege. Wenn sie eine verdächtige Aktivität entdecke und diese dann über den offiziellen Weg melde, werde sie ignoriert. Erst wenn man via internem Message Board auf ein Problem aufmerksam mache und Druck aufbaue, werde man wahrgenommen. Sie sagte dazu:
Wie reagiert Facebook?
Gegenüber Buzzfeed sagte Facebook-Sprecherin Liz Bourgeois: «Wir haben spezialisierte Teams aufgebaut, die mit führenden Experten zusammenarbeiten, um böswillige Akteure zu stoppen. Daraus resultierte das Entfernen von über 100 Netzwerken, die nicht authentisches Verhalten koordinieren.»
Weiter heisst es: «Wir untersuchen jedes Problem mit Sorgfalt – auch jene, die von Frau Zhang erwähnt wurden – bevor wir Massnahmen ergreifen oder als Unternehmen öffentlich Behauptungen aufstellen.» (jaw)
«Hate Speech» bei Facebook – was toleriert wird, und was nicht
Dürfen Facebook-Nutzer «Asylanten raus» fordern und Flüchtlinge als «faule Räuber und Diebe» bezeichnen, «die unser Land überschwemmen»? Die Antwort lautet ... EPA/EPA / KOCA SULEJMANOVIC
... Ja. Zwar bilden Flüchtlinge für Facebook eine «quasi geschützte Gruppe». Doch geniessen sie weniger Schutz als andere, vollständig geschützte Gruppen wie etwa «Rasse» (Race), Ethnie oder nationale Herkunft. EPA/EPA / MOHAMMED BADRA
Facebook hält das Grundrecht der freien Meinungsäusserung auch für verächtliche Postings hoch. Demnach ist erlaubt zu schreiben, dass man Migranten für faul und für dreckige Diebe und Räuber hält, die nur nach Europa kommen, um die Sozialsysteme auszubeuten. AP/AP / Ferdinand Ostrop
Facebook hält in der internen Definition zu der «Quasi Protected Category (QPC)» der Migranten fest, dass es nicht auf deren Motivation ankomme.
Die Bestimmungen zu Hassreden («Hate Speech») gelten für Menschen, die vor Kriegen und Naturkatastrophen flüchten, aber auch für Wirtschaftsflüchtlinge. kaltura://1789921/178992100/71000/1_4yjt7uy2 / reuters-video
Interessant sei die Fussnote zum internen Facebook-Dokument, hält die «Süddeutsche Zeitung» fest. Darin heisse es: «Flüchtlinge sind eine verletzliche Gruppe, und wir wollen entwürdigende Kommentare entfernen, die sich gegen sie richten. Gleichzeitig wollen wir eine breite gesellschaftliche Debatte über Migration ermöglichen, ein wichtiges Thema in den kommenden Wahlkämpfen.» EPA DPA / MARTIN SCHUTT Unangetastet bleiben sollen gemäss den internen Facebook-Richtlinien auch andere erniedrigende Postings, wenn sie sich gegen Migranten richten ... ap/ap / MOHAME BEN KHALIFA
... und nicht gegen Engländer, US-Amerikaner oder Schweizer. Denn die nationale Herkunft gehört zu einer von acht geschützten Facebook-Kategorien (im Gegensatz zu den Ländern selbst).
Geschützt werden sollen die Migranten aber bei eindeutigen Drohungen. Solche Äusserungen sollen die Facebook-Moderatoren löschen. EPA/EFE / MIGUEL PAQUET
Gelöscht werden sollen auch entmenschlichende Zuschreibungen, wie zum Beispiel: «Migranten sind dreckige Kakerlaken, die unser Land überschwemmen.»
Dürfen Facebook-Nutzer dazu aufrufen, dicke Menschen umzubringen? shutterstock / shutterstock
Das wird in der Tat toleriert. Da das Körpergewicht ein veränderliches Merkmal sei, zählt Facebook Hass-Postings gegen Fettleibige nicht als Hassrede, die gelöscht werden muss. Gleiches gilt für Alter, Beruf, Haarfarbe und viele andere Eigenschaften.
Vor Hassrede geschützt sind weder Reiche und Arme ...
... noch US-Demokraten, Kommunisten oder Grüne.
Die anderen sieben geschützten Kategorien sind: Geschlecht (Gender), sexuelle Orientierung, Rasse, Ethnie sowie schwerwiegende und dauerhafte Behinderungen oder Krankheiten.
Wenn eine der genannten Gruppen bedroht, beleidigt, herabgesetzt oder ausgegrenzt wird, soll der entsprechende Beitrag von den zuständigen Moderatoren entfernt werden. Allerdings muss der Beitrag von einem Facebook-User «gemeldet» worden sein.
Kompliziert wird es, sobald unterschiedliche Kategorien zusammenfallen. Was ist mit «Bringt alle Muslime um»? Laut Facebook-Regelung ... AP / OSMAN ORSAL
... ein klarer Fall: Religiöse Überzeugung zählt zu den geschützten Kategorien, solche Äusserungen werden nicht toleriert. KEYSTONE / PETER KLAUNZER
Gelöscht werden muss auch: «Bringt alle muslimischen Flüchtlinge um!» Hingegen ... AP/AP / Bernat Armangue
... erlaubt ist «Bringt alle muslimischen Lehrer um», ebenso Gewaltaufrufe gegen muslimische Arbeitslose, Teenager, Dunkelhaarige, Reiche oder Fettleibige. AP/AP / Bernat Armangue
Was ist mit «Alle Terroristen sind Muslime»? Gemäss Facebook-Regelung ... AP/AP / Bernat Armangue
... ist dies eine zulässige Aussage, da Terroristen keine geschützte Gruppe sind. AP/AP / Giannis Papanikos
Gelöscht werden müsste dagegen: «Alle Muslime sind Terroristen». EPA/EFE / Quique Garcia
Elend kompliziert, ja! Dieses Flussdiagramm soll Facebook-Moderatoren instruieren, wie sie vorgehen müssen, wenn geschützte Gruppen bedroht oder beleidigt werden.
Die Mehrheit der Facebook-User bleibt im Unklaren. Vage formuliert finden sich die Regeln auch in den öffentlichen «Gemeinschaftsstandards» von Facebook.
Facebook überlegt Werbung auf WhatsApp zu schalten
Video: SRF / Roberto Krone
Das könnte dich auch interessieren: