Mark Zuckerberg bei einer Anhörung Ende Oktober. Der politische Druck auf ihn nimmt zu.
Bild: AP
«Sagen Sie Ihren Eltern, sie sollen ihre Meinung nicht auf Facebook bilden»
Facebook hat seine Investoren mit Blick auf die US-Wahlen im kommenden Jahr über Massnahmen zum «Schutz des demokratischen Prozesses» informiert. «Wir haben eine Verantwortung, Missbrauch und Einmischung in Wahlen auf unserer Plattform zu stoppen», teilte der Konzern am Donnerstag mit.
Die aufstrebende US-Politikerin Alexandria Ocasio-Cortez (AOC) hält davon nichts. Ende Oktober hatte sie Mark Zuckerberg an einer öffentlichen Anhörung gefragt, ob sie in einer bezahlten, bei Facebook geschalteten Wahlwerbung eine Lüge posten dürfe? Der Facebook-Chef zauderte und wollte vor laufendem Mikrofon keine Antwort geben.
Wenn der CEO des Unternehmens selbst grundlegende Antworten nicht geben könne auf wirklich kritische Fragen, die die Integrität der Präsidentschafts-Wahlen 2020 betreffen, dann sei das Land in richtig grossen Schwierigkeiten, sagte die US-Demokratin in einem TV-Interview. Und an das amerikanische Publikum gerichtet, riet die 30-Jährige:
Der öffentliche Druck auf Zuckerberg nimmt zu
In Irland sind diese Woche Parlamentarier aus zehn Ländern zusammengekommen, um den Kampf gegen Desinformation und Fake News zu koordinieren. Es war bereits die dritte Sitzung des International Grand Committee (IGC).
Ziel des Treffens ist es, die internationale Zusammenarbeit zu stärken, um Social-Media-Firmen zur Einhaltung der Gesetze zu verpflichten und demokratische Prozesse zu schützen, «bei gleichzeitiger Wahrung der Meinungsfreiheit».
Der Facebook-Chef wollte nicht persönlich zu einer Anhörung erscheinen, sondern schickte eine Vertreterin. So lag es am Donnerstag an Monika Bickert, Leiterin des Bereichs Produktpolitik, die Entscheidung von Facebook zu rechtfertigen, bezahlte politische Werbung zu erlauben.
Facebooks Verteidigungsstrategie ist es, sich als technische Plattform und nicht als Medienunternehmen darzustellen, das für die verbreiteten Inhalte verantwortlich ist. Und man wolle das gesamte politische Meinungsspektrum abbilden.
Das renommierte US-Magazin «The New Yorker» hatte es Ende Oktober auf den Punkt gebracht.
«Facebook war noch nie eine neutrale Plattform; es ist ein Unternehmen, dessen Geschäftsmodell davon abhängt, seine Nutzer zu überwachen, ihr Verhalten zu ändern und zu manipulieren und ihre Aufmerksamkeit an den Höchstbietenden zu verkaufen.»
quelle: newyorker.com
Diese Massnahmen sollens laut Facebook bringen
Zu den Massnahmen, mit denen Facebook politisch motivierte Manipulationsversuche verhindern will, gehören ein besserer Schutz der Facebook-Konten gewählter Amtsträger und die klare Kennzeichnung, wer für politische Seiten und die Websites staatlicher Medien verantwortlich sei.
Ausserdem sollen Videos und Artikel, die von unabhängigen Faktenprüfern als Falschinformation eingeordnet wurden, deutlicher gekennzeichnet werden, hiess es weiter von Facebook. Die Massnahmen waren grösstenteils bereits im Oktober von Facebook-Chef Mark Zuckerberg angekündigt worden.
Seit der US-Wahl 2016 stehen die grossen Online-Netzwerke unter erheblichem Druck, gegen die massive Verbreitung von inhaltlich falschen sowie manipulativen politischen Botschaften vorzugehen.
Laut Erkenntnissen der US-Geheimdienste wurde damals von Russland aus eine intensive Manipulationskampagne zugunsten des späteren Wahlsiegers Donald Trump geführt, für die auch die Online-Netzwerke eingesetzt wurden.
(dsc/sda/afp)
Was Facebook erlaubt – und was gelöscht wird
Facebook-User dürfen detailliert beschreiben, wie man «einer Schlampe das Genick bricht», hingegen ist ihnen nicht erlaubt, dazu aufzurufen, den US-Präsidenten Donald Trump zu erschiessen. Dies wissen wir dank internen Facebook-Dokumenten, die der britische «Guardian» veröffentlicht hat. EPA/EPA / RITCHIE B. TONGO Das ist ein Screenshot aus Schulungsunterlagen für Content-Moderatoren. Also für die Leute, die für Facebook die Drecksarbeit erledigen und Postings überprüfen.
Bei den «Moderatoren» herrscht laut «Guardian»-Informanten Verunsicherung. Oft müssten sie unter enormem Zeitdruck entscheiden, ob Inhalte problematisch sind. EPA/EPA / RITCHIE B. TONGO
Die von Unbekannten geleakten Schulungsunterlagen machen vor allem eines klar: Es gibt keine pauschalen Vorgaben, sondern jeder Fall ist einzeln zu beurteilen. Ein schwieriges Unterfangen, weil nur sehr wenig Zeit zur Verfügung steht. AP/AP / Paul Sakuma
Der Entscheid, ob etwa ein Bild mit Gewalt gegen Kinder aus Sicht von Facebook ein Problem darstellt, ist für den Moderator alles andere als einfach zu bewältigen. Laut «Guardian» kann die Darstellung toleriert werden, falls die Gewalt kein sadistisches Element enthalte oder nicht zelebriert werde. AP/AP / Aaron Favila
Mit grünem Haken heisst zulässig, ein rotes Kreuz bedeutet «Löschen». Die Drohung, «HUNDERTE zu töten», ist demnach tolerierbar.
Neben Gewalt-Inhalten geht es um nackte Körper. Hier gilt: Gezeichnete Nacktheit ist gemäss Facebook-Management okay, fotografierte Nacktheit aber nicht. EPA/MOSSGREEN / MOSSGREEN HANDOUT
Zu «Rache-Pornos» gibt's relativ schwierige Vorgaben: Gelöscht wird, wenn das Foto erkennbar im privaten Umfeld aufgenommen wurde, wenn die gezeigte Person ansatzweise nackt ist und durch den Kontext klar wird, dass die Aufnahme ohne Zustimmung aller Beteiligten bei Facebook veröffentlicht wurde.
Auch bei Tierquälerei, respektive der Darstellung von Gewalt gegen Tieren, kommt es laut Facebook-Interna ebenfalls auf den Kontext an. Als Foto muss die Darstellung nicht gelöscht werden, als Video wird es zumindest als «aufwühlend» markiert, um Betrachter vorzuwarnen.
Mark Zuckerbergs Social-Media-Konzern war zuletzt wegen Live-Streams von Gewalttaten (Facebook Live) in die Kritik geraten. AP/AP / Eric Risberg
In Thailand musste eine Frau mitansehen, wie ihr Kind ermordet wurde. EPA/EPA / STR
Manchmal äussern Facebook-User auch Suizidabsichten. In den internen Schulungsunterlagen heisst es: «Wenn es nicht offensichtlich ist, dass sie Hilfe brauchen, ignoriere den Inhalt einfach.» AP/AP / Eric Risberg
Die Darstellung von Suizid-Versuchen sei ein grosses Dilemma, denn: Facebook will den Nutzern auch in Zukunft erlauben, solche Handlungen live zu streamen. Erklärend heisst es: «Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie – diese zu entfernen könnte verhindern, dass sie gehört werden.» AP/Erie Times-News / Greg Wohlford
Facebook hat fast zwei Milliarden Mitglieder. Kürzlich gab das US-Unternehmen bekannt, dass zu den rund 4500 Mitarbeitern, die als Moderatoren problematische Inhalte kontrollieren und gegebenenfalls löschen, 3000 hinzukommen sollen. AP/AP / Paul Sakuma
Twitter und Facebook über russischen Einfluss bei US-Wahlen
Video: SRF / Roberto Krone
Warum Facebook nicht zu trauen ist