Vor rund einer Woche postete Madonna eine Reihe freizügiger Fotos. Die 63-Jährige posiert in Dessous und Netzstrümpfen. Auf manchen Bildern blickte ein Nippel hervor. Das lief der eher prüden Politik von Instagram zuwider. Der Online-Dienst reagierte umgehend und löschte die erotischen Bilder. Darstellungen von Nacktheit sind auf Facebooks Plattformen nicht zulässig.
Das gilt für Bilder und Videos, auf denen Geschlechtsverkehr, Genitalien sowie weibliche Brustwarzen, welche nicht in gesundheitsbezogenen Kontexten (etwa beim Stillen) stehen, zu sehen sind.
Die Fotos seien «ohne Vorwarnung oder Benachrichtigung» entfernt worden, gab die Queen of Pop bekannt. Nach der Bildentfernung lud die Sängerin die Bilder erneut hoch. Mit einem kleinen Unterschied: sie überdeckte ihre Brustwarzen mit einem Herzchen.
«Ich finde es immer noch erstaunlich, dass wir in einer Kultur leben, die es zulässt, dass jeder Zentimeter des weiblichen Körpers gezeigt wird, ausser die Brustwarze. Als ob das der einzige Teil der weiblichen Anatomie wäre, der sexualisiert werden könnte», schrieb die 63-Jährige.
Instagram akzeptiere die zensierte Version und liess auch die Diskussion zum Thema #FreetheNipple in der Kommentarspalte zu.
Auf coronaskeptische Beiträge reagiert das Unternehmen weniger radikal. Im Allgemeinen gilt: Beiträge, deren Inhalte zwar falsch sind, die aber nicht gegen die Richtlinien von Instagram verstossen, werden nicht sofort gelöscht.
Der Onlinedienst setze bei skeptischen Corona-Beiträgen stattdessen auf eine andere Strategie: auf den Faktencheck. Um Inhalte als wahr und unwahr einzuordnen, arbeitet der Konzern mit unabhängigen Faktenprüfern aus aller Welt zusammen, die Content in mehr als 60 Sprachen analysieren und auswerten.
Der Faktencheck wurde nicht zufällig in Zeiten der Corona-Pandemie ins Leben gerufen. Falschinformationen haben seit dem Ausbruch des Virus auf allen Social-Media-Kanälen drastisch zugenommen. Doch das damals noch neuartige Virus war nicht der eigentliche Grund für das neue Programm. Vielmehr entstand das Konzept der Meta-Plattform aufgrund der Vorwürfe, bei Wahlkampagnen nicht genug unternommen zu haben, um die gezielte Verbreitung von Desinformationen zu stoppen.
Mit Stoppen meint der Konzern aber nicht per se das Entfernen von Falschmeldungen. Sondern nur das Einschränken. Konkret bedeutet das: Inhalte, welche von den Faktencheckern als falsch eingestuft wurden, verschwinden nicht immer von der Plattform.
Stattdessen werden Fehlinformationen in ihrer Reichweite eingeschränkt und erhalten eine Art Etikette. Unterhalb des Beitrags poppt dann ein Warnhinweis auf.
Der Meta-Konzern hat verschiedene Bewertungskriterien festgelegt, um die Fakten einzuordnen. Darunter: «Falsch», «Verfälscht», «Teilweise falsch» oder «Fehlender Kontext».
Neben der Kennzeichnung erscheint auch eine Verlinkung zu einem Beitrag, welcher die Behauptung widerlegt.
Gemäss eigenen Angaben wird der geprüfte Beitrag nicht mehr unter einem Hashtag angezeigt, was die Reichweite des Posts einschränkt. Follower können den Beitrag hingegen immer noch sehen – und beliebig weiter verbreiten. Der Warnhinweis zieht aber mit.
Wer vermehrt Beiträge mit falschem Inhalt verbreitet, wird nicht deaktiviert, sondern bestraft, in dem das Konto an Sichtbarkeit verliert. So sieht es der Konzern vor. Bis dies eintritt, ist Instagram neben cleveren Algorithmen auch auf Hilfe der Nutzer angewiesen.
Denn die ganze Flut an Fehlinformationen lässt sich ohne die Hilfe der User und Userinnen schwer bewältigen. Um auf fehlerhafte Inhalte aufmerksam zu werden, nutze man moderne Technologien. Welche das sind, gibt der Konzern nicht preis.
Klar ist: Künstliche Intelligenz alleine kann nicht alle Desinformationen herausfiltern. Instagram ist deshalb auch auf die Hilfe seiner Nutzer und Nutzerinnen angewiesen, in dem diese Beiträge melden. Hinweise werden danach an die externe Stelle zur Prüfung weitergegeben. Sobald die Inhalte geprüft wurden, erfolgt dann der Warnhinweis.
Das nimmt sehr viel Zeit in Anspruch. Warum geht man nicht den schnelleren Weg und drückt gleich auf den Lösch-Button – so wie man das auch mit den Nippelbildern macht?
Diese lassen sich zwar einfacher erkennen, aber auch bei Nippelbildern sind schon Beiträge aufgrund des Algorithmus zu Unrecht entfernt worden. Eine gewisse Fehlerquote gibt es schliesslich überall – bei Coronatests und bei Algorithmen.
Aber zurück zur Scheinwelt. Instagram möchte allen eine Plattform geben, um zu diskutieren, zu debattieren, über persönliche Erfahrungen zu sprechen und um wissenschaftliche Erkenntnisse zu teilen.
Damit sich die User umfassend informieren können, werden alle Beiträge, die im Zusammenhang mit Covid-19 stehen, mit einem Link auf die lokale Gesundheitswebseite versehen.
Die Gemeinschaftsrichtlinien sehen grundsätzlich vor, dass Beiträge erst gelöscht werden, wenn Gesundheitsbehörden zum Schluss kommen, dass sie falsch sind und zu drohender Gewalt oder körperlichen Schäden beitragen.
Rund ein Jahr nach Ausbruch der Pandemie und mit dem Start der weltweiten Impfkampagne verschärfte der Konzern seine Richtlinien. Der Konzern gab bekannt, dass man Falschmeldungen schneller aus dem Netz nehmen wolle. Jegliche Verschwörungstheorien über Impfstoffe, von denen man wisse, dass sie falsch sind, sollen sofort entfernt werden.
Dazu gehören Behauptungen wie:
Doch setzt Facebook seine eigenen Richtlinien überhaupt um? Kritiker verneinen dies. Anfang des Jahres schrieb die britische Non-Profit-Organisation «Center for Countering Digital Hate»: «Facebook hat versprochen, gegen Fehlinformationen im Zusammenhang mit Covid-19 und Impfstoffen vorzugehen. Jedes Mal scheitert es daran, den Ankündigungen auch Taten folgen zu lassen.»
Und auch Präsident Joe Biden übte harsche Kritik. Der Konzern würde zu wenig gegen Falschinformationen vorgehen und warf Facebook und Co. vor, für den Tod von Menschen verantwortlich zu sein, in dem sie die Verbreitung von Fehlinformationen zum Thema Covid-19 ermöglichten.
In einem Interview reagiert Facebook-Gründer und -CEO Mark Zuckerberg auf die Anschuldigungen. «Wenn wir schädliche Fehlinformationen auf unseren Plattformen entdecken, dann entfernen wir sie.»
Mehr als 18 Millionen Beiträge mit Fehlinformationen über Covid-19 seien bereits von den Meta-Plattformen entfernt worden. Wie viele Personen die Fehlinformationen gesehen oder verbreitet haben, kann oder will Zuckerberg nicht sagen.
Aber erwischt der Konzern alles? «Natürlich gibt es Fehler oder Bereiche, in denen wir uns verbessern müssen», räumt der 37-Jährige ein.
Und ja, dieser Kommentar ist nicht ganz ernst gemeint.