Als Twitter genug hatte, musste Donald Trump schweigen. Der US-Kurznachrichtendienst stellte den mächtigsten Mann der Welt kurzerhand stumm. Obwohl Trump demokratisch gewählt war. Obwohl strafrechtlich nichts gegen ihn vorlag. Nach dem Sturm aufs Capitol verlor der US-Präsident den Kommunikationskanal, mit dem er die Welt auf Trab gehalten hatte.
Noch 2016 soll Russland mit Millionen von Kommentaren und Einträgen auf sozialen Netzwerken den US-Wahlkampf zugunsten von Trump beeinflusst haben.
Weitere Beispiele gefällig?
Aus der Schweiz berichten Impf- oder Covid-skeptische Kreise von gelöschten Facebook-Kommentaren oder gar von gesperrten Konten. Gewisse impfkritische Gruppen sind mit der Suchfunktion nur schwer zu finden. Auch wer sie bewusst sucht, wird zuerst auf offizielle Institutionen verwiesen.
Soeben legte sich Facebook mit der australischen Regierung an. Sie wollte Facebook dazu zwingen, eine Abgabe an die Medienhäuser zu bezahlen, weil Facebook von deren Inhalt profitiert. Der Konzern drohte an, die Nachrichtenseiten zu sperren. Nun wird vermittelt.
US-Konzerne wie Facebook und Twitter haben grossen Einfluss auf die öffentliche Debatte. Sie entscheiden, was für Meinungsbeiträge die Nutzer zu sehen bekommen – oder eben nicht. Sie selektionieren, filtern und gewichten Informationen. Sie entscheiden aufgrund von Marktmacht und Dominanz mit, was sagbar ist und was nicht. Auch in der Schweiz.
Sie bestimmen nach privaten Regeln, wie weit die Meinungsfreiheit auf ihren Portalen gehen kann. Und deshalb könnten sie eine Gefahr sein für die Demokratie, die von der freien Debatte lebt. Zu diesem brisanten Schluss kommen, unabhängig voneinander, mehrere Schweizer Juristen, die sich im Auftrag des Bundes mit dem Thema befasst hatten.
In einem soeben publizierten Bericht hält etwa der Lausanner Jurist und Universitätsdozent Sylvain Métille fest: Es sei ein Risiko für die Demokratie, dass einige wenige Konzerne die Macht hätten, Informationen auszuwählen und zu kontrollieren.
Derzeit ist der Bund daran, genauer zu untersuchen, welchen Einfluss Google, Facebook & Co bei der Herstellung von Öffentlichkeit in der Schweiz haben. In der zweiten Jahreshälfte soll dem Bundesrat ein umfassender Bericht vorgelegt werden. Die Vorbereitungen dazu laufen bereits auf Hochtouren. Es wurden in den letzten Wochen und Monaten und Monaten gleich mehrere Grundlagenpapiere veröffentlicht. Darin raten die Experten zu staatlicher Intervention – und neue Regeln, um die demokratische Debatte in der Schweiz zu schützen.
Zwar dürfte es noch Jahre dauern, bis dereinst vielleicht Regelungen vorliegen. Die Schweiz beobachtet derzeit genau, was andere Länder tun. Wohin der Weg gehen könnte, zeigen die Experten bereits auf. Aus ihrer Sicht müssen die Konzerne transparenter werden, damit freie öffentliche Debatte garantiert. Sie müssen veröffentlichen, wann und warum Posts gelöscht werden. Tendenziell, so der Basler Staatsrechtler Markus Schefer in einem Bericht, würden die Einschränkungen regelmässig weitergehen, «als sie nach rechtlichen Standards möglich und zulässig wären.» Schefers Fazit:
Deshalb brauche es Massnahmen, die sicherstellen würden, «dass Personen, die Inhalte als zu Unrecht gelöscht ansehen, sich gegen die Löschungen wirksam zur Wehr setzen können.»
Konkret bedeutet dies: Nutzer sollen sich wehren können, wenn in ihren Äusserungen beschnitten werden – wohl bei einer staatlichen Stelle oder einem Gericht. Die Juristen halten es für heikel, dass alleine ein privater Anbieter entscheidet, was sagbar ist, denn für sie ist klar: Im Sinne der freien Meinungsäusserung müssen bis zu einem gewissen Grad auch falsche oder anstössige Dinge gesagt werden dürfen. Dies ist heute kaum der Fall.
Die Richtlinien von Facebook sind restriktiv. Alleine der Satz: «Normalerweise mag ich die Deutschen, aber es gibt eben auch Ausnahmen», gilt für Facebook als anstössig und wird gelöscht. Wehren können sich Betroffene kaum. Oft finden sie nicht einmal einen Ansprechpartner.
Zudem sollen, so die Experten, Nutzer künftig besser nachvollziehen können, warum ihnen Facebook & Co eine gewisse Information anzeigen und eine andere nicht. Sie müssten sich bewusst sein, dass ein Algorithmus ihre Inhalte auswählt – und vielleicht zu Echokammern führt, in denen ihnen immer ähnlicher Inhalt gezeigt wird, aber andere Meinungen komplett fehlen. Teils fordern die Juristen gar, dass Nutzer ganz auf eine personalisierte Vorauswahl der Inhalte verzichten sollen können.
Allerdings dürften die Vorhaben Diskussionen auslösen. Denn das Regulierungsvorhaben ist heikel, soll doch der Staat mitentscheiden, was sagbar ist und was nicht. Alleine in den vergangenen Jahren hatte die Rassismus-Strafnorm oder zuletzt das Diskriminierungsverbot gegen Homosexuelle für breite Debatten gesorgt – und gezeigt: Wie weit die Meinungsfreiheit gehen darf, ist von der Gesellschaft auszuhandeln.
Hätte ich Kinder, würde ich spätestens nach dieser Doku deren Mediennutzung sehr genau verfolgen...
Nur um ein Beispiel zu nennen: mit den "Influenzern" wurde eine neue "Berufsgattung" geschaffen. Gut für die Influenzer, schlecht für die "unbedarften" Follower, die nicht mehr unter "real" und "fiktiv" unterscheiden können.
Kurz: Social Media ist nicht mehr "Social Media".