Flüchtlinge sind «Pack», Politiker «Volksverräter» und kriminellen Ausländern sollte man am besten mit «Zyankali» zu Leibe rücken. Was in sozialen Netzwerken gepostet wird, ist für den Leser, der zufällig drüber stolpert, meist schwer verdaulich. Facebook bietet zwar die Möglichkeit an, Hasskommentare zu melden. Die Mühlen im Menlo Park und in den jeweiligen Ablegern mahlen aber langsam.
Kommt hinzu, dass sich Facebook und Co. noch immer schwer tun, rassistische und extremistische Beiträge zu sanktionieren. Das sich am amerikanischen Liberalismus orientierende Modell der Meinungsäusserungsfreiheit in den sozialen Netzwerken ist äusserst grosszügig. Nur bei erotischen und pornografischen Einträgen kennen die Sittenwächter meist kein Pardon: Bei einem entblössten Busen schrillen die Alarmglocken noch immer schneller als bei einem Aufruf zum Abfackeln eines Flüchtlingsheims.
Im vergangenen Herbst, als die Flüchtlingskrise die Stimmung in den sozialen Netzwerken angeheizt hat, hat Facebook die Notwendigkeit erkannt, der Flut an sozialen Kommentaren stärkere Wellenbrecher entgegenzusetzen. Mit viel Brimborium wurde eine neue Strategie angekündigt. Anstatt die Arbeit professionellen Netzwächtern zu überlassen, sollten die User selber aktiv werden und den krakeelenden Hasspostern Argumente entgegensetzen.
Counter Speech nennt sich das Modell. Die Idee dahinter ist, dass eine Art sozialer Kontrolle im Netz entwickelt wird: Den mit wenig Fakten und dafür umso mehr Emotionen unterlegten Kommentaren sollten rationale Argumente entgegengebracht werden.
Der Medienwissenschafter Florian Büchel sagte im Interview mit SRF im Februar: «Mit der Gegenrede wird auf gesellschaftlich verankerte Normen abgezielt. Anderen Leuten, die mitlesen, wird vermittelt: Hier hat jemand gegen diese Normen verstossen und wird deshalb intellektuell sanktioniert.»
Die Wissenschaft hat sich des Phänomens schon früher angenommen: Eine der vehementesten Verfechterinnen von Counter Speech ist Susan Benesch, Professorin an der Harvard University und Gründerin des Dangerous Speech Projects. Benesch plädiert für Zurückhaltung bei Zensur und für ein stärkeres Engagement der Zivilgesellschaft.
«Ich glaube, es ist möglich, die Diskursnormen zu verschieben und so die Leute, das Netzpublikum, dahingehend zu beeinflussen, was akzeptabel ist und was nicht.» Zensur würde umgekehrt die Hassposter in ihrem Gefühl nur bestärken und zur – noch heftigeren – Gegenreaktion führen: Die da oben kontrollieren, was wir sagen dürfen. Das können wir uns nicht bieten lassen.
Facebook-CEO Sheryl Sandberg geht noch weiter: Sie glaubt, mit einer Like-Offensive gar junge, für die Heilsversprechen des islamistischen Extremismus empfängliche Leute umstimmen zu können.
Wer selber schon einmal versucht hat, mit Hasskommentatoren – seien es nun Rechtsextreme oder islamistische Fundamentalisten – in einen Dialog zu treten, weiss, wie nervenaufreibend sich das gestalten kann.
Im schlechtesten Fall entlädt sich als Reaktion auf die eigenen Worte eine Flut hasserfüllter Kommentare in der eigenen Timeline. Im besten Fall entspinnt sich eine Diskussion, die ihren Namen verdient. In der Mehrzahl der Fälle aber spricht man gegen eine Wand: Die eigenen Argumente prallen an der unverrückbaren Weltsicht des Gegenübers ab – es ist, als wäre man unsichtbar.
In der Facebook-Timeline der NZZ hat sich unlängst ein solches Schauspiel ereignet. Unter einem Artikel über den neuen österreichischen Präsidenten Alexander Van der Bellen kämpfte der Social-Media-Redaktor der alten Tante eine verzweifelte Abwehrschlacht gegen wildgewordene Kommentatoren rechter wie linker Couleur.
Am Schluss streckte der Redaktor entnervt die Waffen. Die Trolle erwiesen sich als geduldiger. So sie denn überhaupt menschlich sind. Computergesteuerte Benutzer, sogenannte Bots, machen mittlerweile einen Gutteil der Bevölkerung in den sozialen Netzwerken aus. Experten schätzen, dass rund 20 Prozent aller Twitter-Accounts auf künstlicher Intelligenz basieren, Facebook selber geht von rund 15 Millionen Bots in der Online-Welt aus. Das Potenzial für staatliche und terroristische Propaganda aus der Computerfabrik ist immens, wie die FAZ vorrechnet.
Counter Speech oder Don't feed the Troll? Letzteres sei keine Option, meint Büchel im SRF-Interview. «Wenn man nicht mitdiskutiert, sind am Ende irgendwann nur noch Trolle da, die sich gegenseitig auf die Schulter klopfen.» (wst)