DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Hass-Schleuder Facebook: Man weiss, dass es beim sogenannten Counter Speech nicht darum geht, Trolle umzustimmen – sondern die Mitlesenden durch Argumente zum Nachdenken zu bewegen.
Hass-Schleuder Facebook: Man weiss, dass es beim sogenannten Counter Speech nicht darum geht, Trolle umzustimmen – sondern die Mitlesenden durch Argumente zum Nachdenken zu bewegen.Bild: AP
Interview

Dieser digitale Spürhund aus der Schweiz sucht Hasskommentare – und du kannst helfen

Das Schweizer Projekt «Stop Hate Speech» will Pionierarbeit leisten bei der Bekämpfung von Gewalt. Die Co-Projektleiterin Sophie Achermann erklärt, wie das geht. Und was normale User beitragen können.
10.01.2021, 11:2610.01.2021, 12:26

In den USA sorgte diese Woche der Grossmeister des Hate Speech für Schlagzeilen. Derweil ging in der Schweiz das gemeinnützige Projekt stophatespeech.ch online. Die Verantwortlichen haben sich zum Ziel gesetzt, Hasskommentare im Internet einzudämmen. Und zwar auf den grossen Social-Medie-Plattformen wie Facebook und Twitter, aber auch in den Kommentarspalten hiesiger Medienhäuser.

«Hate Speech im Internet ist zu einem globalen Problem geworden. Hilf mit, dagegen anzukämpfen!»

So funktioniert's

Die neue Waffe im Kampf gegen Hasskommentare ist eine Kombination von Mensch und Maschine. Ein Computerprogramm, basierend auf künstlicher Intelligenz, sucht online nach verdächtigen Inhalten und leitet diese zur genaueren Prüfung an ein Team von Freiwilligen weiter. Dabei entscheiden immer mindestens drei Personen, ob sie eine bestimmte Äusserung als problematisch (Hate Speech) einordnen. Bei erkannten sprachlicher Gewalt wird versucht, mit guten Argumenten dagegenzuhalten («Counter Speech»).

In den vergangenen Monaten haben rund 600 Freiwillige den Algorithmus darauf trainiert, Hasskommentare zu erkennen. Dazu wurden laut Mitteilung über 45'000 Postings angeschaut und eingeordnet, damit die Software dazulernt. Und es wurde entschieden, die automatisierte Software als digitalen Spürhund zu präsentieren. Der Name: Bot Dog.

Der digitale Spürhund (Algorithmus) wird fortlaufend trainiert. Darum werden zusätzliche Freiwillige gesucht, die sich auf der Projekt-Website anmelden und mitmachen. Ziel ist es, eine schlagkräftige Community aufzubauen.

«Alle sind willkommen! Unser Ziel ist eine möglichst diverse Community – idealerweise ein Querschnitt aus der Bevölkerung.»
Sophie Achermann

Sophie Achermann ist Geschäftsführerin der Schweizer Frauenorganisation alliance_F und Co-Projektleiterin von Stop Hate Speech. Gegenüber watson nimmt sie zu den Hintergründen Stellung und verrät, wer das Projekt finanziert.

Die wichtigsten Fragen (Interview)

Frau Achermann, Ziel ist es laut Medienmitteilung, die freie Meinungsäusserung und die Medienkompetenz der Bevölkerung zu stärken und das Internet zu einem gewaltfreien Raum zu machen. Was erhoffen Sie sich vom Projekt ganz konkret?
Sophie Achermann: Stop Hate Speech ist ein Präventionsprojekt – wir wollen verhindern, dass Diskussionen digital verrohen. Am Mittwochabend sah die ganze Welt, was im Extremfall passiert, wenn monatelang Hass im Internet geschürt wird. Unkontrollierter Hate Speech ist und bleibt eine Bedrohung für die Demokratie und führt auch zu Gewalt im realen Leben

Computerlinguistisch dürfte das Aufspüren von Hasskommentaren eine grosse Herausforderung sein. Mal abgesehen von Schimpfwörtern/Beleidigungen wird ja häufig relativ subtil (sprachliche) Gewalt ausgeübt. Wie beurteilen Sie die bisherige Effizienz des Bots und wie kann sie weiter gesteigert werden?
Die Linguistik von Hass ist komplex. Wir versuchen nicht nur Hass als solches zu identifizieren, sondern diesen auch im Kontext zu finden. Beispielsweise hat jemand unter einem Artikel einer Westschweizer Zeitung folgenden Kommentar publiziert: «Ich hoffe, dort wo sie hingehen, hat es schöne Duschen.» Das wäre per se unproblematisch. Nur ging es im Artikel um eine jüdischen Familie. Das zeigt, wie wichtig der Kontext im Rahmen von Hate Speech ist.

Bisher hat unser Algorithmus eine Genauigkeit von etwa 80 Prozent. Von zehn Artikeln, die Hate Speech enthalten, erkennt er acht. Weil linguistische Zusammenhänge so vielschichtig sind, liefert er aber immer noch False Negatives – er beurteilt Artikel als problematisch, die es nicht sind. Unsere Community kann Bot Dog deshalb auf unserer Plattform weiter trainieren und mit ihm üben, Hass zu erschnüffeln.

«Unser subjektives Gefühl ist, dass Facebook am schlimmsten ist.»
Sophie Achermann

Ob bei Facebook, oder in den Kommentarspalten hiesiger Online-Medien: Frauen sind überdurchschnittlich von Hasskommentaren betroffen. Warum ist das so?
Forschungen zeigen, dass Frauen viel häufiger als Männer sexualisiert und vulgär angegriffen werden. Sie erhalten Vergewaltigungsandrohungen oder werden mit Stereotypen konfrontiert: Frauen gehören zu Hause in die Küche. Das führt dazu, dass Frauen anders auf Hate Speech reagieren: Sie ziehen sich öfters als Männer aus Online-Diskussionen und Social Media zurück. Spannend sind auch wissenschaftliche Erkenntnisse aus der Gamerszene: Dort wird der Hass gegen Frauen damit begründet, dass sich Männer von den Frauen bedroht fühlen.​

Der Blick in die Trefferliste (potenzieller Hatespeech) zeigt viele Inhalte von Schweizer Gratis-Online-Medien und Tweets, aber keine Facebook-Postings. Warum ist das so?
Sophie Achermann: In ein paar Wochen wird Bot Dog auch die Facebookseiten der Medientitel nach Hass durchsuchen. Wir holen immer zuerst das Einverständnis der Medien ab, bevor wir ihre Artikel oder ihre Social-Media-Portale abgrasen.

Welche Online-Plattformen werden vom Algorithmus bereits erfasst?
Zur Zeit Twitter, blick.ch, nau.ch und 20min.ch. Bald kommen die Online-Portale von weiteren Medien hinzu – wir bauen stetig aus.

Hat das Projekt mehr die grossen Social-Media-Plattformen im Visier, oder die hiesigen Medien?
Grundsätzlich wollen wir dort aktiv sein, wo eine möglichst breite Gesellschaft angesprochen wird. Es zeigt sich aber, dass es nach wie vor mehr Hass auf Social Media gibt. Unser subjektives Gefühl ist, dass Facebook am schlimmsten ist. Das erklärt sich dadurch, dass Medienplattformen für ihren Inhalt die Verantwortung tragen. Wird ein strafrechtlicher Kommentar publiziert – etwa «du sollst sterben» –, kann das Medienunternehmen auch behaftet werden. Bei Facebook ist hingegen unklar, wer genau verantwortlich ist. Das führt sicher auch dazu, dass Facebook-Seiten weniger intensiv kuratiert werden.

Werden auch private Facebook-Gruppen erfasst?
Nein. Wir sind nur auf Seiten aktiv, die viele Leser*innen haben – vor allem junge Menschen, die stark von Hate Speech beeinflusst werden können. Zudem holen wir in jedem Fall eine Einwilligung, bevor wir unseren Algorithmus losschicken.

Was wird bei klar justiziablen Äusserungen unternommen?
Wir empfehlen den Betroffenen, mit dem Verein Netzcourage von Jolanda Spiess-Hegglin Kontakt aufzunehmen. Enthält ein Kommentar Verleumdungen, Bedrohungen oder Rassismus, kann man sich mit rechtlichen Mitteln wehren – Netzcourage sind da die Expertinnen.

Wie wird das Projekt finanziert?
Unser Initialpartner ist Engagement Migros. Wir werden aber auch von der Raiffeisen Jubiläumsstiftung, der Ernst Göhner Stiftung, der Gebert Rüf Stiftung, sowie verschiedenen Städten und Kantonen unterstützt.

Funktioniert der Bot bereits in den Landessprachen Deutsch, Französisch und Italienisch?
Aktuell nur auf Deutsch, anschliessend kommt Französisch und am Schluss allenfalls noch Italienisch.

Wird es auch eine Smartphone-App geben?
Das wissen wir noch nicht, es ist aber denkbar. Uns ist es wichtig, dass sich die Plattform an den Bedürfnissen der Community orientiert und wir sie auch auf ihre Wünsche hin verändern können. Nicht zuletzt entscheiden aber auch die Finanzen, ob eine App möglich ist.

Die ETH und die Universität Zürich begleiten das Projekt wissenschaftlich. Was heisst das konkret?
Dominik Hangartner vom Immigration Policy Lab der ETH Zürich und Fabrizio Gilardi und Karsten Donnay vom Digital Democracy Lab der Universität Zürich unterstützen uns bei der Erkennung von Hass. Sie erforschen zudem, welche Gegenrede (sogenannte «Counter Speech»)-Strategien am effektivsten sind, um Hass online zu kontern. Man weiss beispielsweise immer noch sehr wenig darüber, welche Art von Counter Speech bei welcher Art von Hassrede am meisten bewirkt.

Zur Person
Sophie Achermann (Jahrgang 1993) ist seit Mai 2018 Geschäftsführerin der Frauen-NGO alliance F und hat das Projekt Stop Hate Speech 2019 initiiert. Die Bernerin war Schweizer Jugenddelegierte der UNO und hat geholfen, das Jugendparlament in Bern aufzubauen. Sie politisierte fürs Grüne Bündnis im Stadtparlament.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.

«Hate Speech» bei Facebook – was toleriert wird, und was nicht

1 / 27
«Hate Speech» bei Facebook – was toleriert wird, und was nicht
quelle: epa/epa / koca sulejmanovic
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

So funktioniert Social Networking in der Realität

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

72 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
smartash
10.01.2021 12:16registriert Dezember 2016
Und wie gut können diese Algorithmen mit falscher Rechtschreibung umgehen?

Ist ja noch wichtig bei diesen Hasskommentaren
12732
Melden
Zum Kommentar
avatar
PhilippS
10.01.2021 11:59registriert September 2016
Gute Idee. Aber auch nicht ganz unproblematisch. Letztlich wird der Algorithmus mit den moralischen Werten der Personen trainiert, die sie gerade haben.

Soweit kein Problem.

Aber diese können sich verändern. Losgelöst von der Frage des ggw Rechts. Und somit kann ein solcher Algorithmus über die Zeit so trainiert werden, dass zB aus „Homosexualität ist akzeptiert“ zu „Aufruf zu Hass gegen Homosexuelle ist ok“ trainiert werden.

Ihr müsst euch dazu nur fragen, was der Algorithmus trainiert von Iranern oder Saudis zur gleichen Aussage „meinen“ würde.
7014
Melden
Zum Kommentar
avatar
John Henry Eden
10.01.2021 13:43registriert Januar 2014
Und was ist die Definition von Hass? Eigenes Empfinden? Dann wird jede Kritik zu Hass.

Jennybeauty99 fragt auf TikTok, ob ihre aufgespritzten Lippen gut aussehen. User1028746372 findet, dass sie hässlich sind. Jennybeauty99 muss heulen und meldet user1028746372.....?!?!?

Man könnte das Socialweb gleich abstellen.
7928
Melden
Zum Kommentar
72
«In der Industrie ist das Wachstum von klimaschonender Technologie kaum zu sehen»
Öl und Gas haben keine Zukunft. Fossile Energieträger werden verschwinden, weil CO2-freie Technologien und politische Massnahmen wie Lenkung und Vorschriften die Energiewende ermöglichen. Das sagt ETH-Professor Anthony Patt.

Würden alle Menschen so leben wie die Bewohner der Schweiz, wären am Freitag alle Ressourcen aufgebraucht. Die Nutzung fossiler Energie ist dabei ein entscheidender Teil. Die Menschheit wird in Zukunft ohne Fossilenergie auskommen müssen, um den Klimawandel zu bremsen. Das geht nur mit CO2-freien Technologien wie Anthony Patt von der ETH Zürich als Autor im letzten Teilbericht des Weltklimarats IPCC festgehalten hat.

Zur Story