Es geht um Tweets wie: «Die arabischen Männer sind keine Flüchtlinge, sondern Eindringlinge. Sie glauben, sie hätten ein Recht auf Europa.» Verstörend an dieser Nachricht ist weniger ihr rassistischer Inhalt als die Tatsache, dass sie von einer Maschine verfasst wurde, einem Social Bot, einem Roboter, der programmiert wurde, selbstständig in sozialen Netzwerken Botschaften zu verbreiten.
Die Maschinen mischen sich unter die Meinungsmacher auf Twitter und Facebook und schüren mit ihren Kommentaren Ressentiments. Ins Netz gelassen und gesteuert werden die Bots von Firmen, Interessengruppen oder Terrororganisationen wie dem «IS». Und sie vermehren sich rasant. «Die sozialen Netzwerke werden von Bots regelrecht unterwandert», sagt Simon Hegelich. Der deutsche Politikwissenschafter analysiert und jagt die Bots.
Nenne den Sechserträger Budweiser ab sofort für meine LEGO-Eisenbahn sägen?
— Grindbot (@grindbot) 21. Februar 2016
Höchst wahrscheinlich stammt auch dieser Tweet von einem Roboter: «Es gibt keine andere Lösung als die Wiederherstellung unserer Grenze durch Zäune. Alles andere ist Lavendel.» Ganz sicher ist sich Simon Hegelich aber nicht. Die Unsicherheit rührt daher, dass sich Bots in ihrem Verhalten den Menschen immer besser anpassen. Sie schreiben Nachrichten, die häufig belanglos sind, posten Bilder auf Facebook, retweeten Nachrichten auf Twitter und streuen ab und zu eine ihrer propagandistischen Botschaften ein.
Schätzungen zufolge sind bis zu 20 Prozent aller Twitter-Nutzer Bots. US-Forscher sind zum Schluss gekommen, dass 39 Prozent der Twitter-Nutzer, die dem Präsidentschaftskandidaten Donald Trump folgen, Fake-Profile sind, bei Clinton gar 41 Prozent. Hegelich hat für die «Schweiz am Sonntag» die Twitter-Profile der vier grossen Schweizer Parteien untersucht. Das Ergebnis: 15 bis 40 Prozent aller Follower sind Bots oder inaktive User, wobei der SP am meisten Maschinenwesen folgen.
Forscher der Indiana University haben in einem 2015 erschienenen Fachartikel den Effekt von Social Bots auf die Gesellschaft untersucht. Sie kamen zum Schluss, dass die Bots das Potenzial haben, die Demokratie zu gefährden, in Notsituationen Panik auszulösen und die Börse zu beeinflussen. Denn Bots können falsche Nachrichten verfassen und weiterverbreiten – sei es über einen Politiker, ein Attentat oder eine Firma. Und je häufiger eine solche Falschmeldung geteilt wird, desto mehr Glaubwürdigkeit erhält sie und desto eher beginnen sich Menschen danach zu richten. Sie wählen vielleicht einen anderen Politiker, meiden Plätze in Grossstädten oder verkaufen ihre Aktien.
Simon Hegelich sieht die grösste Gefahr von Bots darin, dass sie Trendanalysen im Netz verfälschen. Denn längst greifen Analysten und Meinungsforscher auf die Daten in sozialen Netzwerken zurück, um der Welt den Puls zu fühlen. Durch die Tweets und Posts der Bots werden diese Stimmungsanalysen verzerrt.
«Man muss davon ausgehen, dass jede dieser Studie bereits verfälscht ist», meint Hegelich. Eine Regierung oder eine Marketingabteilung könnte daraus falsche Schlüsse ziehen und sich zu falschen Handlungen veranlasst fühlen. Ohne es zu merken, würden Menschen dann die Welt nach den Vorstellungen der Maschinen im Netz formen.
Nicht alle Bots sind jedoch in schlechter Mission im Netz unterwegs. So gibt es auch Bots, die beispielsweise automatisch den Wetterbericht posten oder auf vorgenommene Änderungen in Wikipedia-Artikeln hinweisen. So machte etwa 2014 ein Bot publik, dass von Computern des russischen Staatsfernsehens der Wikipedia-Eintrag zum Absturz des Fluges MH17 über der Ukraine manipuliert worden war.
Der vielleicht berühmteste Twitter-Bot ist Carina Santos. Man hielt sie für eine einflussreiche Journalistin Brasiliens, ehe Wissenschafter der Federal University of Ouro Preto 2013 enthüllten, das Carina Santos eine von ihnen programmierte künstliche Intelligenz (KI) ist. Seither hat die KI-Forschung weitere Fortschritte gemacht. Davon profitieren auch die Entwickler der Bots. So hat etwa Google sein KI-Programm Tensorflow als Open-Source-Software gratis ins Netz gestellt. Jeder kann sich bedienen.
Nicht einmal in einer kurzen Chat-Unterhaltung kann man Bots zweifelsfrei überführen. Denn sie verfügen über die Fähigkeit, einigermassen sinnvoll auf Fragen zu reagieren. Sie greifen sogar selbstständig Nachrichten von anderen Nutzern auf, kommentieren sie und führen sie weiter. Wie gewieft Chatbots als Gesprächspartner sind, zeigt das Beispiel Ross. Der Maschine gelang es beim letztjährigen Loebner-Preis, einem Wettbewerb für künstliche Intelligenz, eine professionelle Jury über mehrere Minuten bei einem Turing-Test von ihrer Menschlichkeit zu überzeugen.
Wenn sich die Bots kaum mehr von Menschen unterscheiden, wie erkennt man sie dann? Simon Hegelich, der an der Universität Siegen das Projekt «Social Media Forensic» leitet, hat mit seinem Team ein System entwickelt, um die Maschinen unter den Menschen zu entdecken. Mit einem Algorithmus nehmen die Forscher die Profilbilder der potenziellen Bots in den Fokus. Sie vergleichen die Fotos vieler Hunderter Nutzer hinsichtlich des Farbspektrums und weiterer gut unterscheidbarer Bildeigenschaften. So erkennen sie, wenn verschiedene Profilbilder aus derselben Bilddatenbank stammen. Ein starkes Indiz dafür, dass sich hinter diesen Profilbildern ein Maschinenwesen verbirgt. Die Forscher machen sich dabei zunutze, dass die Bots respektive ihre Entwickler die Profilbilder irgendwo im Netz zusammenklauen müssen.
Mit seinem Team hat Hegelich ein Netz von über 15'000 Bots entlarvt. Sie operieren aus der Ukraine heraus und verfassen täglich über 60'000 Tweets. Einige davon sind politisch gefärbt und dem nationalsozialistischen Lager zuzuordnen. In der Ukraine ist längst ein Informationskrieg entbrannt. Nicht nur die Nationalisten versuchen mit Kommentaren auf sozialen Netzwerken und in Foren die öffentliche Meinung mit gezielten Desinformationen zu manipulieren, sondern auch Putin. Dazu hat er eine Armee von Internet-Trollen rekrutiert – setzt aber vermutlich ebenso auf Social Bots.
Hegelich und sein Team haben auch Bots entdeckt, die sich auf Facebook und Twitter unter die Diskussionsteilnehmer der Flüchtlingsdebatte in Deutschland gemischt haben. «Es muss davon ausgegangen werden, dass auch in der Schweiz Bots in die politische Debatte im Netz eingreifen und sie verfälschen», sagt Hegelich, der nächsten Monat eine Professur für politische Datenwissenschaft an der Technischen Universität München antritt.«Social Bots sind ein ernstes Problem», sagt Dirk Helbing, Professor für computerbasierte Sozialwissenschaft an der ETH Zürich. Es sei eine neue Art von Propaganda, die besonders subtil ist, da man sie kaum erkennen könne.