Digital

Kate Crawford fordert strengere Regeln für mächtige Tech-Firmen. Bild: re:publica/Gregor Fischer (cc by-sa 2.0)

Google und Facebook manipulieren uns – aber wie schlimm ist es wirklich, Frau Crawford?

Kann Facebook verhindern, dass Donald Trump US-Präsident wird? Die Internetforscherin Kate Crawford warnt vor der Macht der Netzwerke und Suchmaschinen im Wahlkampf – und vor sozialen Experimenten mit ahnungslosen Nutzern.

22.05.16, 21:46 23.05.16, 11:26

Fabian Reinbold

Ein Artikel von

Die Wahlkampfberichterstattung ist um ein Thema reicher geworden: die Macht von Facebook. Immer wieder gab es zuletzt Berichte, die mit der Rolle des Konzerns in der politischen Debatte zu tun haben. Die Frage lautet: Könnte das grösste und mächtigste Netzwerk beeinflussen, wer US-Präsident wird?

Vergangene Woche wurden Vorwürfe geäussert, wonach Facebook-Mitarbeiter konservative Artikel und Meinungen unterdrückt haben sollen. Nun ist es wie so oft mit Facebook: Es gibt Kritik, der Konzern dementiert und man weiss nicht genau, woran man ist. Zuletzt sollen Mitarbeiter – laut Berichten, die Facebook nicht bestätigt hat – Firmenchef Mark Zuckerberg gar gefragt haben, welche Verantwortung das Netzwerk habe, einen US-Präsidenten namens Trump zu verhindern.

Kate Crawford forscht derzeit beim Thinktank von Microsoft.

Kate Crawford forscht seit Jahren zu Manipulationen bei Suchmaschinen und Netzwerken. Im Interview warnt sie vor der Macht, die Facebook und andere im Wahlkampf haben. Crawford spricht über die Horrorszenarien bei «House of Cards» und fordert engere Regeln für Internetgiganten – sie selbst forscht derzeit beim Thinktank von Microsoft.

Frau Crawford, wie oft setzt uns Facebook etwas Manipuliertes vor?
Kate Crawford: Jedes Mal, wenn wir uns bei einem sozialen Netzwerk oder bei einer Suchmaschine einloggen, kann es passieren, dass wir ohne unser Wissen Teilnehmer von bis zu hundert Experimenten sind. Viele davon sind kleine A/B-Tests, bei denen einer Gruppe etwa unterschiedliche Logos gezeigt werden. Aber es gibt auch grössere, problematische Manipulationen.

Zur Person

Kate Crawford ist Internet-Forscherin und Publizistin. Derzeit arbeitet sie bei Microsoft Research, dem Thinktank des IT-Konzerns in New York. Sie ist Vizepräsidentin des Council for Big Data, Ethics and Society, der sich mit den gesellschaftlichen Folgen von datenbasierten Vorhersagen beschäftigt.

Besonders berüchtigt war Facebooks grosses Psychoexperiment, in dem die Newsfeeds Hunderttausender Nutzer ohne deren Wissen manipuliert wurden.
Bei diesem Experiment zur emotionalen Übertragung wurde aktiv versucht, die Gefühle der Nutzer zu manipulieren. Ich denke, die öffentlichen Reaktionen darauf haben auch bei Facebook dazu geführt, dass man das heute anders handhaben würde. Die Studie ist aber ein gutes Beispiel dafür, wie es nicht laufen sollte, dass wir Regeln benötigen, wie mit Daten für experimentelle Zwecke umgegangen wird.

Welche Regeln denn?
Wir müssen uns als Technologieunternehmen gemeinsam auf ethische Rahmenbedingungen einigen, die sicherstellen, dass etwa Nutzer ganz klar gefragt werden: Seid ihr einverstanden, dass eure Daten für soziale Experimente benutzt werden? Da könnte es einen eigenen Reiter in den Einstellungen geben, neben den Privatsphäre-Einstellungen meinetwegen die Experimente-Einstellungen. Eine junge Firma wie Facebook mag da noch nicht weit genug sein. Ihr Motto lautet «Move fast and break things» – wie gut passt das zu Ethikregeln? Gerade Facebook bräuchte aber strenge Regeln.

Darüber, was Facebook mit seiner Macht anfängt, wird gerade viel diskutiert. Mitarbeiter haben bei Firmenchef Mark Zuckerberg offenbar schon nachgefragt, welche Verantwortung man habe, einen Präsidenten Trump zu verhindern. Was sagen Sie?
Das müssen Sie Mark Zuckerberg fragen.

Dann generell: Können wir in unseren Demokratien in eine Situation geraten, wo die mächtigen Tech-Firmen moralisch verpflichtet sind zu verhindern, dass ein erklärter Feind der Demokratie an die Macht kommt?
Es gab ja einmal ein Experiment, das Facebook im Rahmen einer Wahl durchgeführt hat. Bei der US-Kongresswahl 2010 gab es ein kleines Symbol, das Nutzern angezeigt hat, welche ihrer Freunde schon wählen waren. Und dabei gab es am Ende einen signifikanten statistischen Unterschied: Diejenigen, die das Symbol mit Bildern der Freunde angezeigt bekamen, gingen auch selbst eher wählen. Was wäre, wenn man diese Macht in einem der swing states einsetzen würde… ...

... also in einem jener umkämpften Bundesstaaten, die oft über das Gesamtergebnis der Präsidentschaftswahlen entscheiden.
Man hätte eine aussergewöhnliche Macht, man kann eine Wahl drehen. Denken Sie an Bush gegen Gore im Jahr 2000, da hing die gesamte Wahl an ein paar Tausend Stimmen in Florida.

Und abhängig davon, was er unentschiedenen Wählern im Netz anzeigt, könnte ein Tech-Konzern den Ausgang zumindest mitbestimmen.
Es gibt zumindest riesige ethische Fragen, die sich in Wahlkämpfen zeigen, schliesslich hat Facebook dabei diese enorme Macht. Gibt es einfache Antworten für eine Firma wie Facebook? Nein. Wird dort über solche Fragen nachgedacht? Ja. Brauchen wir darüber eine öffentliche Debatte? Ganz sicher. Ich erwarte eine heftige Diskussion darüber, wie Wahlen mithilfe von Daten beeinflusst werden können.

Hoffentlich noch rechtzeitig – eine Richtungswahl in den USA steht ja vor der Tür.
Es tut sich bereits etwas. Die Reaktion auf die Empörung über Facebooks Gefühlsansteckungs-Experiment war im Silicon Valley in etwa diese: Was bitte schön ist denn das Problem? Facebook hat der massiven Kritik aber zugehört, und nun gibt es auch dort so etwas wie eine Ethikkommission.

Kate Crawford referierte an der «re:publica» 2016 zum Thema «Know your terrorist credit score!»

YouTube/re:publica

Frau Crawford, haben Sie «House of Cards» gesehen?
Na klar.

In der letzten Staffel – Achtung, Spoiler – geht es auch um die Macht von Daten. Ein Präsidentschaftskandidat scheint eine Suchmaschine unter Kontrolle zu haben, es ist seine stärkste Waffe im Wahlkampf. Wie wahrscheinlich ist so etwas?
Das ist nun wirklich sehr unwahrscheinlich. Über solche Horrorgeschichten wie bei «House of Cards» oder in Hollywood vergessen wir manchmal wichtigere Fragen. Es ist doch entscheidender, auf jene Systeme zu schauen, die wir Tag für Tag nutzen, und sicherzustellen, dass diese nicht absichtlich missbraucht werden.

Das Benutzen einer Suchmaschine ist doch Alltag. Und im Wahlkampf tippt man dort auch regelmässig die Namen von Politikern ein – und die Treffer prägen das Bild. Forscher haben kürzlich nachgewiesen, dass man mit der Veränderung von Suchergebnissen nicht festgelegte Wähler stark beeinflussen könne. Woher weiss ich, dass Google oder Bing (das wie Ihr Forschungszentrum Microsoft gehört) genau das nicht tut – einen Kandidaten in den Ergebnissen bevorzugen?
Es ist entscheidend, dass es mehr als eine Option gibt. Momentan können Sie das Ergebnis bei Google mit jenem bei Bing oder bei DuckDuckGo vergleichen. Zugegeben: Das beantwortet nicht ganz Ihre Frage – aber es ist entscheidend, dass es eine Pluralität gibt.

Doch die mächtigen Daten-Firmen, über die wir hier reden, haben oft Quasi-Monopole.
Richtig, wir reden auch deshalb so viel über Facebook. Das Netzwerk hat so viele Nutzer und ist so tief in unserer Kommunikation verankert, dass es praktisch keine Alternative gibt.

Gibt es für die Öffentlichkeit einen Weg zu erfahren, dass diese mächtigen Firmen ihren Algorithmus nicht manipulieren?
Technisch ist das nicht möglich, fürchte ich. Es gibt nicht den einen Schalthebel, mit dem sie den Algorithmus kontrollieren können.

Algorithmen ist so ein Schlagwort wie Big Data, ohne das kaum noch eine Politikerrede auskommt. Ganz konkret: Wer hat eigentlich die meiste Macht durch Big Data gewonnen?
Das sind diejenigen, über die wir uns unterhalten: die grossen Tech-Firmen, die die sozialen Netzwerke und die Dateninfrastruktur kontrollieren. Und natürlich die Geheimdienste.

Die Tech-Firmen und die Geheimdienste sammeln, was gesammelt werden kann – und leiten daraus Vorhersagen ab.
Genau deshalb brauchen wir Ethikregeln, wie wir Daten benutzen, wie wir sie speichern, welchen dritten Parteien wir Zugang dazu gewähren. Natürlich gibt es Gesetze, aber es passiert gerade viel in Bereichen, die gar nicht geregelt sind. Mit dem Datenschutz aus dem 20. Jahrhundert kommen wir da nicht weiter.

Warum?
Weil die abgeleiteten Vorhersagen neue Gefahren für Bürger darstellen. In den USA hat eine Personalvermittlung mit grossen Datensätzen erhoben, dass neue Mitarbeiter umso länger in der Firma bleiben, je näher sie am Arbeitsort wohnen. In den USA wohnen aber vor allem Wohlhabende nah an den Zentren – die Firma merkte, dass sie durch diesen Marker sehr gute Vorhersagen treffen kann, aber dabei weniger wohlhabende Bewerber diskriminiert. Sie hat den Marker aus der Gleichung wieder entfernt.

Und sie glauben wirklich, die mächtigen Unternehmen werden sich selbst durch neue Ethikregeln beschränken?
Ja, das müssen diejenigen tun, die damit Tag für Tag arbeiten. Wir kennen das doch aus der Vergangenheit: Wenn eine Profession grosse Macht erlangt, gibt sie sich nach einer Anfangsphase ohne viele Regeln einen Ethikcode. So war es doch im Journalismus, und so wird es auch bei den Datenwissenschaftlern kommen.

Wie Google, Facebook und Co. entscheiden, was wir lesen – und was nicht

Jetzt kannst du News direkt auf Facebook lesen. 8 Gründe, warum dies mehr Spass macht als auf Newsportalen – und 8 Gründe, warum das stinkt​

Die digitale Medienrevolution hat erst gerade begonnen und das sind die 3 wichtigsten Trends

Facebook erklärt seine Spielregeln: Pobacken und Brustwarzen nein, die Vagina von Courbet ja

Darum muss Google zerschlagen werden

Wie die Popstars aus den Kinderzimmern mit YouTube Millionen verdienen

Facebook macht jetzt Journalismus: Warum wir uns der Realität nicht verweigern können

Alle Artikel anzeigen

Hol dir die App!

Charly Otherman, 5.5.2017
Watson kann nicht nur lustig! Auch für Deutsche (wie mich) ein Muss, obwohl ich das schweizerische nicht immer verstehe.
Abonniere unseren NewsletterNewsletter-Abo
0
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
0Alle Kommentare anzeigen

Warum einer Aargauerin die IV-Rente halbiert wird, nachdem sie zu viel getwittert hat

Brigitte Obrist ist aktiv auf Twitter und Facebook. Zu aktiv, finden einige und fragen sich, wie eine IV-Bezügerin den ganzen Tag vor dem PC sitzen kann. Sie beschweren sich bei den Behörden – mit fatalen Konsequenzen für Obrist.

In ihrem Wohnkanton, dem Aargau, ist Brigitte Obrist bekannt als eine Frau, die kein Blatt vor den Mund nimmt. Vor zwei Jahren hat sie gegen ein Muslim-Inserat von der SVP Strafanzeige eingereicht. Über die Kantonsgrenze hinaus kennt man Obrist als ehemalige Bordellbetreiberin, AIDS-Hilfe-Projektleiterin und heutige Kämpferin für die Rechte von Sexarbeiterinnen. 

Mit fast allem in ihrem Leben geht Obrist offen um. Mit ihrer Vergangenheit als Prostituierte, mit ihrer Krankheit, den …

Artikel lesen