Gut 310'000 Facebook-Nutzer sahen während eines Psychologie-Experiments einen manipulierten Newsfeed, ohne dass sie davon etwas wussten. Der Versuch fand bereits 2012 statt, doch erst vor wenigen Wochen wurden die Studienergebnisse veröffentlicht. Nun plötzlich tobt die Empörung – weniger bei den Usern, dafür umso mehr in den Medien. Facebook manipuliere Nutzer, mache sie gar depressiv, lauten die Schlagzeilen. Das Problem: Die nüchternen Fakten stützen diese Horrorbotschaften in keinster Weise.
Eine Forschergruppe wollte mit der Hilfe von Facebook herausfinden, ob sich positive oder negative Emotionen nicht nur im echten Leben, sondern auch über soziale Netzwerke von Mensch zu Mensch übertragen lassen. Von den 310'000 ausgewählten Nutzern sah eine Gruppe vor allem positive Einträge ihrer Freunde im Newsfeed, die zweite Gruppe überwiegend negative. Das Resultat des einwöchigen Experiments: Menschen, die weniger positive Meldungen eingeblendet erhielten, also den «depressiven Newsfeed» sahen, verwendeten 0,1 Prozent weniger positive Wörter in ihren Statusmeldungen. Menschen, die weniger negative Posts sahen, also den «fröhlichen Newsfeed» lasen, nutzten 0,07 Prozent weniger negative Wörter in ihren Postings. Der Effekt ist somit äusserst gering bis nicht vorhanden.
Zu behaupten, das Experiment an sich sei gefährlich und hätte Facebook-Nutzer depressiv gemacht, ist Schwachsinn. Daran lässt das Ergebnis keinen Zweifel. Facebook reagiert deshalb so, wie es Tech-Konzerne immer tun, wenn sie am Pranger stehen. Man versteht die Aufregung nicht und betont, dass man keine bösen Absichten gehabt habe. «Ziel all unserer Untersuchungen ist es, herauszufinden, wie wir unseren Service verbessern können», schreibt Facebook. Das glauben wir gerne, doch das ist nicht das Problem.
Auf die Idee, dass ein psychologisches Experiment an hunderttausenden Nutzern ohne deren Wissen für Empörung sorgen würde, egal wie harmlos es sein mag, kam bei Facebook offenbar niemand. Dass man sich nun auf die AGBs beruft, wo irgendwo im Kleingedruckten steht, dass man mit den Nutzerdaten Forschung betreiben dürfe, macht alles nur noch schlimmer. Die allgemeinen Geschäftsbedingungen von Facebook zu akzeptieren, heisst auf keinen Fall, dass man das Versuchskaninchen für psychologische Experimente spielen will.
Bei einem Experiment muss gelten, dass die Versuchspersonen wissen, dass sie an einem Experiment teilhaben. So lange sie nicht wissen, worum es geht und wann der Versuch stattfindet, wird das Ergebnis nicht verfälscht. Warum Facebook seine Nutzer nicht gefragt hat, ob sie an einem Experiment teilnehmen möchten, bleibt ein Geheimnis. Vermutlich hätten Hunderttausende bereitwillig mitgemacht. Alternativ müsste das soziale Netzwerk den Usern zumindest die Möglichkeit geben, sich von solchen Experimenten abzumelden.
Facebook hat den Versuch nicht nur verschwiegen, er wurde auch nicht vorgängig von einer unabhängigen Ehtikkommission geprüft. Dies erstaunt nicht, wenn man weiss, wie US-amerikanische Internetgiganten ticken. Was technisch möglich ist, wird bei Facebook, Google und Co. gemacht. Über die gesellschaftlichen Folgen seiner Aktivitäten macht man sich erst dann Gedanken, wenn die Empörung finanziellen Schaden verursachen könnte.
Der im Nachhinein festgestellte minimale Effekt des psychologischen Experiments rechtfertigt die Versäumnisse nicht. Die Forscher konnten nicht wissen, welche Auswirkungen ihr Experiment auf die ahnungslosen Probanden haben wird. Was wäre passiert, wenn ein betroffener Facebook-Nutzer während der Experimentwoche Suizid begangen hätte?
Facebook argumentiert weiter, man manipuliere den Newsfeed andauernd, um zu testen, welche Postings die Leser am meisten interessieren. Auch dies ist richtig und auch dies hat nichts mit dem Experiment zu tun. Richtig ist, dass kommerzielle Internetunternehmen wie Google, Online-Shops wie Amazon oder Newsportale wie watson ständig daran tüfteln, welche Inhalte den Nutzern wo, wie und wann angezeigt werden sollen. Hierfür werden sogenannte A/B-Tests durchgeführt. Newsportale in den USA testen zum Beispiel automatisiert mehrere Titelversionen und der erfolgreichere bleibt schliesslich auf der Website stehen.
Der entscheidende Unterschied zum Newsfeed-Experiment besteht darin, dass die User damit rechnen können, dass sie auf Facebook die beliebtesten Postings ihrer Freunde angezeigt erhalten oder dass ihnen im Online-Shop die meistgekauften Produkte präsentiert werden. Es findet immer eine gewisse Selektion oder Manipulation statt. Eine ganz andere, da unerwartete Manipulation läge vor, würde ein Newsportal im Namen der Wissenschaft einem Teil seiner Leser nur negative oder positive Meldungen anzeigen, um einen emotionalen Effekt zu erzielen.
Um's klipp und klar zu sagen: Alle Unternehmen versuchen Emotionen zu manipulieren. Wir benutzen nicht das «reale» Facebook. Oder Google. Oder Twitter. Wir sehen das Facebook, das Mark Zuckerberg am meisten Geld in die Kassen spült. Wir sehen jene Suchtreffer, die Google für richtig hält. Das kann man für ethisch falsch halten. Die Grenze liegt auf jeden Fall dort, wo die Manipulation bei den Nutzern einen potenziellen Schaden verursachen kann.
Facebook, Google und Co. haben kluge Köpfe, die spannende Internetprodukte entwickeln. Zu hoffen ist, dass die Tech-Giganten ihre Mitarbeiter in einen Ethikkurs schicken, bevor sie das nächste heimliche Experiment starten.