Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Facebook CEO Mark Zuckerberg speaks during his keynote address at Facebook F8 in San Francisco, California, in this file photo taken March 25, 2015. Facebook Inc posted its slowest growth in quarterly revenue in two years and higher spending on research and development ate into profits. Shares of the world's largest Internet social network fell 2.4 percent in after-market trading on April 22, 2015.  REUTERS/Robert Galbraith/Files

Mark Zuckerberg bestimmt indirekt, was uns vorgesetzt wird. Bild: REUTERS

Facebook beeinflusst deine politische Meinung nicht – behaupten Facebook-Forscher

Zementieren Algorithmen unser Weltbild, weil sie uns nur vorsetzen, was uns gefällt? Diesen Vorwurf erheben mehrere Autoren gegen Google, Facebook und Co. Nun soll eine Studie das Gegenteil belegen – die Forscher arbeiten für Facebook.

09.05.15, 23:09 10.05.15, 09:08

Christian Stöcker



Ein Artikel von

Die Studie über den Nachrichtenkonsum von Facebook-Nutzern, die in der aktuellen Ausgabe des Wissenschaftsmagazins «Science» erscheint, ist aus mehreren Gründen ein Politikum. Zunächst wegen des Themas: Es geht um die Frage, inwieweit die Sortier-Algorithmen des grössten sozialen Netzwerks der Welt das Weltbild seiner Nutzer beeinflussen. Macht Facebook Rechte rechter und Linke linker, indem es ihnen nur noch das vorsetzt, was zu ihrem Weltbild passt? Erschafft Facebook eine Filterblase? Gefährdet es den demokratischen Diskurs?

Das Ergebnis, zu dem die Forscher kommen, kurz zusammengefasst: Die Entscheidungen der Nutzer selbst wirken sich viel stärker darauf aus, welche Arten von politischer Information sie auf Facebook zu sehen bekommen, als der Sortier-Algorithmus des Netzwerks. Die Studie spricht Facebook gewissermassen frei von dem Verdacht, durch algorithmische Sortierung die politische Meinung seiner Nutzer zu beeinflussen.

Ein Politikum sind aber auch die Autoren der Studie selbst: Sie arbeiten allesamt für Facebook. Das Unternehmen hat sich eine eigene Forschungsabteilung zugelegt, um aus den gewaltigen Datenmengen, die das Netzwerk ständig produziert, auch wissenschaftliches Kapital zu schlagen.

A mobile phone shows a Facebook page of campaign propaganda to promote Hillary Clinton as president in 2016, in this photo illustration taken April 13, 2015. By one estimate U.S. online political advertising could quadruple to nearly $1 billion in the 2016 election, creating huge opportunities for digital strategy firms eager to capitalize on a shift from traditional mediums like television. REUTERS/Mike Segar

Was in unserem Newsfeed auftaucht, entscheidet ein automatisierter Algorithmus. Bild: REUTERS

«Etwa fünf Prozent weniger gegensätzliche Inhalte»

Für die Studie ermittelten Eytan Bakshy und zwei weitere Facebook-Mitarbeiter die politische Haltung einer gewaltigen Gruppe von Nutzern des Netzwerks – über zehn Millionen US-Bürger. Dann prüften sie, welche Art von Nachrichtenmeldungen und -artikeln diese Nutzer in ihrem Newsfeed zu sehen bekamen – und welche sie tatsächlich anklickten, um weiterzulesen. 

Dabei stellten sie fest, dass der Facebook-Algorithmus tatsächlich dafür sorgte, dass die Nutzer tendenziell etwas mehr von dem zu sehen bekamen, was zu ihrer eigenen ideologischen Ausrichtung passte. «Konservative sehen etwa fünf Prozent weniger Inhalte aus dem anderen politischen Lager im Vergleich zu dem, was ihre Freunde tatsächlich teilen, während Liberale etwa acht Prozent weniger ideologisch anders gefärbte Inhalte sehen», schreiben sie. Der Filter erzeugt also durchaus eine politische Verzerrung, wenn auch keine sehr grosse.

Einfluss der persönlichen Entscheidungen grösser

Grösser sei der Einfluss der persönlichen Entscheidungen der Nutzer gewesen, so die Forscher. Konservative klickten überproportional häufig auf Nachrichten aus konservativen Quellen, Liberale etwas häufiger auf Nachrichten aus liberalen Quellen. Insgesamt, folgern die Forscher, würden «individuelle Entscheidungen die Konfrontation mit Inhalten, die der eigenen Haltung zuwiderlaufen, stärker einschränken als Algorithmen».

Der Redaktion von «Science» war selbstverständlich bewusst, dass die Veröffentlichung dieser Studie für Kritik sorgen würde. Sie entschied sich deshalb, dem Forschungsbericht einen einordnenden Gastbeitrag eines unabhängigen Wissenschaftlers zur Seite zu stellen. Der Datensatz und die Bereitschaft Facebooks, solche Forschung zu finanzieren, sei eindrucksvoll, schreibt David Lazer von der Northeastern University. Es bestehe aber die Gefahr, dass «die einzigen Leute, die Facebook erforschen können, Forscher bei Facebook sind». Das könne die Wissenschaft «ungesund» beeinflussen, so Lazer.

Kritik an den eigenen Kritikern

Die Ergebnisse der Studie aber zieht er nicht in Zweifel, und es ist davon auszugehen, dass das renommierte Magazin «Science» in diesem Fall besonders gründlich hat prüfen lassen, ob die Daten und Auswertungen der Studie tatsächlich wissenschaftlichen Standards genügen. 

Gleichwohl bleibt ein seltsames Gefühl, wenn die Autoren nicht nur ihre Ergebnisse referieren, sondern konkret Stellung in der Debatte beziehen, ob soziale Netzwerke womöglich eine «Filterblase» erzeugen. So hat der Buchautor Eli Pariser das Phänomen getauft, dass er selbst bei Facebook eher Verweise auf Artikel findet, die zu seiner eigenen politischen Haltung passen.

FILE - In this June 11, 2014 file photo, a man walks past a mural in an office on the Facebook campus in Menlo Park, Calif. In an update to its community standards page on Monday, March 16, 2015, the world's largest online social network explained its thinking on what posts, images and other content it allows on its site and why. (AP Photo/Jeff Chiu, File)

Steckt uns Facebook in eine Filterblase? Bild: KEYSTONE

«Unsere Arbeit legt nahe, dass Personen über soziale Medien mehr gegensätzlichen [politischen] Diskursen ausgesetzt werden, als dies in der digitalen Realität der Fall wäre, die sich manche ausmalen», ist nun in «Science» zu lesen – in Klammern folgt auf diesen Satz ein Literaturverweis auf Parisers Buch «Filter Bubble: Wie wir im Internet entmündigt werden».

Das klingt dann doch eher so, als wehrten sich Angestellte eines grossen Unternehmens gegen Kritik an den Praktiken dieses Unternehmens.

Das könnte dich auch interessieren

Facebook erklärt seine Spielregeln

Abonniere unseren Daily Newsletter

Themen
3
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
3Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • The_Doctor 10.05.2015 10:48
    Highlight Man sollte sich sowieso immer bei unterschiedlichen Quellen informieren. Wer immer dieselben Newsseiten, sozialen Netzwerke und Suchmaschinen verwendet, kriegt auf jeden Fall eine sehr eingeschränkte Weltsicht präsentiert.
    Bestes Beispiel ist Google: Der wohl beste Suchalgorithmus der Welt, aber trotzdem kriegt man bei der Konkurrenz (z.B. Swisscows oder Duckduckgo) teilweise viel bessere, weil differenziertere Treffer angezeigt. Es lohnt sich immer, mehrere Quellen heranzuziehen, wenn man kein eingeschränktes Weltbild zelebrieren weil.
    0 0 Melden
    • Alnothur 10.05.2015 22:50
      Highlight Google richtet sich massiv nach den eigenen Vorlieben, und den bis dahin angeklickten Links: http://dontbubble.us/
      1 0 Melden
  • Chili 09.05.2015 23:46
    Highlight Watson auch nicht, nein es bestärkt sie noch!
    2 1 Melden

WhatsApp will ab 2019 Werbung zeigen und verrät damit, wofür es einst stand

Auf der Instant-Messaging-App WhatsApp soll es künftig Werbung geben. Das kündigte WhatsApp-Geschäftsführer (COO) Matt Idema in einem Gespräch mit der Deutschen Presse-Agentur an. Dies, obwohl die Firma zu Beginn versprochen hatte, dass dies nie geschehen würde. Die Werbefreiheit gehörte bis anhin schlicht zum Grundsatz der App. Es war das gute WhatsApp gegen die bösen, informationsfressenden Riesen wie Facebook und Google.

Nun soll ab 2019 Werbung in der App geschaltet werden. Zu Anfang soll die …

Artikel lesen