Digital
Schweiz

Facebook, der weltgrösste Müllverwerter, will seriöser werden. Ein scheinheiliges Unterfangen

Facebook-Chef Mark Zuckerberg baut einen Filter für Pseudo-News ein.
Facebook-Chef Mark Zuckerberg baut einen Filter für Pseudo-News ein.Bild: Getty Images
Analyse

Facebook, der weltgrösste Müllverwerter, will seriöser werden. Ein scheinheiliges Unterfangen

Facebook sagt Trash-Nachrichten den Kampf an. Der neue Filter gilt aber nicht für bezahlte Inhalte.
26.08.2014, 16:3726.08.2014, 19:45
Mehr «Digital»

Facebook ist nicht nur das mitgliederstärkste Online-Netzwerk, sondern auch das weltgrösste Müllunternehmen. Nun will der US-Konzern den digitalen Schrott, der millionenfach verbreitet wird, eindämmen.

Anfang Woche kündigte der US-Konzern ein neues Filter-System an, das in den kommenden Monaten weltweit in Kraft gesetzt wird. Auslöser waren angeblich die Beschwerden, die sich in letzter Zeit gehäuft hätten. Viele Nutzer wollen den Boulevard-Trash nicht mehr sehen, andere nerven sich über das tausendste «Jö, so herzig»-Video.

Im Visier sind die sogenannten Click-Bait-Beiträge. Das sind Pseudo-Nachrichten, die mit reisserischen Titeln möglichst viele Leser ködern sollen. Häufig hält der Inhalt dabei nicht, was die Überschrift verspricht. «Solche Beiträge generieren in der Regel eine Menge Klicks, was bedeutet, dass sie auch mehr Menschen angezeigt werden und oben in ihren Newsfeeds auftauchen», heisst es in der Ankündigung.

Für «Heftig» wird's heftig?

Das bekannteste Beispiel im deutschsprachigen Raum ist Heftig.co. Die Facebook-Seite hat bereits über eine Million «Likes» eingefahren.

Bild
screenshot: heftig.co

Wegen des imposanten virtuellen Wachstums von Heftig und Co. springen immer mehr traditionelle Medien auf den Click-Bait-Zug auf: Sie versuchen ihrerseits mit marktschreierischen Überschriften zu punkten, denen sich die Nutzer nicht verwehren können. Diese Strategie ist nach der jüngsten Ankündigung infrage gestellt.

Neu will Facebook die Pseudo-Nachrichten aus dem Netzwerk herausfiltern und im Gegenzug dazu (journalistisch) wertvolle Inhalte belohnen. Die Überlegung dahinter: Wenn der «Müll» bei vielen Facebook-Nutzern nicht mehr im persönlichen Newsfeed auftaucht, sinkt zwangsläufig die Weiterverbreitung durch schnelle Klicks.

No Components found for watson.monster.

Verweildauer und Interaktionen der Nutzer zählen stärker

Um unerwünschte Inhalte zu erkennen, setzt Facebook auf die Computer-Analyse des Nutzerverhaltens und will zwei Faktoren höher gewichten:

1. Wenn ein Link zwar häufig angeklickt wird, die Leser aber nur wenige Sekunden mit dem Inhalt verweilen, geht Facebook davon aus, dass der Link (für andere Nutzer) wenig nützlich/interessant ist. In der Facebook-Ankündigung heisst es: «Nach dem jüngsten Update werden wir in Zukunft berücksichtigen, ob jemand länger ausserhalb von Facebook bleibt, nachdem er auf einen Link geklickt hat, oder ob er direkt zurückkommt.»

2. Besser berücksichtigt wird in Zukunft auch die Interaktion der Nutzer. Wenige «Likes», keine Kommentare und keine Weiterempfehlungen («Teilen») werden als negative Rückmeldung interpretiert.

Stetige Manipulation

Bereits im vergangenen Dezember hatte Facebook angekündigt, die umstrittenen Inhalte stärker herauszufiltern. Hier gilt festzuhalten: Das weltgrösste Online-Netzwerk manipuliert seit Jahren an seinem Newsfeed-Algorithmus herum. 

Die geheimgehaltene Software ist dafür verantwortlich, was über eine Milliarde Nutzer Tag für Tag auf ihrer Startseite zu sehen bekommen. Dabei geht es um enorm viel Geld und um das Geschäftsmodell, auf dem das börsenkotierte Unternehmen aufbaut. Je intensiver die Facebook-Nutzer durch die Beiträge scrollen, desto mehr Werbung kann eingeblendet und verkauft werden.

No Components found for watson.monster.

Vom Newsfeed-Algorithmus hängt die Existenz vieler Firmen ab, die auf die virale Verbreitung von Videos, Bildern und anderen kostenlos im Netz verfügbaren Inhalten setzen. Zumindest in den USA werden mit der Vermarktung solcher «Storys» Millionen verdient.

Die unmittelbare Abhängigkeit von Facebook ist allerdings sehr gefährlich, wie der Aufstieg und Niedergang diverser «News-Plattformen» und «Viral-Schleudern» zeigt. Der US-Blog Allfacebook.com hat dazu eine aufschlussreiche Infografik parat. 

Der Schluss, der daraus zu ziehen sei: «Was heute funktioniert, könnte auf längere Sicht nicht funktionieren.» Wer sein Geld mit der Vermarktung von digitalen Inhalten verdiene, solle diversifizieren und nicht nur auf Facebook setzen.

Facebook will die «sozialen» Interaktionen stärker gewichten.
Facebook will die «sozialen» Interaktionen stärker gewichten.Bild: Getty Images North America

Mehr zum Thema

Facebook als Opfer?

Vergangene Woche hatte der Facebook-Manager Mike Hudack in einem medienkritischen Beitrag die US-Medienhäuser attackiert. Diese seien nur noch ein Schatten ihrer selbst und offensichtlich nicht mehr in der Lage, relevante Nachrichten zu verbreiten. Als positive Ausnahmen nannte der Facebook-Manager drei renommierte Namen: «The New York Times», «Washington Post» und «Wall Street Journal».

Die Reaktionen der Facebook-Nutzer folgten prompt. Facebook sei selber Teil des Problems oder sogar hauptverantwortlich dafür, dass sich der (Online-)Journalismus negativ entwickelt habe. Tatsächlich haben viele Medien damit zu kämpfen, dass immer mehr Leute ihre täglichen Nachrichten ausschliesslich über Facebook beziehen.

Fazit: Facebook betreibt Medienkritik und stellt sich selber als Opfer des eigenen Systems dar. Dass die Nutzer in Zukunft mehr seriöse und relevante Nachrichten in ihrem Newsfeed finden sollen, ist begrüssenswert. Allerdings hat das Ganze auch Grenzen – und zwar dann, wenn es für Facebook um (viel) Geld geht. So wird der Click-Bait-Filter nicht für gesponserte Posts und Werbebeiträge gelten. Wer bezahlt, befiehlt. Dies gilt allerdings nicht für die Nutzer, die den kostenlosen Service mit ihren privaten Daten bezahlen.

Passend zum Thema, liefert der deutsche Blog BlogRebellen.de vier Denkanstösse (die ich im Original-Wortlaut zitiere):

• Erleben wir hier sukzessive eine Abkehr von der Klick-orientieren Web-Denke, die das Internet, wie wir es heute kennen, prägt?

• Ist Facebook einfach nur daran interessiert, die User möglichst weiter innerhalb ihrer «gated community» interagieren zu lassen?

• Werden wir bald nur noch das sehen, über das auch gesprochen wird?

• Wie gefährlich ist es für Websites, ihr Geschäftsmodell auf Drittplattformen wie Facebook auszurichten?

Und noch eine Änderung

Eine weitere Änderung, die der US-Konzern am Montag ankündigte, betrifft in erster Linie die Betreiber von Facebook-Seiten. Davon profitieren sollen aber auch die mobilen Nutzer.

Es geht um die Darstellung von Beiträgen, die einen Link enthalten. Zukünftig werden Veröffentlichungen bevorzugt, die den Link direkt im Text aufführen. Dies soll ebenfalls eine Entscheidungshilfe sein, ob man den entsprechenden Beitrag anklicken will oder nicht.

Update: 19 Uhr

Gegenüber der FAZ wies ein Vertreter von heftig.co darauf hin, dass die eigene Facebook-Seite die neuen Regeln besser erfülle als die meisten anderen Seiten. Es gehe bei heftig.co nicht um «click baiting», sondern um «share baiting». Und weiter: Die Seite sei bereits darauf ausgelegt, jene Beiträge besonders hervorzuheben, die Leser nicht nur anklicken, sondern anschliessend auch teilen. In Zahlen des Analysedienstes «10.000 Flies» ausgedrückt heisse das, dass heftig.co bei 40 Millionen Klicks auf 2,6 Millionen Likes, Shares und Tweets komme.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
0 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Facebook-Konzern will mehr KI-Inhalte kennzeichnen – anstatt sie zu löschen

Der Facebook-Konzern Meta wird mehr von Künstlicher Intelligenz erzeugte oder manipulierte Fotos und Videos mit Warnhinweisen auf seinen Plattformen lassen, statt sie zu löschen.

Zur Story