Die Titel der Berichte, die Amnesty International diese Woche veröffentlicht hat, dürften Erziehungsberechtigte sowie Politikerinnen und Politiker aufhorchen lassen:
Die Berichte basieren auf Untersuchungen, die die Non-Profit-Organisation mit externen Fachleuten durchführte. Sie zeigen auf, wie minderjährige TikTok-Nutzerinnen und -Nutzer schädlichen Inhalten ausgesetzt werden. Mit System.
Im personalisierten «Für dich»-Feed werden Inhalte über Depressionen, Selbstverletzung und Suizid angezeigt, die bestehende, psychische Probleme verschlimmern können: Diese an sich schon beunruhigende Feststellung erhält zusätzliche Brisanz, weil Stresssymptome und Angststörungen unter Kindern und Jugendlichen deutlich zugenommen haben.
watson fasst die wichtigsten Erkenntnisse zusammen.
Die Non-Profit-Organisation setzt sich weltweit für die Einhaltung der universellen Menschenrechte ein, also derjenigen Grundrechte, die für alle Menschen gelten.
Der Argumentation von Amnesty International folgend, sind junge TikTok-Nutzerinnen und -Nutzer von «Menschenrechtsverstössen» betroffen, die dem Geschäftsmodell und der Funktionsweise der Plattform geschuldet sind.
Amnesty International setzt sich gemäss eigenen Angaben in einer globalen Kampagne für die Rechenschaftspflicht von Big-Tech-Unternehmen ein. Man fordere «Wiedergutmachung für Menschenrechtsverletzungen», die mit dem überwachungsbasierten Geschäftsmodell von Meta, Google, TikTok und anderen Plattformen zusammenhängen.
TikTok reiht sich ein bei den grossen US-amerikanischen Social-Media-Plattformen, die zum sogenannten Überwachungs-Kapitalismus zählen: Die Plattformbetreiber – mächtige Techkonzerne – versuchen, möglichst viele Daten zu sammeln. Daraus werden Persönlichkeitsprofile erstellt, um gezielte Werbung zu verkaufen. Und es wird versucht, die überwiegend jungen Nutzerinnen und Nutzer mithilfe psychologischer Tricks noch stärker an die Plattform zu binden.
Die TikTok-Funktionsweise fördere die ungesunde Nutzung der App, hält Amnesty International fest. Bestehende Forschungserkenntnisse zu anderen Social-Media-Plattformen und öffentlicher Gesundheit untermauerten dies.
Hier muss zunächst erklärt werden, was es mit den personalisierten Inhalten auf sich hat, die TikTok anzeigt. Diese findet man im Abschnitt «Für dich». Und dort kann man praktisch endlos weiterscrollen, von Video zu Video.
Alles wird durch den Empfehlungs-Algorithmus ausgewählt, basierend auf dem Verhalten der Nutzerin, bzw. des Nutzers. Wenn ein bestimmtes Thema zu interessieren scheint, blendet TikTok immer neue Videos ein, die dazu passen könnten. Und genau dieser Mechanismus ist dafür verantwortlich, dass Menschen mit psychischen Problemen immer tiefer in den Kaninchenbau getrieben werden, wie es heisst.
Die Recherchen von Amnesty International zeigten, dass das Geschäftsmodell von TikTok «von Natur aus missbräuchlich» sei und die User belohne, um sie an die Plattform zu binden und immer mehr Daten über sie zu sammeln.
Ausserdem wende TikTok seine Schutzmassnahmen nur in bestimmten Teilen der Welt an, sodass einige Kinder und Jugendliche der ausbeuterischen Datensammlung noch stärker ausgesetzt seien als in anderen Weltregionen.
Was TikTok zu diesen Vorwürfen sagt, folgt unten.
Im entsprechenden Bericht wird erläutert, wie TikTok mit dem unablässigen Buhlen um die Aufmerksamkeit seiner jungen Nutzerinnen und Nutzer riskiere, psychische Probleme wie Depressionen, Angstzustände und Selbstverletzung noch weiter zu verstärken. Ein befragter User erklärte:
Die technischen Recherchen der Fachleute ergaben, dass der TikTok-Feed nach nur 5-6 Stunden auf der Plattform fast zur Hälfte aus Videos «über psychische Gesundheit» bestand, die potenziell schädliche Inhalte aufwiesen – das seien zehnmal mehr einschlägige Videos als bei Konten, die kein Interesse an Inhalten zu psychischer Gesundheit signalisierten.
Die oben erwähnte Abwärtsspirale trat sogar noch schneller ein, wenn die vom TikTok-Algorithmus vorgeschlagenen Videos bei Tests angeklickt und angesehen wurden.
Nach weniger als einer halben Stunde dominierten im «Für dich»-Feed Videos, die psychische Probleme thematisierten. Innerhalb einer Stunde wurden zahlreiche Videos angezeigt, die Suizid normalisierten oder romantisierten.
Ein anderer Studienteilnehmer erklärte:
Die Erkenntnisse stammen aus einer gemeinsamen technischen Untersuchung von Amnesty International, dem Algorithmic Transparency Institute (ATI) und der National Conference on Citizenship and AI Forensics. Letztere sind zwei US-amerikanische Forschungs- und Bildungseinrichtungen. Sie befassen sich mit den gesellschaftlichen Auswirkungen der Digitalisierung und der Eindämmung von Gefahren.
Die Forschenden organisierten Fokusgruppengespräche und führten Interviews mit jungen TikTok-Usern. Und sie richteten TikTok-Testkonten vermeintlicher Minderjähriger in Kenia, auf den Philippinen und in den USA ein. Diese Konten ermöglichten es, die Auswirkungen der algorithmischen Empfehlungen auf junge Nutzerinnen und Nutzer zu erfassen.
TikTok müsse auch aufhören, den «Für dich»-Feed standardmässig zu personalisieren, und sollte stattdessen die Nutzerinnen und Nutzer entscheiden lassen, welche ihrer Interessen den Empfehlungs-Algorithmus beeinflussen. Und es sollte möglich sein, die Personalisierung auszuschalten. Genau dies hat TikTok europäischen Usern in Aussicht gestellt.
Die neuen und verschärften EU-Vorschriften, die als Digital Services Act (DSA) bekannt sind, zwingen Big-Tech-Unternehmen wie TikTok zum Handeln. Sie müssen mehr gegen schädliche und illegale Online-Inhalte unternehmen, insbesondere gegen solche, die sich an Minderjährige richten.
Die chinesische Social-Media-Plattform kündigte im vergangenen August an, dass sie den Nutzerinnen und Nutzern in der EU künftig die Wahl lassen werde, ob sie personalisierte Empfehlungen sehen möchten oder nicht.
Wer die «Für dich»-Funktion abschaltet, soll stattdessen Beiträge aus der eigenen Region oder international beliebte Videos vorgeschlagen bekommen.
Das reicht laut Amnesty International nicht:
Als Reaktion auf die alarmierenden Feststellungen von Amnesty International verwies das Unternehmen gemäss Mitteilung auf seine Community-Richtlinien. Darin sei festgelegt, welche Arten von Inhalten verboten sind und daher von der Plattform entfernt werden – sofern sie denn von Usern gemeldet oder anderweitig identifiziert wurden.
Wie Amnesty International festhält, verbietet TikTok Inhalte, die «Suizid und Selbstverletzung zeigen, fördern oder Anleitungen dazu geben, sowie damit zusammenhängende Herausforderungen, Mutproben und Spiele, die ‹Suizid- und Selbstverletzungshandlungen zeigen oder fördern› und ‹Pläne für Suizid und Selbstverletzung teilen›».
TikTok erklärte als Antwort auf die Kritik, dass ein Prozess eingeleitet worden sei, um einen «unternehmensweiten Prozess der menschenrechtlichen Sorgfaltspflicht zu entwickeln». Dieser Prozess beinhalte «die Durchführung regelmässiger Bewertungen der Auswirkungen auf die Menschenrechte.»
Der Techkonzern machte allerdings keine Angaben, welche spezifischen Risiken für die Menschenrechte von Minderjährigen und jungen Usern identifiziert wurden.
Welche Erfahrungen hast du mit TikTok gemacht? Fällt es dir leicht, den Konsum einzuschränken? Wie häufig triffst du in deinem «Für dich»-Feed auf problematische Inhalte?
Schreib uns via Kommentarfunktion!
Hier Themen über Suizid, dümmliche Challenges oder noch dümmlichere "Stars" und im Reich der Mitte Inhalte über persönliche Entwicklung, Gehorsamkeit gegenüber Autoritäten und technische Fähigkeiten.
Ein Schelm wer Böses denkt.
Gruss
Chorche, ein Schelm, der Böses denkt.