Digital
Analyse

So wird die TikTok-App zur tödlichen Gefahr für junge Leute

TikTok kann psychische Probleme verstärken, wie eine Untersuchung von Amnesty Internation zeigt.
Die TikTok-App wirkt wie ein Gefühlsverstärker – in guten und schlechten Zeiten. Screenshot: YouTube
Analyse

So wird TikTok zur tödlichen Gefahr für junge Leute

Das Geschäftsmodell und die Funktionsweise der chinesischen Social-Media-Plattform seien eine Gefahr für junge Nutzerinnen und Nutzer: Eine internationale Untersuchung liefert alarmierende Befunde.
09.11.2023, 09:2809.11.2023, 13:20
Mehr «Digital»

Die Titel der Berichte, die Amnesty International diese Woche veröffentlicht hat, dürften Erziehungsberechtigte sowie Politikerinnen und Politiker aufhorchen lassen:

«In die Dunkelheit getrieben: Wie TikTok Selbstverletzungen und Suizidgedanken fördert»
«Ich fühle mich ausgeliefert: Gefangen im Überwachungsnetz von TikTok»

Die Berichte basieren auf Untersuchungen, die die Non-Profit-Organisation mit externen Fachleuten durchführte. Sie zeigen auf, wie minderjährige TikTok-Nutzerinnen und -Nutzer schädlichen Inhalten ausgesetzt werden. Mit System.

Im personalisierten «Für dich»-Feed werden Inhalte über Depressionen, Selbstverletzung und Suizid angezeigt, die bestehende, psychische Probleme verschlimmern können: Diese an sich schon beunruhigende Feststellung erhält zusätzliche Brisanz, weil Stresssymptome und Angststörungen unter Kindern und Jugendlichen deutlich zugenommen haben.

watson fasst die wichtigsten Erkenntnisse zusammen.

Warum hat Amnesty International das untersucht?

Die Non-Profit-Organisation setzt sich weltweit für die Einhaltung der universellen Menschenrechte ein, also derjenigen Grundrechte, die für alle Menschen gelten.

Der Argumentation von Amnesty International folgend, sind junge TikTok-Nutzerinnen und -Nutzer von «Menschenrechtsverstössen» betroffen, die dem Geschäftsmodell und der Funktionsweise der Plattform geschuldet sind.

Amnesty International setzt sich gemäss eigenen Angaben in einer globalen Kampagne für die Rechenschaftspflicht von Big-Tech-Unternehmen ein. Man fordere «Wiedergutmachung für Menschenrechtsverletzungen», die mit dem überwachungsbasierten Geschäftsmodell von Meta, Google, TikTok und anderen Plattformen zusammenhängen.

«Unsere Recherchen zeigen, dass TikTok Jugendliche ernsthaften Gesundheitsrisiken aussetzt, wenn es sein derzeitiges Geschäftsmodell beibehält. Dieses ist mehr darauf ausgerichtet, die Augen auf der Plattform zu halten, als das Recht auf Gesundheit von Kindern und Jugendlichen zu respektieren.»
Lisa Dittmer, Forscherin bei Amnesty International

TikTok reiht sich ein bei den grossen US-amerikanischen Social-Media-Plattformen, die zum sogenannten Überwachungs-Kapitalismus zählen: Die Plattformbetreiber – mächtige Techkonzerne – versuchen, möglichst viele Daten zu sammeln. Daraus werden Persönlichkeitsprofile erstellt, um gezielte Werbung zu verkaufen. Und es wird versucht, die überwiegend jungen Nutzerinnen und Nutzer mithilfe psychologischer Tricks noch stärker an die Plattform zu binden.

Wieso ist TikTok gefährlich für junge Menschen?

«Die Berichte entlarven die manipulative und süchtig machende Gestaltung von TikTok-Feeds, die darauf abzielen, die Nutzer*innen so lange wie möglich auf der Plattform zu halten.»
Amnesty International

Die TikTok-Funktionsweise fördere die ungesunde Nutzung der App, hält Amnesty International fest. Bestehende Forschungserkenntnisse zu anderen Social-Media-Plattformen und öffentlicher Gesundheit untermauerten dies.

Hier muss zunächst erklärt werden, was es mit den personalisierten Inhalten auf sich hat, die TikTok anzeigt. Diese findet man im Abschnitt «Für dich». Und dort kann man praktisch endlos weiterscrollen, von Video zu Video.

Alles wird durch den Empfehlungs-Algorithmus ausgewählt, basierend auf dem Verhalten der Nutzerin, bzw. des Nutzers. Wenn ein bestimmtes Thema zu interessieren scheint, blendet TikTok immer neue Videos ein, die dazu passen könnten. Und genau dieser Mechanismus ist dafür verantwortlich, dass Menschen mit psychischen Problemen immer tiefer in den Kaninchenbau getrieben werden, wie es heisst.

Die Recherchen von Amnesty International zeigten, dass das Geschäftsmodell von TikTok «von Natur aus missbräuchlich» sei und die User belohne, um sie an die Plattform zu binden und immer mehr Daten über sie zu sammeln.

Ausserdem wende TikTok seine Schutzmassnahmen nur in bestimmten Teilen der Welt an, sodass einige Kinder und Jugendliche der ausbeuterischen Datensammlung noch stärker ausgesetzt seien als in anderen Weltregionen.

Was TikTok zu diesen Vorwürfen sagt, folgt unten.

Was hat das mit psychischer Gesundheit zu tun?

«Das algorithmische Content-Empfehlungssystem der Plattform, das den schnellen, weltweiten Aufstieg der Plattform ermöglicht hat, setzt Kinder und junge Erwachsene mit bereits bestehenden psychischen Gesundheitsproblemen einem ernsthaften Schadensrisiko aus.»
Lisa Dittmer, Tech-Expertin bei Amnesty International

Im entsprechenden Bericht wird erläutert, wie TikTok mit dem unablässigen Buhlen um die Aufmerksamkeit seiner jungen Nutzerinnen und Nutzer riskiere, psychische Probleme wie Depressionen, Angstzustände und Selbstverletzung noch weiter zu verstärken. Ein befragter User erklärte:

«Es ist eine Abwärtsspirale, die mit einem einzigen Video beginnt. Wenn ein Video deine Aufmerksamkeit erhascht, selbst wenn es dir nicht gefällt, wird es dir beim nächsten Öffnen von TikTok angezeigt, und weil es dir bekannt vorkommt, schaust du es dir erneut an, wodurch die Häufigkeit des Videos in deinem Feed exponentiell ansteigt.»

Die technischen Recherchen der Fachleute ergaben, dass der TikTok-Feed nach nur 5-6 Stunden auf der Plattform fast zur Hälfte aus Videos «über psychische Gesundheit» bestand, die potenziell schädliche Inhalte aufwiesen – das seien zehnmal mehr einschlägige Videos als bei Konten, die kein Interesse an Inhalten zu psychischer Gesundheit signalisierten.

Die oben erwähnte Abwärtsspirale trat sogar noch schneller ein, wenn die vom TikTok-Algorithmus vorgeschlagenen Videos bei Tests angeklickt und angesehen wurden.

Nach weniger als einer halben Stunde dominierten im «Für dich»-Feed Videos, die psychische Probleme thematisierten. Innerhalb einer Stunde wurden zahlreiche Videos angezeigt, die Suizid normalisierten oder romantisierten.

Ein anderer Studienteilnehmer erklärte:

«Die Inhalte, die ich sehe, kurbeln meine Gedankenspirale [noch] weiter an, gerade Videos, in denen jemand krank ist oder sich selbst diagnostiziert. Das wirkt sich auf meine psychische Verfassung aus. Ich habe das Gefühl, dieselben Symptome zu haben, und meine Ängste werden schlimmer. Und ich suche sie [die Videos] nicht einmal bewusst, sie erscheinen einfach in meinem Feed.»

Wie gingen die Forschenden vor?

Die Erkenntnisse stammen aus einer gemeinsamen technischen Untersuchung von Amnesty International, dem Algorithmic Transparency Institute (ATI) und der National Conference on Citizenship and AI Forensics. Letztere sind zwei US-amerikanische Forschungs- und Bildungseinrichtungen. Sie befassen sich mit den gesellschaftlichen Auswirkungen der Digitalisierung und der Eindämmung von Gefahren.

Die Forschenden organisierten Fokusgruppengespräche und führten Interviews mit jungen TikTok-Usern. Und sie richteten TikTok-Testkonten vermeintlicher Minderjähriger in Kenia, auf den Philippinen und in den USA ein. Diese Konten ermöglichten es, die Auswirkungen der algorithmischen Empfehlungen auf junge Nutzerinnen und Nutzer zu erfassen.

Was muss sich ändern?

«Der beste Weg, Minderjährige vor dem Missbrauch ihrer persönlichen Daten im Internet zu schützen, besteht darin, dass Regierungen jede gezielte Werbung, die auf der invasiven Erhebung persönlicher Daten beruht, gesetzlich verbieten.»
Fazit von Amnesty International

TikTok müsse auch aufhören, den «Für dich»-Feed standardmässig zu personalisieren, und sollte stattdessen die Nutzerinnen und Nutzer entscheiden lassen, welche ihrer Interessen den Empfehlungs-Algorithmus beeinflussen. Und es sollte möglich sein, die Personalisierung auszuschalten. Genau dies hat TikTok europäischen Usern in Aussicht gestellt.

Die neuen und verschärften EU-Vorschriften, die als Digital Services Act (DSA) bekannt sind, zwingen Big-Tech-Unternehmen wie TikTok zum Handeln. Sie müssen mehr gegen schädliche und illegale Online-Inhalte unternehmen, insbesondere gegen solche, die sich an Minderjährige richten.

Die chinesische Social-Media-Plattform kündigte im vergangenen August an, dass sie den Nutzerinnen und Nutzern in der EU künftig die Wahl lassen werde, ob sie personalisierte Empfehlungen sehen möchten oder nicht.

Wer die «Für dich»-Funktion abschaltet, soll stattdessen Beiträge aus der eigenen Region oder international beliebte Videos vorgeschlagen bekommen.

Das reicht laut Amnesty International nicht:

«TikTok muss – nicht nur in Europa – die Rechte all seiner jüngeren Nutzer*innen respektieren, indem es jegliche gezielte Werbung verbietet, die sich an Personen unter 18 Jahren weltweit richtet.»
Personalisierte Werbung lässt sich in den TikTok-Einstellungen deaktivieren.
Personalisierte Werbung lässt sich in den TikTok-Einstellungen deaktivieren.screenshot: watson

Wie reagiert TikTok auf die Untersuchungen?

Als Reaktion auf die alarmierenden Feststellungen von Amnesty International verwies das Unternehmen gemäss Mitteilung auf seine Community-Richtlinien. Darin sei festgelegt, welche Arten von Inhalten verboten sind und daher von der Plattform entfernt werden – sofern sie denn von Usern gemeldet oder anderweitig identifiziert wurden.

Wie Amnesty International festhält, verbietet TikTok Inhalte, die «Suizid und Selbstverletzung zeigen, fördern oder Anleitungen dazu geben, sowie damit zusammenhängende Herausforderungen, Mutproben und Spiele, die ‹Suizid- und Selbstverletzungshandlungen zeigen oder fördern› und ‹Pläne für Suizid und Selbstverletzung teilen›».

TikTok erklärte als Antwort auf die Kritik, dass ein Prozess eingeleitet worden sei, um einen «unternehmensweiten Prozess der menschenrechtlichen Sorgfaltspflicht zu entwickeln». Dieser Prozess beinhalte «die Durchführung regelmässiger Bewertungen der Auswirkungen auf die Menschenrechte.»

Der Techkonzern machte allerdings keine Angaben, welche spezifischen Risiken für die Menschenrechte von Minderjährigen und jungen Usern identifiziert wurden.

«Dass TikTok derzeit keine unternehmensweite menschenrechtliche Sorgfaltsprüfung durchführt, ist ein klares Versäumnis des Unternehmens, seine Verantwortung für die Achtung der Menschenrechte wahrzunehmen.»
Amnesty International

Das Erklärvideo (auf Englisch):

Und jetzt du!

Welche Erfahrungen hast du mit TikTok gemacht? Fällt es dir leicht, den Konsum einzuschränken? Wie häufig triffst du in deinem «Für dich»-Feed auf problematische Inhalte?

Schreib uns via Kommentarfunktion!

Lass dir helfen!
Du glaubst, du kannst eine persönliche Krise nicht selbst bewältigen? Das musst du auch nicht. Lass dir helfen.
In der Schweiz gibt es zahlreiche Stellen, die rund um die Uhr für Menschen in suizidalen und depressiven Krisen da sind – vertraulich und kostenlos.

Die Dargebotene Hand: Tel 143, www.143.ch
Beratung + Hilfe 147 für Jugendliche: Tel 147, www.147.ch
Reden kann retten: www.reden-kann-retten.ch

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
In diesen Ländern gibt es bereits ein TikTok-Verbot
1 / 16
In diesen Ländern gibt es bereits ein TikTok-Verbot
Am 4. April 2023 verbannte Australien die TikTok-App von Regierungsgeräten – mit sofortiger Wirkung. Australien reihte sich damit in die wachsende Liste von Nationen ein, die Sicherheitsbedenken äusserten wegen der in chinesischem Besitz befindlichen Social-Media-Plattform.
quelle: shutterstock / peter galleghan
Auf Facebook teilenAuf X teilen
Arnold Schwarzeneggers starke Botschaft gegen Hass und Antisemitismus
Video: watson
Das könnte dich auch noch interessieren:
74 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
El_Chorche
09.11.2023 09:43registriert März 2021
Man könnte auch erwähnen, dass die Chinesen dem bösen Westen andere (idR schädliche) Inhalte zeigen, als ihrer eigenen Bevölkerung.

Hier Themen über Suizid, dümmliche Challenges oder noch dümmlichere "Stars" und im Reich der Mitte Inhalte über persönliche Entwicklung, Gehorsamkeit gegenüber Autoritäten und technische Fähigkeiten.

Ein Schelm wer Böses denkt.

Gruss
Chorche, ein Schelm, der Böses denkt.
15411
Melden
Zum Kommentar
avatar
THEOne
09.11.2023 09:57registriert März 2019
Insofern gefährlich, weil es zur fortschreitenden Verblödung massgeblich beiträgt.
1076
Melden
Zum Kommentar
avatar
Lanc
09.11.2023 10:27registriert August 2020
China lässt bei sich westliche Apps nicht zu. Wieso lassen wir diesen China-Müll bei uns zu?
383
Melden
Zum Kommentar
74
KI-Guru und Chefforscher verlässt ChatGPT-Firma OpenAI

Einer der wichtigsten KI-Experten des ChatGPT-Erfinders OpenAI verlässt das Unternehmen. Der Mitgründer und bisherige Forschungschef Ilya Sutskever schrieb am Dienstag bei der Online-Plattform X, er wolle sich einem Projekt widmen, das für ihn persönlich von Bedeutung sei. Details dazu wolle er später bekannt geben.

Zur Story