Techkonzerne dürfen private Chats nicht mehr auf Kinderpornografie scannen
Ab dem 4. April 2026 dürfen Online-Plattformen in der EU im Kampf gegen sexuellen Kindesmissbrauch keine private Kommunikation mehr durchsuchen. Eine Übergangsregelung für die sogenannte freiwillige «Chatkontrolle» ist ausgelaufen, über eine dauerhafte Lösung wird in der Europäischen Union noch verhandelt.
Darum ist «Kinderpornografie» ein irreführender Begriff
Bei «Pornografie» denken viele an einvernehmliche sexuelle Darstellungen von Erwachsenen. Bei sexuellen Handlungen mit Kindern kann es aber nie Einvernehmlichkeit geben – es handelt sich immer um Missbrauch.
Im englischen Sprachraum ist die Abkürzung CSAM (Child Sexual Abuse Material) verbreitet, was mit «Darstellungen des sexuellen Missbrauchs von Kindern» übersetzt werden kann. Dieser Begriff umfasst alle visuellen Darstellungen, in denen eine minderjährige Person an sexuellen Handlungen beteiligt ist, «einschliesslich, aber nicht beschränkt auf Fotos, Videos und computergenerierte Bilder», wie es etwa Google treffend beschreibt.
Internationale Organisationen, darunter viele NGOs, aber auch die Polizeibehörde Interpol, empfehlen inzwischen, «CSAM» oder «Material über sexuellen Kindesmissbrauch» zu verwenden.
Wenn Medien, Politik, sowie Polizei und Justiz übereinstimmend diese Begriffe verwenden, statt Kinderpornografie, wird damit deutlich, dass es sich nicht um sexuelle Präferenzen handelt, sondern um Gewaltverbrechen. Wer solche Taten aufnimmt, mit Dritten teilt oder im Internet weiterverbreitet, macht sich ebenfalls strafbar.
«Ohne Rechtsgrundlage ist es Unternehmen nicht mehr gestattet, proaktiv Kindesmissbrauch in privater Kommunikation aufzudecken», erklärte ein EU-Kommissionssprecher gegenüber dem US-Medium «Politico».
Eine zeitlich befristete Ausnahme von europäischen Datenschutzregeln hatte es den Betreibern der Plattformen erlaubt, auch privat gesendete Inhalte auf Darstellungen von Kindesmissbrauch zu kontrollieren.
Unternehmen wie Instagram, Microsoft und Google konnten etwa Inhalte mit automatisierten Programmen scannen, um verbotene Darstellungen von sexuellem Kindesmissbrauch aufzuspüren und zu melden. Dabei ging es vor allem um Bilder und Videos.
Bisher keine Einigung in Verhandlungen
Eine erneute Verlängerung der Übergangslösung scheiterte, weil das Europäische Parlament die Ausnahme beschränken wollte. Nach dem Willen eines Grossteils der Abgeordneten sollten Kontrollen etwa nur bei konkreten Verdachtsfällen möglich sein. Solchen Einschränkungen wollten die EU-Staaten bisher allerdings nicht zustimmen.
Beide Seiten verhandeln nun, wie eine dauerhafte Lösung aussehen könnte. Ob und wann sie sich einigen, ist offen. Zunächst greifen nun wieder die europäischen Datenschutzregeln. Unabhängig von der europäischen Diskussion über «Chatkontrolle» können deutsche Ermittlungsbehörden in konkreten Strafverfahren auch weiterhin auf private Kommunikation zugreifen.
Kritiker bemängeln, dass die von den Techkonzernen verwendeten Scan-Tools zu falschen Missbrauchsvorwürfen geführt haben. Microsoft und Co. versichern ihrerseits, dass ihre Tools zur Erkennung von Missbrauchsmaterial (CSAM) zuverlässig seien. Das Erkennungsverfahren basiert auf einem Hash-Abgleich, der bekanntes Material mit eindeutigen Hashes zuvor identifizierter, in einer Datenbank gespeicherter Inhalte verknüpft.
(sda/dpa)
