Digital
Schweiz

KI-Inhalte mit sexuellem Kindesmissbrauch: Schweizer Polizei ermittelt

KI-Bilder mit sexuellem Kindesmissbrauch: Schweizer Polizei geht gegen Nutzer vor

Europol hat am Freitag über die «Operation Cumberland» informiert. An den Ermittlungen gegen Pädokriminelle sind das Fedpol und Polizeibehörden in mehreren Kantonen beteiligt.
28.02.2025, 10:5903.03.2025, 09:18
Mehr «Digital»

Ermittlern ist ein Schlag gegen eine neue Form von organisierter Pädokriminalität gelungen. In mehreren Ländern wurden Aufnahmen von sexuellem Kindesmissbrauch verkauft, die vollständig mit generativer künstlicher Intelligenz (KI) erstellt worden waren.

Betroffen ist auch die Schweiz.

Was ist passiert?

Die meisten Festnahmen seien gleichzeitig am 26. Februar erfolgt und zwar im Rahmen der weltweiten «Operation Cumberland», teilte Europol am Freitag mit (siehe Quellen). An der Operation waren Polizeibehörden aus 19 Ländern beteiligt, darunter die Schweiz.

Der Hauptverdächtige, ein dänischer Staatsbürger, sei bereits im November 2024 verhaftet worden. Er habe eine (von Europol nicht genannte) Online-Plattform betrieben, auf der er das von ihm produzierte KI-generierte Material verbreitete. «Nach einer symbolischen Online-Zahlung konnten Benutzer aus aller Welt ein Passwort erhalten, um auf die Plattform zuzugreifen und zuzusehen, wie Kinder missbraucht wurden.»

Infografik von Europol zur Operation Cumberland, die sich gegen KI-generierte Inhalte mit sexuellem Kindesmissbrauch richtet.
Laut Europol wurden 273 User identifiziert und 25 Personen verhaftet.grafik: Europol

Neben dem federführenden Bundesamt für Polizei, kurz Fedpol, seien hierzulande die Kantonspolizei Basel-Landschaft, die Kantonspolizei Luzern und die Stadtpolizei Zürich in die Ermittlungen involviert.

Auf Anfrage von watson erklärt das Fedpol:

«Auch in der Schweiz wurden drei Personen identifiziert, welche KI-generierte verbotene Pornographie vom Hauptbeschuldigten in Dänemark erworben haben. Der Hauptbeschuldigte hat die verbotenen kinderpornographischen Inhalte auf gängigen Social-Media-Plattformen wie TikTok, YouTube, X und Discord angeboten.»

Die Polizei Basel-Landschaft, die Luzerner Polizei sowie die Stadtpolizei Zürich hätten «jeweils einen mutmasslichen Käufer angehalten und in die vorläufige Festnahme versetzt» – die Strafverfahren würden von den jeweiligen Staatsanwaltschaften geführt.

Fedpol-Sprecherin Berina Repesa betont:

«Die Herstellung, die Verbreitung und der Besitz von KI-generierten kinderpornografischen Inhalten ist gemäss Schweizerischen Strafgesetzbuch, Artikel 197, strafbar.»

Ohne «intensive Kooperation zwischen den Kantonen, zwischen den Kantonen und dem Bund sowie zwischen dem Bund und dem Ausland» könnten solche Ermittlungen nicht erfolgreich verlaufen. Aus diesem Grund unterstütze das Fedpol die für die Strafverfolgung der Pädokriminalität zuständigen kantonalen Behörden mit Koordinations- und Unterstützungsaufgaben.

Das Fedpol sei 2024 via Europol von den dänischen Behörden darüber informiert worden, dass sich mögliche Käufer der illegalen Inhalte in der Schweiz befinden. Bei den von Dänemark zugestellten Informationen habe das Bundesamt für Polizei eine Voranalyse durchgeführt und die mutmasslichen Täter identifiziert.

Was ist daran speziell?

Es handelt sich laut Europol um einen der ersten Fälle, bei denen KI-generiertes Material mit sexuellem Kindesmissbrauch (CSAM) verbreitet wurde.

Dies habe die Ermittler vor eine grosse Herausforderung gestellt, insbesondere weil es noch keine nationalen Gesetze gegen solche Verbrechen gebe.

Die Chefin der europäischen Polizeibehörde, Catherine De Bolle, wirt mit den Worten zitiert:

«Diese künstlich erzeugten Bilder sind so einfach zu erstellen, dass sie von Personen mit krimineller Absicht produziert werden können, selbst ohne nennenswerte technische Kenntnisse. Dies trägt zur zunehmenden Verbreitung von Material über sexuellen Kindesmissbrauch bei, und mit zunehmender Menge wird es für Ermittler immer schwieriger, Täter oder Opfer zu identifizieren.»

Laut Europol wird leistungsfähige KI-Technologie, die Bilder erstellen oder verändern kann, von Tätern missbraucht, um Darstellungen von sexuellem Missbrauch zu generieren und Opfer zu erpressen. Solche Modelle seien bereits weitverbreitet und hätten sich schnell entwickelt. Die Ergebnisse würden zunehmend echtem Material ähneln und seien daher schwerer als künstlich erstellt zu identifizieren.

Um diese Herausforderungen bewältigen zu können, müssten die Strafverfolgungsbehörden neue Ermittlungsmethoden und -instrumente entwickeln.

In der Europäischen Union diskutierten derzeit die Mitgliedstaaten über eine gemeinsame Verordnung, die von der EU-Kommission vorgeschlagen wurde. Ziel sei es, der neuen Situation zu begegnen und Kinder vor sexuellem Missbrauch und sexueller Ausbeutung zu schützen.

Quellen:

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Mit wenigen Klicks zum Deep Fake
Video: watson
Das könnte dich auch noch interessieren:
82 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
ABWESEND
28.02.2025 13:07registriert September 2024
Einige würden nun sagen, ist ja KI, kam kein Kind zu Schaden.

Aber um solche Modelle zu trainieren, braucht es auch gewisses Bildmaterial. Und solches kommt von? ... voila.

Hart durchgreifen und die Täter die volle Härte des Gesetzes spüren lassen. Egal, ob KI oder nicht. Gibt keine Entschuldigung für sowas.
5823
Melden
Zum Kommentar
avatar
Turrdy
28.02.2025 13:02registriert März 2018
Zum einen: "Strafbar nach Artikel 197", zum anderen: "Es gibt keine nationalen Gesetze". Also was jetzt?
Ich denke, wenn es ein Gesetz diesbezüglich zu fiktiven Darstellungen (Comics, Trickfilme) gibt, kann KI-generiertes Material equivalent gehandabt werden.
345
Melden
Zum Kommentar
avatar
John Henry Eden
28.02.2025 14:23registriert Januar 2014
Künstliche Bilder und Videos sind das richtige Mittel, um diesen «Markt» zu zerstören. Wären sie legal, hätte das denselben Einfluss wie legalisierte Drogen auf die Drogenkartelle. Das schützt die Kinder!

Pädophilie sucht man sich nicht freiwillig aus. Darum besser die vielen reinen Zuschauer bedienen und die wenigen potenziellen Schänder therapieren, statt alle zu verteufeln (wie früher Homosexuelle usw.).

Eine KI braucht keine echten Bilder von nackten Kindern, um künstliche zu erstellen. Fotos von angezogenen Kids, nackten Erwachsen und Text aus Anatomiebüchern genügen vollkommen.
2416
Melden
Zum Kommentar
82
    Bei Davos in die Fotofalle getappt – ein Bär streift im Kanton Graubünden umher

    Seit rund sechs Wochen zieht wieder einmal ein Bär durch den Kanton Graubünden. Auf der Website des Kantons sind insgesamt 16 Nachweise dokumentiert, darunter visuelle Sichtungen, Kot, Spuren und Bilder aus Fotofallen. Die ersten Hinweise auf den Bären wurden bereits Ende April im Val S-charl im Osten des Kantons entdeckt. Ende Mai tappte der Bär dann in Fotofallen im Engadin.

    Zur Story