Digital
Social Media

Mozilla-Studie warnt: Gegen Deepfakes gibt es zu wenig Schutz

Mozilla-Studie warnt: Gegen Deepfakes gibt es zu wenig (wirksamen) Schutz

Eine einfache Lösung sehen die Forschenden gemäss einer aktuellen Studie nicht. Sie plädieren aber für maschinenlesbare Wasserzeichen.
26.02.2024, 18:49
Mehr «Digital»

Eine Experten-Studie warnt vor erheblichen Defiziten bei heutigen Methoden zur Kennzeichnung von Bildern, Videos und Audio-Aufnahmen, die mit generativer künstlicher Intelligenz («GenAI») erzeugt wurden.

Für die User sichtbare Markierungen könnten irreführend und schwer zu entdecken sein – und seien zugleich relativ einfach zu entfernen, betonte die Internet-Stiftung Mozilla in einem am Montag veröffentlichten Bericht (siehe Quellen).

Digitale Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung. Auch hier gebe es jedoch den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der User ausgelesen und für sie dargestellt werden müsse.

Massnahmen zu wenig durchdacht

Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnt die Mozilla-Forscherin Ramak Molavi Vasse'i. Die sogenannten Deepfakes würden schliesslich meistens extra dafür erstellt, um in die Irre zu führen.

Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr öffentlichen Druck geben. Generell sei ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Massnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden. Ausserdem gebe es noch einen Wildwuchs aus mehreren Verfahren dafür statt eines einheitlichen Standards.

Konkret schlagen die Mozilla-Forschenden vor, unsichtbare maschinenlesbare Wasserzeichen zu nutzen. Darüber hinaus plädieren sie für die Entwicklung von «Slow AI», wie netzpolitik.org schreibt. Eine Regulierung müsste demnach sicherstellen, dass KI-Technologie fair und sicher sei.

«Einer der grössten Vorteile kryptografischer Wasserzeichen ist, dass sie – je nach Implementierung - nur schwer oder fast gar nicht gelöscht werden können, ohne den Inhalt zu beschädigen.»

Mit KI-Software kann man immer realistischere Fotos aus Text-Vorgaben erzeugen. Und inzwischen wird auf diese Weise auch immer häufiger Video generiert – so stellte der ChatGPT-Entwickler OpenAI jüngst seine Video-Software Sora vor. Die sichtbare Markierung, die auf eine KI-Herkunft hinweise, sei bei Sora klein und oft schwer zu sehen, kritisierte die Mozilla-Expertin.

Insbesondere in diesem Jahr mit der US-Präsidentenwahl und der Europawahl gibt es die grosse Sorge, dass mithilfe von KI erstellte Fälschungen verwendet werden könnten, um ihren Ausgang zu beeinflussen. In den USA gab es bereits kurz vor der Vorwahl der Demokratischen Partei im Bundesstaat New Hampshire automatisierte Anrufe, bei denen mit der täuschend echt wirkenden Stimme von Präsident Joe Biden dazu aufgerufen wurde, der Abstimmung fernzubleiben.

Solche Audio-Fakes gelten allein schon deshalb als grosses Problem, weil es weniger Möglichkeiten gibt, sie anhand von Fehlern oder Kennzeichen zu erkennen. Es gab bereits Fälle, in denen solche Aufnahmen für den sogenannten Enkel-Trick angewendet wurden, bei dem Kriminelle versuchen, Geld im Namen von Verwandten zu erbeuten.

Quellen

(dsc/sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Wie erkennt man Deepfakes?
1 / 9
Wie erkennt man Deepfakes?
Deepfakes sind realistisch wirkende digitale Medieninhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden. Das Erkennen solcher Fake-Bilder wird immer schwieriger...
Auf Facebook teilenAuf X teilen
Scholz-Deepfake verkündet AfD-Verbot
Video: watson
Das könnte dich auch noch interessieren:
0 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Das steckt hinter den merkwürdigen Tonband-Anrufen, die Tausende Schweizer erhalten
Seit Wochen rollt eine neue Welle betrügerischer «Tonband»-Anrufe im Namen angeblicher Polizeibehörden über die Schweiz: Wie die Kriminellen vorgehen, was sie wollen und wie man sich davor schützt.

Schweizerinnen und Schweizer werden seit Monaten massenhaft mit Anrufen von Fake-Polizisten belästigt. Dabei ruft nicht mehr ein Mensch an, sondern eine «Maschine». Das erlaubt den Kriminellen, ihr betrügerisches Geschäftsmodell zu intensivieren. In den letzten Wochen hat die jüngste Angriffswelle alle Rekorde gebrochen, meldet das Bundesamt für Cybersicherheit.

Zur Story