Digital
Schweiz

Deepfakes: Bevölkerung erkennt Fälschungen kaum – diese Tipps helfen

Schweizer Bevölkerung erkennt Deepfakes kaum – diese Tipps helfen

Fast die Hälfte der hiesigen Bevölkerung weiss nicht, was Deepfakes sind. Alarmierend: Erkannt werden die digitalen Fälschungen selbst von jenen nicht, die zuvor über mögliche Fallstricke informiert wurden.
21.06.2024, 22:31
Annika Bangerter / ch media
Mehr «Digital»

So unterschiedlich diese Personen sind, eines eint sie: Die folgenden Aussagen haben sie nie gemacht. Es sind sogenannte Deepfakes – Videos, die täuschend echt wirken, tatsächlich aber Fälschungen sind.

  • Der ukrainische Präsident Wolodymyr Selenskyj, der seine Soldaten aufruft, die Waffen niederzulegen.
  • Die Grüne-Nationalrätin Sibel Arslan, die SVP-Nationalrat Andreas Glarner zur Wahl empfiehlt.
  • Oder ein SRF-Moderator, der für Investitionsgeschäfte wirbt.

Auch Fotos oder Tonaufnahmen können mithilfe von künstlicher Intelligenz zu Deepfakes manipuliert oder künstlich erzeugt werden.

Was weiss die Schweizer Bevölkerung darüber? Und wie häufig kommt sie damit in Kontakt? Das wollte die Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) herausfinden und hat 1300 Personen befragt. Die Resultate wurden kürzlich vor den Medien präsentiert.

Wo ist das Problem?

Lediglich etwas mehr als die Hälfte der befragten Personen gab an, den Begriff «Deepfake» zu kennen. Und etwas weniger als die Hälfte hatte schon einmal ein entsprechendes Video gesehen. Selbst einen Deepfake hergestellt haben erst zwei Prozent der Befragten.

Die Studienautoren kommen daher zum Schluss, dass die Menschen in der Schweiz «eher wenig Erfahrungen mit Deepfake-Technologien haben». Dies unabhängig von Alter, Geschlecht oder Bildungsgrad.

«Gut gemachte Deepfakes können von realen Videos kaum unterschieden werden.»
Daniel Vogler, Uni Zürich

Was bedeutet dies nun, wenn man sich durch seine Social-Media-Kanäle scrollt, mal hier, mal da etwas anklickt? Die Gefahr, dass man auf einen Deepfake reinfällt, ist gross. Das zeigt ein Experiment, das im Rahmen der Studie gemacht worden ist.

Unrealistisch anmutende Zähne oder Ohrringe

Die Forschenden bildeten zwei Gruppen und zeigten ihnen je drei Deepfake- und drei reale Videos. Eine Gruppe bekam im Vorfeld Tipps, um Deepfakes zu entlarven. So ist beispielsweise ein starrer, unnatürlicher Blick der Person im Video ein Hinweis. Auch lohnt es sich, Details genau zu betrachten. Zähne, Haarsträhnen oder Ohrringe sehen häufig unrealistisch aus.

Diese Hilfestellungen hatten allerdings keinen Einfluss auf das Resultat. Beide Gruppen schnitten gleich schlecht ab. «Unser Experiment hat gezeigt: Gut gemachte Deepfakes können von realen Videos kaum unterschieden werden», sagt Daniel Vogler vom Forschungszentrum Öffentlichkeit und Gesellschaft der Universität Zürich. Einen einzigen Effekt stellten die Forschenden fest: Wer versiert mit sozialen Medien war, schnitt etwas besser ab.

Wer seine Hoffnungen auf die Detektor-Programme setzt, die Deepfakes erkennen sollen, wird von den Forschenden enttäuscht. «Wir sind zum Schluss gekommen, dass Detektoren nicht so zuverlässig sind, wie sie beworben werden. Häufig sind sie auch nicht einfach zugänglich», sagt Murat Karaboga vom Fraunhofer-Institut für System- und Innovationsforschung in Karlsruhe.

Täterschaft ist meistens im Ausland oder unbekannt

Es sind nicht nur Videos, die im Wahlkampf oder in Kriegen eingesetzt werden, um der Gegenseite zu schaden und Verwirrung zu stiften. Auch Kriminelle nutzen Deepfakes, indem sie beispielsweise bei Schock- oder Erpressungsanrufen die Stimme von Privatpersonen kopieren oder Gesichtserkennungssysteme überlisten.

Auch als Mittel der Rache oder Einschüchterung werden Deepfakes eingesetzt. Besonders davon betroffen sind Frauen. Bis heute beinhalte ein Grossteil der Deepfakes pornografische Darstellungen von Frauen, schreiben die Studienautoren.

«Es ist über die Jahre zunehmend einfacher geworden, Deepfakes zu erstellen», sagt Karaboga. Um täuschend echte Videos herzustellen, benötige es allerdings Know-how. Entsprechend gibt es einen illegalen Markt für gefälschte Videos im Darknet.

Die Rechtswissenschafterin Nula Frei von der Fernuni Schweiz weist darauf hin, dass die Schweiz kein spezifisches Recht bezüglich Deepfake kennt, allerdings sei das Zivil- und Strafrecht anwendbar. «Das grösste Problem ist aber die Durchsetzung des Rechts», sagt sie. Bei Deepfakes befände sich die Täterschaft meistens im Ausland oder sei unbekannt.

Was muss sich ändern?

Online-Plattformen in die Pflicht nehmen

Wie lassen sich also die Risiken rund um Deepfakes eindämmen? Die Studienautoren empfehlen eine Reihe von Massnahmen auf unterschiedlichen Ebenen.

  • Dem Gesetzgeber raten sie, regulierend tätig zu werden, insbesondere in Bezug auf die Plattformen. «Diese sollten mindestens dazu verpflichtet sein, problematische Inhalte zu löschen und ein entsprechendes Meldesystem einzurichten», sagt Frei.
  • Da es für Einzelpersonen schwierig ist, sich bei grossen Online-Plattformen zu wehren, brauche es spezialisierte Fachstellen, die Opfer von Deepfakes unterstützen.

Eine wichtige Rolle schreiben die Studienautoren dem Bildungswesen zu. «Auf allen Stufen muss Sensibilisierungsarbeit geleistet und die Medien- sowie Informationskompetenz gestärkt werden», sagt Frei. Firmen und Organisationen raten die Forschenden zu entsprechenden Inhouse-Schulungen.

Sie appellieren zudem an Privatpersonen, Selbstverantwortung zu übernehmen. Einerseits bei der Bewertung, Weiterverbreitung und Herstellung von Deepfakes, anderseits beim Hochladen von Bildern und Sprachaufnahmen. «Grundlegendes Wissen wie ‹das Internet vergisst nie› ist besonders in Bezug auf Deepfakes anzuwenden», sagt Frei.

Ein Verbot der Technologie lehnen die Studienautoren hingegen ab. Sie sehen in Deepfakes auch Chancen. Etwa im Bildungswesen, wenn historische Persönlichkeiten zum Leben erweckt werden, in der Unterhaltungsindustrie, um die Lippenbewegung der Schauspielerinnen und Schauspieler der Synchronfassungen von Filmen anzupassen oder in der Strafverfolgung, um Tatorte oder Tathergänge zu rekonstruieren.

Wie erkennt man gefälschte digitale Inhalte?

Die folgenden Punkte helfen, Deepfakes zu erkennen und deren Verbreitung einzudämmen:

1. Unrealistische Details

  • Gefälschte Videos lassen sich beispielsweise an den Augen der abgebildeten Person erkennen, die ungewöhnlich starr wirken. Das Gesicht scheint über dem Körper zu schweben, wenn sie sich bewegt. Auch Zähne, Haare oder Ohrringe haben oftmals unrealistische Formen. Auf Deepfakes hinweisen kann auch ein verschwommener oder unpassender Hintergrund oder wenn die Person anders aussieht oder sich anders verhält, als Sie es erwarten würden.

2. Starke Emotionalisierung

  • Herzzerreissende Szenen, emotionale Hintergrundmusik oder eine reisserische Sprache sollten zur Vorsicht mahnen. Eine auffällige Aufmachung zieht die Aufmerksamkeit auf sich und ist das Ziel von gefälschten Inhalten.

3. Überprüfung der Herkunft

  • Aus welchen Quellen stammen die Aufnahmen? Fehlt bei einem Post diese Angabe, ist Vorsicht geboten. Insbesondere bei einem Krieg hilft es, auf Social Media einzig die Inhalte von etablierten Medien als gesichert anzunehmen. Es ist allerdings darauf zu achten, ob die Accounts echt sind und es sich nicht um Fake-Profile von Qualitätsmedien handelt. Auch solche Täuschungen kommen vor.

4. Mehrere Informationsquellen nutzen

  • Berichten mehrere seriöse Kanäle über den gesehenen Inhalt? Wenn nicht, ist dies ein Hinweis, dass die Meldung nicht verifiziert ist. Bei oft geteilten Posts lohnt es sich, im Reuters-Faktencheck nachzuschauen. Zahlreiche Videos haben die dortigen Faktenchecker als falsch entlarvt und zeigen jeweils aufgrund welcher Hinweise. Die Herleitungen sind nur auf Englisch, sensibilisieren aber für Propagandafallen.

5. Suchmaschinen zu Hilfe nehmen

  • Der Ursprung eines Bildes kann mit der Google-Bildersuche abgefragt werden. Der Link eines YouTube-Videos kann mit dem YouTube-Dataviewer nachgeprüft werden. Dieser ermittelt den genauen Zeitpunkt des Uploads und liefert somit zumindest eine zeitliche Einordnung.

6. Zurückhaltend teilen

  • Das Schüren von Angst gehört zum Wesen der Fake News. Menschen teilen sie deshalb oft, weil sie sich Sorgen machen. Im Zweifelsfall gilt daher: Den Inhalt nicht weiterleiten.

Im Video erklärt

Quellen

(aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Kriminelle täuschen Politiker mit falschem Vitali Klitschko
1 / 19
Kriminelle täuschen Politiker mit falschem Vitali Klitschko
Eine Live-Schaltung mit dem früheren Boxprofi und Weltstar Vitali Klitschko, der nun als Bürgermeister von Kiew tapfer gegen die russischen Invasoren kämpft: Welcher Politiker in Westeuropa würde ein solches Gesprächsangebot ablehnen?
quelle: keystone / markus schreiber
Auf Facebook teilenAuf X teilen
Scholz-Deepfake verkündet AfD-Verbot
Video: watson
Das könnte dich auch noch interessieren:
12 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
12
Toys “R” Us veröffentlicht KI-generierte Werbung – und sorgt damit für Kritik

Der US-Spielwarengigant Toys “R” Us hat kürzlich eine Werbung veröffentlicht, welche die Entstehung des Unternehmens thematisiert. Sie erzählt die Geschichte und Vision des jungen Charles Lazarus, des Gründers von Toys “R” Us. Der Clou: Der Werbeclip wurde nicht auf herkömmliche Art produziert, sondern mit Künstlicher Intelligenz generiert.

Zur Story