So unterschiedlich diese Personen sind, eines eint sie: Die folgenden Aussagen haben sie nie gemacht. Es sind sogenannte Deepfakes – Videos, die täuschend echt wirken, tatsächlich aber Fälschungen sind.
Auch Fotos oder Tonaufnahmen können mithilfe von künstlicher Intelligenz zu Deepfakes manipuliert oder künstlich erzeugt werden.
Was weiss die Schweizer Bevölkerung darüber? Und wie häufig kommt sie damit in Kontakt? Das wollte die Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) herausfinden und hat 1300 Personen befragt. Die Resultate wurden kürzlich vor den Medien präsentiert.
Lediglich etwas mehr als die Hälfte der befragten Personen gab an, den Begriff «Deepfake» zu kennen. Und etwas weniger als die Hälfte hatte schon einmal ein entsprechendes Video gesehen. Selbst einen Deepfake hergestellt haben erst zwei Prozent der Befragten.
Die Studienautoren kommen daher zum Schluss, dass die Menschen in der Schweiz «eher wenig Erfahrungen mit Deepfake-Technologien haben». Dies unabhängig von Alter, Geschlecht oder Bildungsgrad.
Was bedeutet dies nun, wenn man sich durch seine Social-Media-Kanäle scrollt, mal hier, mal da etwas anklickt? Die Gefahr, dass man auf einen Deepfake reinfällt, ist gross. Das zeigt ein Experiment, das im Rahmen der Studie gemacht worden ist.
Die Forschenden bildeten zwei Gruppen und zeigten ihnen je drei Deepfake- und drei reale Videos. Eine Gruppe bekam im Vorfeld Tipps, um Deepfakes zu entlarven. So ist beispielsweise ein starrer, unnatürlicher Blick der Person im Video ein Hinweis. Auch lohnt es sich, Details genau zu betrachten. Zähne, Haarsträhnen oder Ohrringe sehen häufig unrealistisch aus.
Diese Hilfestellungen hatten allerdings keinen Einfluss auf das Resultat. Beide Gruppen schnitten gleich schlecht ab. «Unser Experiment hat gezeigt: Gut gemachte Deepfakes können von realen Videos kaum unterschieden werden», sagt Daniel Vogler vom Forschungszentrum Öffentlichkeit und Gesellschaft der Universität Zürich. Einen einzigen Effekt stellten die Forschenden fest: Wer versiert mit sozialen Medien war, schnitt etwas besser ab.
Wer seine Hoffnungen auf die Detektor-Programme setzt, die Deepfakes erkennen sollen, wird von den Forschenden enttäuscht. «Wir sind zum Schluss gekommen, dass Detektoren nicht so zuverlässig sind, wie sie beworben werden. Häufig sind sie auch nicht einfach zugänglich», sagt Murat Karaboga vom Fraunhofer-Institut für System- und Innovationsforschung in Karlsruhe.
Es sind nicht nur Videos, die im Wahlkampf oder in Kriegen eingesetzt werden, um der Gegenseite zu schaden und Verwirrung zu stiften. Auch Kriminelle nutzen Deepfakes, indem sie beispielsweise bei Schock- oder Erpressungsanrufen die Stimme von Privatpersonen kopieren oder Gesichtserkennungssysteme überlisten.
Auch als Mittel der Rache oder Einschüchterung werden Deepfakes eingesetzt. Besonders davon betroffen sind Frauen. Bis heute beinhalte ein Grossteil der Deepfakes pornografische Darstellungen von Frauen, schreiben die Studienautoren.
«Es ist über die Jahre zunehmend einfacher geworden, Deepfakes zu erstellen», sagt Karaboga. Um täuschend echte Videos herzustellen, benötige es allerdings Know-how. Entsprechend gibt es einen illegalen Markt für gefälschte Videos im Darknet.
Die Rechtswissenschafterin Nula Frei von der Fernuni Schweiz weist darauf hin, dass die Schweiz kein spezifisches Recht bezüglich Deepfake kennt, allerdings sei das Zivil- und Strafrecht anwendbar. «Das grösste Problem ist aber die Durchsetzung des Rechts», sagt sie. Bei Deepfakes befände sich die Täterschaft meistens im Ausland oder sei unbekannt.
Wie lassen sich also die Risiken rund um Deepfakes eindämmen? Die Studienautoren empfehlen eine Reihe von Massnahmen auf unterschiedlichen Ebenen.
Eine wichtige Rolle schreiben die Studienautoren dem Bildungswesen zu. «Auf allen Stufen muss Sensibilisierungsarbeit geleistet und die Medien- sowie Informationskompetenz gestärkt werden», sagt Frei. Firmen und Organisationen raten die Forschenden zu entsprechenden Inhouse-Schulungen.
Sie appellieren zudem an Privatpersonen, Selbstverantwortung zu übernehmen. Einerseits bei der Bewertung, Weiterverbreitung und Herstellung von Deepfakes, anderseits beim Hochladen von Bildern und Sprachaufnahmen. «Grundlegendes Wissen wie ‹das Internet vergisst nie› ist besonders in Bezug auf Deepfakes anzuwenden», sagt Frei.
Ein Verbot der Technologie lehnen die Studienautoren hingegen ab. Sie sehen in Deepfakes auch Chancen. Etwa im Bildungswesen, wenn historische Persönlichkeiten zum Leben erweckt werden, in der Unterhaltungsindustrie, um die Lippenbewegung der Schauspielerinnen und Schauspieler der Synchronfassungen von Filmen anzupassen oder in der Strafverfolgung, um Tatorte oder Tathergänge zu rekonstruieren.
Die folgenden Punkte helfen, Deepfakes zu erkennen und deren Verbreitung einzudämmen:
(aargauerzeitung.ch)
Wi alle neuen Technilogien, kann auch diese für Gutes oder Schlechtes verwendet werden. Ich wäre für Gutes!
CF