Digital
International

Youtubes neue Massnahmen gegen KI-Betrug mit Deepfakes von Prominenten

Youtube va aider les artistes à préserver leur image
Im Februar brachte dieses gefälschte Video von Brad Pitt und Tom Cruise Hollywood in Aufruhr.

So will Youtube die Hollywood-Stars stärker vor Deepfakes schützen

Das mittlerweile weit verbreitete Phänomen der Deepfakes stellt Hollywood-Stars vor Probleme. Youtube will nun ein Erkennungs- und Meldesystem gegen den Betrug mit künstlicher Intelligenz einführen.
Cet article est également disponible en français. Lisez-le maintenant!
09.05.2026, 18:5409.05.2026, 18:54
Anuj CHOPRA, new york / afp

Youtube will den Kampf gegen Identitätsdiebstahl durch künstliche Intelligenz weiter vorantreiben. Im vergangenen Monat hat Googles Videoplattform ein Tool zum Persönlichkeitsschutz eingeführt, das Inhalte identifiziert, in denen Gesichter verändert oder mithilfe von KI-Technologien generiert wurden. Das Projekt richtete sich zunächst an Regierungsbeamte, Journalisten und andere politische Akteure.

Neu können auch Schauspielerinnen und Musiker auf diesen Dienst über ihre Agenturen und Manager zugreifen. Das Tool ermöglicht es Nutzern, «KI-generierte Inhalte zu suchen, die das eigene Aussehen eines Anwenders imitieren, wie beispielsweise Deepfakes seines Gesichts, und deren Entfernung zu beantragen». Prominente und Künstler müssen dafür kein eigenes Youtube-Konto haben.

Übersetzung

Dieser Text wurde von unseren Kolleginnen und Kollegen aus der Romandie geschrieben, wir haben ihn für euch übersetzt.

Alon Yamin, CEO und Mitbegründer von Copyleaks, einer Plattform zur Erkennung von KI-Inhalten, ist der Ansicht: «Die Tatsache, dass Youtube seine Deepfake-Erkennungsfunktionen auch für Persönlichkeiten des öffentlichen Lebens öffnet, markiert einen Wendepunkt im Umgang von Plattformen mit dem Identitätsschutz im Zeitalter der generativen KI.» Er fügt hinzu:

«Die Technologie, die es uns ermöglicht, Gesicht, Stimme und Verhaltensweise einer Person nachzuahmen, hat sich schneller entwickelt als die entsprechenden Sicherheitsvorkehrungen. Dadurch ist eine Lücke entstanden, die böswillige Akteure bereits ausnutzen.»

Die Initiative kommt zu einem Zeitpunkt, an dem immer häufiger hyperrealistische Videos verstorbener Prominenter auftauchen, die mit KI-Software wie Sora – einem Tool von OpenAI – erstellt werden. Sora löste eine Flut von Videos von Michael Jackson und Elvis Presley aus, worauf OpenAI letzten Monat den Betrieb des Tools einstellte.

Im vergangenen Februar hatte der irische Regisseur Ruairí Robinson bereits ein verblüffend realistisches Video erstellt, das Brad Pitt und Tom Cruise beim Kampf auf einem Dach zeigt – der Prompt dafür war bloss zwei Sätze lang.

Das weit verbreitete Video, das in Hollywood grosse Besorgnis auslöste, wurde mit Seedance 2.0, einem Tool des chinesischen Unternehmens ByteDance, erstellt. Robinson produzierte auch weitere Videos. In einem steht Brad Pitt einem Schwert-tragenden Zombie-Ninja gegenüber, in einem anderen kämpft er an der Seite des allgegenwärtigen Tom Cruise gegen einen Roboter.

Charles Rivkin, Vorsitzender der Motion Picture Association – dem Verband der grossen amerikanischen Produktionsfirmen – forderte ByteDance auf, «unverzüglich» seine «Fälschungsaktivitäten» einzustellen. Zusätzlich warf er dem Unternehmen vor, gegen das Urheberrecht zu verstossen.

Youtube seinerseits erklärt, dass es mit grossen Künstleragenturen zusammenarbeite, um die Erkennung problematischer Bilder zu verbessern und die Künstler besser zu schützen.

Die Plattform tue «das Nötige, indem Künstlern diese Tools kostenlos zur Verfügung gestellt werden, damit diese ihr Vermächtnis schützen können», sagt Jason Newman von der Management- und Produktionsfirma Untitled Entertainment. In einem Interview mit dem «Hollywood Reporter» fügt er hinzu:

«Ihr Vermächtnis ist ihr Gesicht, ihr Körper, wer sie sind, was sie tun, ihre Art, sich auszudrücken.»

Das Tool wurde nach Beschwerden prominenter US-amerikanischer Persönlichkeiten entwickelt, die das umständliche Verfahren auf Youtube zum Melden und Entfernen von Deepfakes kritisierten. Alon Yamin erklärt:

«Es steht besonders viel auf dem Spiel, da Deepfakes dazu genutzt werden können, Fehlinformation zu verbreiten, Märkte zu manipulieren, den Ruf zu schädigen oder Befürwortung einer bestimmten Sache vorzutäuschen. Eine zuverlässige Erkennung ist daher nicht mehr optional.» Weiter betont er:

«Erkennungssysteme müssen äusserst präzise sein, auf dem neusten Stand gehalten werden und mit klaren Regeln und schnellen Entfernungsverfahren einhergehen, um wirksam zu sein.»

Der Leiter von Copyleaks argumentiert: «Dies wird Deepfakes nicht vollständig eliminieren, aber es kann ihre Reichweite und Wirkung erheblich einschränken, indem es die Verbreitung manipulierter Inhalte erschwert, ohne dass diese erkannt oder beanstandet werden.»

(afp)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wie erkennt man Deepfakes?
1 / 11
Wie erkennt man Deepfakes?
Deepfakes sind realistisch wirkende digitale Medieninhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden. Das Erkennen solcher Fake-Bilder wird immer schwieriger...
Auf Facebook teilenAuf X teilen
Gesicht von Ärztin für Deepfakes missbraucht
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
0 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Opel bringt seinen bislang stärksten Stromer
Opel kündigt eine stärkere Variante des Kleinwagens Corsa Electric an. Ein Schnäppchen ist aber nicht zu erwarten.
Bislang war Opels Corsa Electric eher auf Alltag und Effizienz ausgelegt. Der neue Corsa GSE verschiebt die Massstäbe nun deutlich.
Zur Story