Deepfakes gelten als eine der gefährlichsten Schattenseiten generativer KI. Besonders unangenehm können sie für Prominente oder Stars wie Taylor Swift werden. Schon Anfang 2024 wurden auf Musks Plattform X manipulierte Nacktbilder der Sängerin verbreitet. Damals stammten die Inhalte von Userinnen.
Nun bietet Elon Musks Unternehmen xAI mit der neuen Funktion Grok Imagine ein Tool an, das freizügige Videos aus Text-Prompts erstellt. Das geschieht selbst dann, wenn User gar keine expliziten Inhalte fordern. Fragwürdig ist auch, dass die Funktion ohne echte Altersverifikation läuft. Dabei ist Swift kein Einzelfall.
Was OpenAIs Sora oder Googles Veo unterbinden, erlaubt Grok Imagine mit wenigen Klicks: nackte Deepfakes. Wie die Journalistin Jess Weatherbed für das Technologie-Portal The Verge berichtet, genügte der harmlose Prompt «Taylor Swift celebrating Coachella with the boys», um mehr als 30 KI-generierte Bilder zur Auswahl zu bekommen – einige davon zeigten bereits freizügige Outfits.
Ein Fingertipp auf «Video erstellen» und den Modus «Spicy» – und die KI liess Swift in einem silbernen Rock und Halter-Top die Kleidung abreissen. Im Video tanzt sie dann im Tanga vor einer digitalen Partycrowd.
Weatherbed erklärt zum Recherche-Vorgang: «Das war mein allererster Versuch mit dem Tool.» Die Zensurbalken, mit denen sie das Material illustrierte, habe sie später selbst eingefügt.
Auch das Alter der User spielt offenbar keine Rolle: Das Tool fragte demnach weder beim Download nach einer Altersfreigabe, noch forderte es einen Altersnachweis bei der Aktivierung des «Spicy»-Modus – lediglich nach einem Geburtsjahr, das jedoch ohne Verifizierung eingetragen werden konnte.
Besonders brisant: Die Text-zu-Bild-Funktion weigerte sich laut Weatherbed zwar bei direkter Nachfrage nach Nacktfotos. Beim «Spicy»-Modus aber zeigten sich regelmässig Szenen mit teilweiser Entkleidung. In mehreren Fällen waren Prominente erkennbar dargestellt, auch wenn das Ergebnis laut Weatherbed oft ins «Uncanny Valley» abrutschte, also künstlich und seltsam wirkte.
Noch erschreckender: Laut The Verge erzeugt Grok auch fotorealistische Bilder von Kindern. Zwar weigert sich die Software, diese animiert und explizit darzustellen. Doch der «Spicy»-Modus bleibt verfügbar, auch wenn er in den Tests bei Kindern «nur» generische Bewegungen erzeugte.
Laut xAI-CEO Elon Musk wurden seit Montag mehr als 34 Millionen Bilder über Grok Imagine generiert. Das Tool ist aktuell über iOS zugänglich und Teil des SuperGrok-Abos für 30 Dollar pro Monat. Eine Stellungnahme zur Swift-Funktionalität oder zu möglichen Deepfake-Regeln blieb bislang aus. Dabei verbietet die Nutzungsrichtlinie von xAI eindeutig, Personen in pornografischem Kontext darzustellen.
Nur: Die Umsetzung scheint daran zu scheitern. Weatherbed stellt fest: «Grok Imagine scheint nichts zu tun, um zu verhindern, dass Menschen Promis wie Swift in solchen Kontexten abbilden.»
Für Taylor Swift ist das Thema Deepfake-Übergriffe alles andere als neu. Schon früher drohten Hacker auf ihrer Twitter-Seite damit, Nacktbilder zu veröffentlichen – verlangten sogar Bitcoin-Zahlungen. Ihre Reaktion damals: Humor.
«Denn die Hacker werden hacken, hacken, hacken …», schrieb sie, mit einer Anspielung auf ihren Songtext. Dazu der Kommentar: «Viel Spass beim Photoshoppen, denn ihr habt NICHTS.»
Mittlerweile haben sich die Zeiten geändert: Heute braucht es kein Photoshop und die dazugehörigen Fähigkeiten mehr. Eine App und ein Prompt genügen. Und juristische Konsequenzen? Derzeit noch fraglich.
Der Zug ist schon längst abgefahren.
Jeder ist mittlerweile in der Lage solche Bilder mit einer KI herzustellen. Lokal auf dem eigenen Rechner und ohne Zensur.
Rohmaterial gibt es zu genüge im Netz um seine eigene Lora zu erschaffen...