Auf dem Internet-Marktplatz Etsy können Kunden KI-generierte Bilder kaufen, die Prominente in pornografischer Art und Weise darstellen – sogenannte Deepfakes. Wie das US-Magazin «Forbes» berichtet, liefern schon die einfachsten Suchanfragen Tausende von Ergebnissen. Dabei sind pornografische Inhalte auf der Plattform verboten, ob KI-generiert oder nicht.
Eine der betroffenen Personen, die amerikanische Schauspielerin Olivia Munn, geht nun mit ihrem Anwalt gegen die Seite vor. Etsy reagiert nach Angaben des Anwalts jedoch nur schleppend auf die Aufforderung, diese Art von Bildern zu löschen. So habe es sechs Tage gedauert, bis das Unternehmen die Bilder seiner Klientin entfernt habe und das auch erst, als «Forbes» es ebenfalls zu dem Fall kontaktiert habe.
Auf Nachfrage von «Forbes» betonte Etsy zwar, sich des Problems bewusst zu sein und alles in seiner Macht Stehende zu tun, um diese Deepfakes von dem Marktplatz zu entfernen. Doch dem US-Magazin zufolge waren die meisten Angebote von Deepfake-Pornos auch Tage nach der Ankündigung weiterhin online. Die Preise dieser Angebote liegen dabei zwischen unter einem Dollar und etwas über fünf Dollar.
Das liegt laut einem der Händler, der solche Deepfakes auf der Plattform anbietet und bereit war, mit «Forbes» zu sprechen, daran, dass die Programme einfach zu bedienen seien. Zudem seien sie so weit verbreitet, dass viele Interessenten sich die Bilder einfach selbst generieren lassen könnten. Auch für Hany Farid, Professor für Computerwissenschaften an der University of California, ist die Tatsache, dass diese Bilder auf Etsy auftauchen, ein Beweis dafür, dass die Technologie im Mainstream angekommen sei.
Gerade bei Kleidung wirklich Schade.
Gibt natürlich noch ein paar gute Händler, aber man muss aufpassen.