KI-generierte Videos von Feuerwehrleuten, die angeblich Wildtiere aus den Waldbränden um Los Angeles retten, verbreiten sich seit einigen Tagen wie ein Lauffeuer auf Instagram, Facebook, YouTube oder TikTok.
Ein Reddit-User schreibt: «Meine Mutter zeigte mir ein ‹super trauriges Video› von Feuerwehrleuten, die Tiere aus den Waldbränden in Kalifornien retten, ich musste ihr sagen, dass es KI ist.» Dass es ein Fake ist, «war wirklich schwer zu erkennen, also kann ich es ihr nicht verübeln. Das Video hatte fast 9 Millionen Aufrufe und 630'000 Likes».
Inzwischen hat das virale KI-Video allein auf Instagram 44 Millionen Aufrufe. Effektiv sind es noch weit mehr, da viele User das Original-Video herunterladen und auf ihren Social-Media-Accounts neu hochladen oder via Messenger-Apps verbreiten. Dies meist ohne den Hinweis, dass es sich um ein fiktives KI-Video handelt.
Zum Video schreibt der Ersteller: «Inmitten der Flammen kämpfen selbst die kleinsten Lebewesen ums Überleben. Feuerwehrleute riskieren alles, um nicht nur Menschen, sondern auch die stummen Kreaturen der Wildnis zu retten. Eine herzzerreissende Realität über Mut und Verlust. 🐾🔥»
Es handelt sich allerdings um komplett KI-generiertes Material, das bewusst auf die Gefühle der Zuschauer abzielt. Dies offenbar erfolgreich.
Das Fake-Video stammt vom Instagram-Account FutureRiderUS mit 200'000 Followern, der regelmässig KI-generierte Inhalte veröffentlicht. Ein anderes Video von ihm zeigt etwa den angeblich brennenden Hollywood-Schriftzug über Los Angeles. Auch dieses KI-Video hat über eine Million Aufrufe.
Um nicht die Sperrung des Accounts zu riskieren, sind die Videos mit einem unscheinbaren KI-Label gekennzeichnet.
Der Instagram-Account verspricht, jeder könne «ohne Erfahrung 5000 Dollar pro Monat mit viralen Instagram-Videos verdienen». Dafür müsse man nur seine Anleitung kaufen, die derzeit zum Aktionspreis von 20 statt 50 Dollar zu erwerben sei.
Er verlinkt auf eine Webseite, auf der man seine Kreditkartendaten eingeben soll. Dort heisst es: «Mein Leitfaden verrät Ihnen genau, wie Sie virale Reels erstellen, schnell Tausende von Followern gewinnen und eine Seite aufbauen, die so wertvoll ist, dass die Leute sie kaufen wollen.»
Kurz: Der User nutzt die Katastrophe in Los Angeles, um ein schnelles Geschäft zu machen.
Obwohl unterdessen vielen bewusst ist, dass es sich bei den Wildtiere rettenden Feuerwehrleuten um einen KI-Fake handelt, wird das Video von unzähligen Usern weiterhin auf Instagram und Co. gepostet.
TV-Star und Unternehmerin Lori Greiner teilte das KI-Video mit ihren 1,2 Millionen Followern und schrieb dazu: «Ja, ich weiss, dass es sich um KI handelt, aber diese Dinge passieren tatsächlich – diese Feuerwehrleute retten nicht nur Menschen, sondern auch Tiere.»
Das stimmt. Feuerwehrleute haben tatsächlich Tiere aus den Flammen in Los Angeles gerettet. Dies macht das fotorealistische KI-Video umso glaubwürdiger, zumal viele in schlimmen Zeiten nur zu gern glauben möchten, dass die «herzerwärmende Tierrettung» echt ist.
Greiner nutzt das problematische KI-Video, um auf Spendenmöglichkeiten für die «Los Angeles Fire Department Foundation» aufmerksam zu machen. Aber wie den anderen Usern, die das emotionale Video stehlen und unter ihrem Namen neu posten, hilft ihr die Reichweite auch, um Aufmerksamkeit für sich zu generieren.
Dazu kommt: User können ihr für das fragwürdige Video ein virtuelles «Geschenk senden», sprich eine kleine Spende zukommen lassen.
Auffällig viele User, die das KI-Video posten, begründen dies damit, dass sie so auf die bedrohten Tiere in den Waldbrandgebieten aufmerksam machen möchten. Der Zweck heiligt die Mittel. Dass KI-Fakes problematisch sind, selbst wenn man erwähnt, dass sie KI generiert sind, ist ihnen entweder nicht bewusst – oder egal.
Immerhin nutzen manche User Instagrams Kennzeichnungsfunktion, um das Video als KI-generiert auszuweisen. Wird ein Video von Usern als KI-generiert gekennzeichnet, ist am unteren Bildrand das kleine Label «KI-Info» zu sehen.
Eigentlich sind die Regeln für KI-Videos auf Instagram, Facebook und Threads eindeutig. Der Mutterkonzern Meta schreibt:
Das Video mit den Feuerwehrleuten müsste also von den Usern, die es posten, mit Instagrams Warnhinweis «KI-Info» gekennzeichnet werden. Ob das Label gross genug und verständlich ist, ist wiederum eine ganz andere Frage.