Digital
Instagram

Feuerwehr rettet Tiere aus LA-Feuer: Wie KI-Fakes Instagram ruinieren

Screenshot aus einem Video: Was echt wirkt, ist zu 100 % KI-generiert.
Screenshot aus einem Video: Was echt wirkt, ist zu 100 % KI-generiert.bild: screenshot instagram

Wie KI-Fakes Instagram ruinieren

Herzerwärmende Videos zeigen, wie Feuerwehrleute Wildtiere in Not aus dem Feuerinferno in Los Angeles retten. Viele halten die KI-Videos für echt. Die Macher sahnen ab.
17.01.2025, 06:0717.01.2025, 07:50
Mehr «Digital»

KI-generierte Videos von Feuerwehrleuten, die angeblich Wildtiere aus den Waldbränden um Los Angeles retten, verbreiten sich seit einigen Tagen wie ein Lauffeuer auf Instagram, Facebook, YouTube oder TikTok.

Ein Reddit-User schreibt: «Meine Mutter zeigte mir ein ‹super trauriges Video› von Feuerwehrleuten, die Tiere aus den Waldbränden in Kalifornien retten, ich musste ihr sagen, dass es KI ist.» Dass es ein Fake ist, «war wirklich schwer zu erkennen, also kann ich es ihr nicht verübeln. Das Video hatte fast 9 Millionen Aufrufe und 630'000 Likes».

Fake-Videos zur Feuerkatastrophe in LA mit herzerwärmenden Szenen gehen viral.
Fake-Videos zur Feuerkatastrophe in LA mit herzerwärmenden Szenen gehen viral.bild: screenshot reddit

Inzwischen hat das virale KI-Video allein auf Instagram 44 Millionen Aufrufe. Effektiv sind es noch weit mehr, da viele User das Original-Video herunterladen und auf ihren Social-Media-Accounts neu hochladen oder via Messenger-Apps verbreiten. Dies meist ohne den Hinweis, dass es sich um ein fiktives KI-Video handelt.

Fake: Feuerwehrleute retten Tiere aus den Bränden in Los Angeles

Animiertes GIFGIF abspielen
Das vollständige Video (Link zu Instagram) in besserer Qualität zeigt, wie täuschend echt KI-generierte Videos 2025 aussehen.Bild: via instagram

Zum Video schreibt der Ersteller: «Inmitten der Flammen kämpfen selbst die kleinsten Lebewesen ums Überleben. Feuerwehrleute riskieren alles, um nicht nur Menschen, sondern auch die stummen Kreaturen der Wildnis zu retten. Eine herzzerreissende Realität über Mut und Verlust. 🐾🔥»

Es handelt sich allerdings um komplett KI-generiertes Material, das bewusst auf die Gefühle der Zuschauer abzielt. Dies offenbar erfolgreich.

Die Kommentare lassen erahnen, dass viele das Video für echt halten

Bild
bild: screenshot instagram

Wer steckt dahinter?

Das Fake-Video stammt vom Instagram-Account FutureRiderUS mit 200'000 Followern, der regelmässig KI-generierte Inhalte veröffentlicht. Ein anderes Video von ihm zeigt etwa den angeblich brennenden Hollywood-Schriftzug über Los Angeles. Auch dieses KI-Video hat über eine Million Aufrufe.

Um nicht die Sperrung des Accounts zu riskieren, sind die Videos mit einem unscheinbaren KI-Label gekennzeichnet.

Der Instagram-Account verspricht, jeder könne «ohne Erfahrung 5000 Dollar pro Monat mit viralen Instagram-Videos verdienen». Dafür müsse man nur seine Anleitung kaufen, die derzeit zum Aktionspreis von 20 statt 50 Dollar zu erwerben sei.

Er verlinkt auf eine Webseite, auf der man seine Kreditkartendaten eingeben soll. Dort heisst es: «Mein Leitfaden verrät Ihnen genau, wie Sie virale Reels erstellen, schnell Tausende von Followern gewinnen und eine Seite aufbauen, die so wertvoll ist, dass die Leute sie kaufen wollen.»

Kurz: Der User nutzt die Katastrophe in Los Angeles, um ein schnelles Geschäft zu machen.

Warum auch andere User absichtlich das KI-Video verbreiten

Obwohl unterdessen vielen bewusst ist, dass es sich bei den Wildtiere rettenden Feuerwehrleuten um einen KI-Fake handelt, wird das Video von unzähligen Usern weiterhin auf Instagram und Co. gepostet.

User verbreiten das Video, selbst wenn sie wissen, dass es KI-generiert ist

Der US-amerikanische TV-Star Lori Greiner teilt das KI-Video im Wissen, dass es nicht echt ist.
Der US-amerikanische TV-Star Lori Greiner teilt das KI-Video im Wissen, dass es nicht echt ist.bild: screenshot instagram

TV-Star und Unternehmerin Lori Greiner teilte das KI-Video mit ihren 1,2 Millionen Followern und schrieb dazu: «Ja, ich weiss, dass es sich um KI handelt, aber diese Dinge passieren tatsächlich – diese Feuerwehrleute retten nicht nur Menschen, sondern auch Tiere.»

Das stimmt. Feuerwehrleute haben tatsächlich Tiere aus den Flammen in Los Angeles gerettet. Dies macht das fotorealistische KI-Video umso glaubwürdiger, zumal viele in schlimmen Zeiten nur zu gern glauben möchten, dass die «herzerwärmende Tierrettung» echt ist.

Greiner nutzt das problematische KI-Video, um auf Spendenmöglichkeiten für die «Los Angeles Fire Department Foundation» aufmerksam zu machen. Aber wie den anderen Usern, die das emotionale Video stehlen und unter ihrem Namen neu posten, hilft ihr die Reichweite auch, um Aufmerksamkeit für sich zu generieren.

Dazu kommt: User können ihr für das fragwürdige Video ein virtuelles «Geschenk senden», sprich eine kleine Spende zukommen lassen.

Eine Belohnung für ein KI-Video eines anderen Users?
Eine Belohnung für ein KI-Video eines anderen Users?
bild: screenshot instagram

Auffällig viele User, die das KI-Video posten, begründen dies damit, dass sie so auf die bedrohten Tiere in den Waldbrandgebieten aufmerksam machen möchten. Der Zweck heiligt die Mittel. Dass KI-Fakes problematisch sind, selbst wenn man erwähnt, dass sie KI generiert sind, ist ihnen entweder nicht bewusst – oder egal.

Immerhin nutzen manche User Instagrams Kennzeichnungsfunktion, um das Video als KI-generiert auszuweisen. Wird ein Video von Usern als KI-generiert gekennzeichnet, ist am unteren Bildrand das kleine Label «KI-Info» zu sehen.

Einige User nutzen Instagrams Kennzeichnungsfunktion, um das Video als KI-generiert auszuweisen.
Einige User nutzen Instagrams Kennzeichnungsfunktion, um das Video als KI-generiert auszuweisen.bild: screenshot instagram

Müssen KI-Videos gekennzeichnet werden?

Eigentlich sind die Regeln für KI-Videos auf Instagram, Facebook und Threads eindeutig. Der Mutterkonzern Meta schreibt:

«Meta verlangt eine KI-Kennzeichnung, wenn Inhalte fotorealistisches Videomaterial oder realistisch klingendes Audiomaterial enthalten, das digital erstellt, bearbeitet oder verändert wurde – einschliesslich mit KI.»

Das Video mit den Feuerwehrleuten müsste also von den Usern, die es posten, mit Instagrams Warnhinweis «KI-Info» gekennzeichnet werden. Ob das Label gross genug und verständlich ist, ist wiederum eine ganz andere Frage.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen
Mit wenigen Klicks zum Deep Fake
Video: watson
Das könnte dich auch noch interessieren:
147 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Denverclan
17.01.2025 06:46registriert September 2016
Sorry, das ist doch nur noch krank…schleichender Tod des Vertrauens in alles was uns umgibt. Echtheit wird zu Grabe getragen mit schlimmem Einfluss auf die gesunde Psyche. Schützen kann man sich nur bedingt, das wird nicht lustig, die Welt wird eine ganz andere werden/sein. Mir tun die Kinder von morgen leid, obwohl sie einfach hineinwachsen werden, weil sie dann nichts anderes kennen. Es tendiert aber zu einer allgemeinen Verarmung des Mensch sein. Üble Sache…
24912
Melden
Zum Kommentar
avatar
_andreas
17.01.2025 06:49registriert April 2020
KI Kennzeichnung ist nach AGB von Meta ein muss. Die Frage ist warum Meta die KI generierten Inhalte die nicht gekennzeichnet werden nicht entfernt und die Accounts sperrt. So bringen Regeln gar nichts wenn sie nicht auch durchgesetzt werden 🤷‍♂️
1646
Melden
Zum Kommentar
avatar
Wurstgesicht
17.01.2025 06:22registriert Dezember 2018
Und wir stehen erst noch am Anfang in Sachen KI. Es fehlen griffige Regeln und Kennzeichen, welche solche Inhalte erkennbar machen.
1036
Melden
Zum Kommentar
147
    Adval Tech von Cyberangriff betroffen

    Der international tätige Schweizer Industriekonzern Adval Tech ist das Opfer einer Cyber-Attacke geworden. Der Angriff sei in der Nacht auf Sonntag erfolgt, teilte das Unternehmen am Montag mit.

    Zur Story