Aufsehenerregende Fake-Fotos hatten auch 2024 Hochsaison im Netz. Allen voran Kate Middletons retuschiertes Familienfoto.
Andere spektakuläre Bilder sind tatsächlich echt. Etwa das Foto von Surfer Gabriel Medina an den Olympischen Sommerspielen.
2024 brach ein Tsunami gefälschter Fotos über uns herein. Manche sind harmlos-witzig und wurden ohne böse Absichten weiterverbreitet. Bei anderen Fälschungen stecken handfeste politische oder finanzielle Interessen dahinter. Eine kleine Übersicht.
Am 13. Juli 2024 wurde Donald Trump während einer Wahlkampfveranstaltung angeschossen. Ein Zuschauer starb, zwei weitere wurden schwer verletzt. Kurz darauf kursierten in den sozialen Medien Fotos, auf denen Trump und Sicherheitskräfte angeblich lächelnd zu sehen sind. Kommentare wie «Warum ist er so glücklich» und «Warum lächeln die Sicherheitskräfte?» sollten Verschwörungserzählungen befeuern.
Die Fotos wurden manipuliert. Es gibt zahlreiche Presse-Fotos und vollständige Filmaufnahmen des Attentats, auf denen eindeutig niemand lächelt.
Nach dem Attentat auf Trump teilten Twitter-User Bilder von Adolf Hitler und Donald Trump, die angeblich zeigen sollen, dass Trump die gleiche Pose machte «wie sein Idol Adolf Hitler».
Das Foto von Trump mit geballter Faust ist echt. Das Foto von Hitler hingegen ist eine Bildmontage, wie das auf Faktenchecks spezialisierte Portal Snopes herausfand. Im Netz wurde zuvor fälschlicherweise behauptet, es handle sich um ein mit KI erzeugtes Hitler-Foto. Effektiv ist es eine Photoshop-Manipulation der alten Schule.
Das Original-Foto von Hitler stammt von 1934. Es ist bei Bildagenturen wie Getty und Alamy verfügbar. Hitlers Vertrauter Joseph Goebbels im Hintergrund und die unbekannte Frau im Vordergrund wurden manuell aus anderen Fotos hinzugefügt.
Während den Sommerspielen verbreiteten transfeindliche Kreise auf Twitter und Facebook ein Foto einer Stabhochspringerin, auf dem sich angeblich männliche Geschlechtsorgane abzeichnen.
Das Bild ist gefälscht. Das auf Faktenchecks spezialisierte Portal correctiv.org stellt klar: «Das Originalfoto ist mehr als zehn Jahre alt und zeigt die damalige russische Stabhochspringerin Jelena Issinbajewa. Der Penis wurde nachträglich in das Foto montiert.»
Die Fälschung ist offenkundig: Issinbajewa hat ihre Sportkarriere 2016 beendet. Auf dem Shirt steht zudem «Russia». Bei den Olympischen Spielen 2024 durften russische Sportlerinnen und Sportler aber nur unter neutraler Flagge teilnehmen, wie die Faktenprüfer von Correctiv anmerken.
Das Original-Bild stammt von der Nachrichtenagentur Reuters. Es zeigt die Stabhochspringerin, die als Putin-Unterstützerin gilt, bei den Leichtathletik-Weltmeisterschaften 2013 in Moskau. Das manipulierte Bild ist übrigens auch nicht neu. Es wurde erstmals 2016 im Netz verbreitet und wird von transfeindlichen Usern bis heute genutzt.
Syriens gestürzter Diktator Baschar al-Assad ist nach Kreml-Angaben in Russland. Kurz darauf teilten mehrere Nutzer in diversen sozialen Netzwerken ein Foto, das ihn angeblich mit seiner Ehefrau in Moskau zeigen soll.
Das auf Fakten-Checks spezialisierte Portal mimikama.org stellt klar: «Das gezeigte Bild ist nicht aktuell und stammt aus dem Februar 2023. Es zeigt Baschar al-Assad und seine Frau in Aleppo, Syrien, und hat nichts mit einer angeblichen Ankunft in Russland zu tun.» Der Screenshot wurde aus einem früheren YouTube-Video eines syrischen Fernsehsenders entnommen, wie eine Bilderrückwärtssuche mit Google offenbart.
Seit sich beliebige Fotos mit KI-Bildgeneratoren innert Sekunden erzeugen lasen, fluten gefälschte historische Bilder das Internet. «Henry Ford sitzt in seinem ersten Auto, dem Ford Quadricycle», schreibt etwa der Account «Past Perspectives» auf Facebook zu einem Schwarz-Weiss-Bild, das einen jungen Mann mit Hut zeigt, der in die Kamera strahlt.
Als Fälschung entlarvt wurde das Foto vom Faktencheck-Team der australischen Nachrichtenagentur AAP. Das echte Ford-Auto hatte kein Steuerrad. Es wurde mit einer Lenkstange gesteuert.
Das Video, das sich rasant auf Social Media verbreitete, zeigt eine dramatische Szene: Ein Eisbär und sein Junges sind in einem Fischernetz gefangen und werden in letzter Sekunde gerettet. Auf Instagram und YouTube erwärmen solche Bilder und Videos von angeblich verletzten und geretteten Eisbären oder Baby-Otten unsere Herzen und sorgen für Klicks und Money.
Das Video ist nicht echt. Es wurde von einem YouTube-Kanal veröffentlicht, der selbst schreibt, dass der Inhalt «stark bearbeitet oder digital generiert» wurde. Im Klartext heisst dies: Das Video wurde mittels KI erzeugt.
Die Betreiber solcher Accounts zielen auf die Gefühle der Zuschauer ab, im Wissen, dass die Fotos und Videos Empörung erzeugen und oft viral gehen.
Ein Foto von Donald Trump und Wladimir Putin beim gemütlichen Weintrinken sorgte Anfang 2024 in den sozialen Medien für Aufregung.
Auf den zweiten Blick wird aber schnell klar, dass das Foto per KI erstellt wurde. Warum sonst hätte Putins Glas zwei Stiele?
Zahlreiche authentische Fotos belegen das Leid und die Zerstörung im Gazastreifen. Trotzdem gibt es Menschen, die zu Propagandazwecken mit KI-generierten Bildern nachhelfen wollen. Das Fake-Foto «Alle Augen auf Rafah» wurde von einem anonymen Instagram-User mit Künstlicher Intelligenz erstellt. Der User teilt auf seinem Profil Bilder von pro-palästinensischen Seiten sowie teils antisemitische Inhalte.
Das Bild wurde künstlich erzeugt, was bereits an den schneebedeckten Bergen im Hintergrund offensichtlich wird. Die Stadt Rafah im Süden Gazas grenzt an die Wüste. Gleichwohl verbreiteten Millionen Social-Media-Nutzer das Bild nach einem verheerenden Brand, den im Mai ein israelischer Luftangriff auf ein Flüchtlingslager bei Rafah ausgelöst hatte.
Im Juni verbreitete sich das Foto eines angeblichen Riesenkraken wie ein Lauffeuer im Netz. Der Instagram-Account best_of_ai hatte es zuerst veröffentlicht und als «fiktiv» ausgewiesen. Es scheint nicht die Absicht des Users gewesen zu sein, die Öffentlichkeit zu täuschen. Der Hinweis, dass es sich um ein künstlich erstelltes Bild handelt, fehlt aber bei den Postings anderer User, die es (ohne Quelle) auf Twitter und Facebook teilten.
Als KI-Fake entlarvt wurde der virale Riesenkrake von den Faktenchecker-Seiten Snopes und Mimikama.