Digital
Faktencheck

Diese Bilder haben uns 2024 schockiert und alle waren sie gefälscht

Alles gefälscht: Dieses Foto wurde von Trump-Fans mithilfe von KI erzeugt.
Alles gefälscht: Dieses Foto wurde von Trump-Fans mithilfe von KI erzeugt. bild: KI-generiert: twitter / @markkayeshow
Faktencheck

Diese Bilder haben uns 2024 verblüfft und schockiert – und alle waren sie gefälscht

Das Jahr 2024 hat uns einmal mehr vor Augen geführt: Es ist nicht immer das, wonach es aussieht.
29.12.2024, 13:0329.12.2024, 15:07
Mehr «Digital»

Aufsehenerregende Fake-Fotos hatten auch 2024 Hochsaison im Netz. Allen voran Kate Middletons retuschiertes Familienfoto.

Andere spektakuläre Bilder sind tatsächlich echt. Etwa das Foto von Surfer Gabriel Medina an den Olympischen Sommerspielen.

Kein Fake, einfach gutes Timing

So cool können nur Surfer posen. Gabriel Medina an den Olympischen Sommerspielen 2024.

Auch dieses auf Twitter geteilte Foto ist echt

Ein Sessellift ohne Sicherheitsbügel in den 1960er-Jahren in Jackson, Wyoming.
Ein Sessellift ohne Sicherheitsbügel in den 1960er-Jahren in Jackson, Wyoming.bild: twitter / @Vinod_r108/X

2024 brach ein Tsunami gefälschter Fotos über uns herein. Manche sind harmlos-witzig und wurden ohne böse Absichten weiterverbreitet. Bei anderen Fälschungen stecken handfeste politische oder finanzielle Interessen dahinter. Eine kleine Übersicht.

Nein, die Sicherheitskräfte haben nach dem Trump-Attentat nicht gelächelt

Das Foto mit lächelnden Sicherheitskräften ist gefälscht.
Das Foto mit lächelnden Sicherheitskräften ist gefälscht.bild: threads
Auch dieses Foto wurde manipuliert. Trump lächelte nach dem Attentat nicht.
Auch dieses Foto wurde manipuliert. Trump lächelte nach dem Attentat nicht. bild: twitter

Am 13. Juli 2024 wurde Donald Trump während einer Wahlkampfveranstaltung angeschossen. Ein Zuschauer starb, zwei weitere wurden schwer verletzt. Kurz darauf kursierten in den sozialen Medien Fotos, auf denen Trump und Sicherheitskräfte angeblich lächelnd zu sehen sind. Kommentare wie «Warum ist er so glücklich» und «Warum lächeln die Sicherheitskräfte?» sollten Verschwörungserzählungen befeuern.

Die Fotos wurden manipuliert. Es gibt zahlreiche Presse-Fotos und vollständige Filmaufnahmen des Attentats, auf denen eindeutig niemand lächelt.

Das Originalfoto

Republican presidential candidate former President Donald Trump is surrounded by U.S. Secret Service agents at a campaign rally, Saturday, July 13, 2024, in Butler, Pa. (KEYSTONE/AP Photo/Evan Vucci)
Niemand hat nach dem gescheiterten Attentat gelächelt.Bild: AP

Nein, das Foto von Adolf Hitler, der angeblich wie Trump posierte, ist nicht echt

Das Fake-Bild von Adolf Hitler (links) soll den Eindruck erwecken, Trump habe wie einst Adolf Hitler posiert.
Das Fake-Bild von Adolf Hitler (links) soll den Eindruck erwecken, Trump habe wie einst Adolf Hitler posiert.bild: twitter / @theirishokie

Nach dem Attentat auf Trump teilten Twitter-User Bilder von Adolf Hitler und Donald Trump, die angeblich zeigen sollen, dass Trump die gleiche Pose machte «wie sein Idol Adolf Hitler».

Das Foto von Trump mit geballter Faust ist echt. Das Foto von Hitler hingegen ist eine Bildmontage, wie das auf Faktenchecks spezialisierte Portal Snopes herausfand. Im Netz wurde zuvor fälschlicherweise behauptet, es handle sich um ein mit KI erzeugtes Hitler-Foto. Effektiv ist es eine Photoshop-Manipulation der alten Schule.

Das Fake-Foto (links) wurde aus mehreren echten, historischen Fotos zusammengebastelt.
Das Fake-Foto (links) wurde aus mehreren echten, historischen Fotos zusammengebastelt.bild: snopes; quelle: X user @JaneotN, Getty Images

Das Original-Foto von Hitler stammt von 1934. Es ist bei Bildagenturen wie Getty und Alamy verfügbar. Hitlers Vertrauter Joseph Goebbels im Hintergrund und die unbekannte Frau im Vordergrund wurden manuell aus anderen Fotos hinzugefügt.

Nein, das Foto zeigt keine Stabhochspringerin mit Penis an den Olympischen Spielen

Unter dem auf Facebook geposteten Bild finden sich transfeindliche Kommentare.
Unter dem auf Facebook geposteten Bild finden sich transfeindliche Kommentare.bild: Facebook; Screenshot und Schwärzung: CORRECTIV.Faktencheck

Während den Sommerspielen verbreiteten transfeindliche Kreise auf Twitter und Facebook ein Foto einer Stabhochspringerin, auf dem sich angeblich männliche Geschlechtsorgane abzeichnen.

Das Bild ist gefälscht. Das auf Faktenchecks spezialisierte Portal correctiv.org stellt klar: «Das Originalfoto ist mehr als zehn Jahre alt und zeigt die damalige russische Stabhochspringerin Jelena Issinbajewa. Der Penis wurde nachträglich in das Foto montiert.»

Das Originalfoto

Das Foto der Stabhochspringerin Jelena Issinbajewa aus 2013 (links) wurde nachträglich bearbeitet (rechts)
Das echte Foto der Stabhochspringerin Jelena Issinbajewa von 2013 (links) wurde nachträglich bearbeitet.Bild: Pinterest / Facebook; Screenshot: CORRECTIV.Faktencheck

Die Fälschung ist offenkundig: Issinbajewa hat ihre Sportkarriere 2016 beendet. Auf dem Shirt steht zudem «Russia». Bei den Olympischen Spielen 2024 durften russische Sportlerinnen und Sportler aber nur unter neutraler Flagge teilnehmen, wie die Faktenprüfer von Correctiv anmerken.

Das Original-Bild stammt von der Nachrichtenagentur Reuters. Es zeigt die Stabhochspringerin, die als Putin-Unterstützerin gilt, bei den Leichtathletik-Weltmeisterschaften 2013 in Moskau. Das manipulierte Bild ist übrigens auch nicht neu. Es wurde erstmals 2016 im Netz verbreitet und wird von transfeindlichen Usern bis heute genutzt.

Nein, hier sehen wir nicht Baschar al-Assad nach seiner Flucht aus Syrien in Moskau

Dieses Bild ist alt und zeigt nicht, wie behauptet, Baschar al-Assad und seine Frau bei ihrer Ankunft in Moskau.
Dieses Bild ist alt und zeigt nicht, wie behauptet, Baschar al-Assad und seine Frau bei ihrer Ankunft in Moskau.Quelle: twitter; Screenshot und Collage: CORRECTIV.Faktencheck

Syriens gestürzter Diktator Baschar al-Assad ist nach Kreml-Angaben in Russland. Kurz darauf teilten mehrere Nutzer in diversen sozialen Netzwerken ein Foto, das ihn angeblich mit seiner Ehefrau in Moskau zeigen soll.

Das auf Fakten-Checks spezialisierte Portal mimikama.org stellt klar: «Das gezeigte Bild ist nicht aktuell und stammt aus dem Februar 2023. Es zeigt Baschar al-Assad und seine Frau in Aleppo, Syrien, und hat nichts mit einer angeblichen Ankunft in Russland zu tun.» Der Screenshot wurde aus einem früheren YouTube-Video eines syrischen Fernsehsenders entnommen, wie eine Bilderrückwärtssuche mit Google offenbart.

Das Original

Die Videoaufnahme des Besuchs Assads bei den Erdbebenopfern im Spital von Aleppo stammt vom 10. Februar 2023.
Die Videoaufnahme des Besuchs Assads bei den Erdbebenopfern im Spital von Aleppo stammt vom 10. Februar 2023.bild: Youtube/Syria Stream; screenshot: DW-Faktencheck

Nein, hier sitzt nicht Henry Ford in seinem ersten Auto

Dieses Foto wurde von einer KI generiert. Zu erkennen an der rechten Hand, die merkwürdig im Lenkrad steckt.
Dieses Foto wurde von einer KI generiert. Zu erkennen an der rechten Hand, die merkwürdig im Lenkrad steckt.bild: Facebook/Past Perspectives via SRF

Seit sich beliebige Fotos mit KI-Bildgeneratoren innert Sekunden erzeugen lasen, fluten gefälschte historische Bilder das Internet. «Henry Ford sitzt in seinem ersten Auto, dem Ford Quadricycle», schreibt etwa der Account «Past Perspectives» auf Facebook zu einem Schwarz-Weiss-Bild, das einen jungen Mann mit Hut zeigt, der in die Kamera strahlt.

Als Fälschung entlarvt wurde das Foto vom Faktencheck-Team der australischen Nachrichtenagentur AAP. Das echte Ford-Auto hatte kein Steuerrad. Es wurde mit einer Lenkstange gesteuert.

Das Originalfoto von 1896

HENRY FORD 1863-1947. American automobile manufacturer. Photographed in 1896 with the first Ford automobile. PUBLICATIONxNOTxINxUSAxCANxUKxFRAxESPxJPN Copyright: xGRANGERx/xGRANGERx 0017867
Der echte Henry Ford auf seinem ersten Fahrzeug, das per Lenkstange gesteuert wurde. Bild: imago

Nein, hier ist kein Eisbär in Not

Eisbär und sein Junges in Not? Alles gefälscht.Video: YouTube/Pawsitive Vibes Only

Das Video, das sich rasant auf Social Media verbreitete, zeigt eine dramatische Szene: Ein Eisbär und sein Junges sind in einem Fischernetz gefangen und werden in letzter Sekunde gerettet. Auf Instagram und YouTube erwärmen solche Bilder und Videos von angeblich verletzten und geretteten Eisbären oder Baby-Otten unsere Herzen und sorgen für Klicks und Money.

Das Video ist nicht echt. Es wurde von einem YouTube-Kanal veröffentlicht, der selbst schreibt, dass der Inhalt «stark bearbeitet oder digital generiert» wurde. Im Klartext heisst dies: Das Video wurde mittels KI erzeugt.

Die Betreiber solcher Accounts zielen auf die Gefühle der Zuschauer ab, im Wissen, dass die Fotos und Videos Empörung erzeugen und oft viral gehen.

Nein, dieses Foto zeigt nicht Trump mit Putin am Feiern

Trump und Putin gut gelaunt beim Weintrinken? Das Fake-Bild wurde mittels Künstlicher Intelligenz erstellt.
Trump und Putin gut gelaunt beim Weintrinken? Das Fake-Bild wurde mittels Künstlicher Intelligenz erstellt. bild: twitter; Screenshot und Collage: CORRECTIV.Faktencheck

Ein Foto von Donald Trump und Wladimir Putin beim gemütlichen Weintrinken sorgte Anfang 2024 in den sozialen Medien für Aufregung.

Auf den zweiten Blick wird aber schnell klar, dass das Foto per KI erstellt wurde. Warum sonst hätte Putins Glas zwei Stiele?

Bei genauerem Betrachten ist erkennbar, dass dieses Bild manipuliert sein muss – Putins Weinglas hat zwei Stiele und seine Finger sehen unnatürlich aus.
Bei genauerem Betrachten ist erkennbar, dass dieses Bild manipuliert sein muss – Putins Weinglas hat zwei Stiele und seine Finger sehen unnatürlich aus. bild: twitter; Screenshot und Markierungen: CORRECTIV.Faktencheck

Nein, auch das «All Eyes on Rafah»-Bild war nicht echt

Im Mai wurde das KI-generierte Bild auf Instagram und TikTok in kürzester Zeit weit über 40 Millionen Mal geteilt.
Im Mai wurde das KI-generierte Bild auf Instagram und TikTok in kürzester Zeit weit über 40 Millionen Mal geteilt.Bild: Screenshot threads

Zahlreiche authentische Fotos belegen das Leid und die Zerstörung im Gazastreifen. Trotzdem gibt es Menschen, die zu Propagandazwecken mit KI-generierten Bildern nachhelfen wollen. Das Fake-Foto «Alle Augen auf Rafah» wurde von einem anonymen Instagram-User mit Künstlicher Intelligenz erstellt. Der User teilt auf seinem Profil Bilder von pro-palästinensischen Seiten sowie teils antisemitische Inhalte.

Das Bild wurde künstlich erzeugt, was bereits an den schneebedeckten Bergen im Hintergrund offensichtlich wird. Die Stadt Rafah im Süden Gazas grenzt an die Wüste. Gleichwohl verbreiteten Millionen Social-Media-Nutzer das Bild nach einem verheerenden Brand, den im Mai ein israelischer Luftangriff auf ein Flüchtlingslager bei Rafah ausgelöst hatte.

Nein, dieser Riesenkrake wurde nicht auf Bali an Land gespült

Nope, an diesem Foto ist gar nichts echt.
Nope, an diesem Foto ist gar nichts echt. bild: facebook

Im Juni verbreitete sich das Foto eines angeblichen Riesenkraken wie ein Lauffeuer im Netz. Der Instagram-Account best_of_ai hatte es zuerst veröffentlicht und als «fiktiv» ausgewiesen. Es scheint nicht die Absicht des Users gewesen zu sein, die Öffentlichkeit zu täuschen. Der Hinweis, dass es sich um ein künstlich erstelltes Bild handelt, fehlt aber bei den Postings anderer User, die es (ohne Quelle) auf Twitter und Facebook teilten.

Als KI-Fake entlarvt wurde der virale Riesenkrake von den Faktenchecker-Seiten Snopes und Mimikama.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
The perfect shot – 27 unglaublich getimte Fotos
1 / 29
The perfect shot – 27 unglaublich getimte Fotos
bild: imgur
Auf Facebook teilenAuf X teilen
Mit wenigen Klicks zum Deep Fake
Video: watson
Das könnte dich auch noch interessieren:
36 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
BiduS
29.12.2024 14:30registriert März 2023
Meine Rede! Die Medienkompetenz der meisten Leute ist sowieso unterirdisch... Aber es wird auch als kritischer Mensch schwieriger und schwieriger echt und fake zu unterscheiden...
974
Melden
Zum Kommentar
avatar
eih
29.12.2024 14:26registriert Oktober 2020
Eine Deklarationspflicht für KI manipulierte bzw. generierte Bilder und Videos wäre dringend nötig.
675
Melden
Zum Kommentar
avatar
frau süss
29.12.2024 13:23registriert März 2014
die vergangenen monate haben es sehr schwierig gemacht, die echtheit von nachrichten zu verifizieren, und ich mag das gefühl, manipuliert zu werden, überhaupt nicht.
644
Melden
Zum Kommentar
36
    Südkorea verbietet chinesische KI DeepSeek
    Südkorea hat die chinesische KI DeepSeek vorübergehend verboten. Die Kommission für den Schutz personenbezogener Daten (PIPC) begründete ihre Entscheidung mit datenschutzrechtlichen Bedenken.

    Der Dienst der App werde erst wieder aufgenommen, sobald Verbesserungen im Einklang mit südkoreanischen Datenschutzgesetzen unternommen worden seien. Laut PIPC arbeitet DeepSeek derzeit aktiv mit der Datenschutzbehörde zusammen.

    Zur Story