Digital
Spass

Diese KI-Fotos haben uns 2023 schockiert und verblüfft – alles Fake

Von KI erstellte Bilder sind kaum mehr von echten Fotos zu unterscheiden.
Von KI erstellte Bilder sind kaum mehr von echten Fotos zu unterscheiden.ki-bilder: midjourney / eliot higgins

Diese Bilder haben uns 2023 schockiert und verblüfft – und alle waren sie gefälscht

Das Jahr 2023 hat uns einmal mehr vor Augen geführt: Es ist nicht immer das, wonach es aussieht.
04.01.2024, 08:1805.01.2024, 09:35
Mehr «Digital»

Aufsehenerregende Fake-Bilder hatten auch 2023 Hochsaison im Netz. Viele waren harmlos-witzig und wurden ohne böse Absichten weiterverbreitet. Etwa dieses mit einer Künstlichen Intelligenz generierte Satire-Bild, das Donald Trump auf die Schippe nahm.

Ja, KI-Fotos können herrlich kurios sein

1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen

Ebenfalls ein offensichtliches Fake-Bild von der lustigen Sorte: Das KI-generierte Selfie beim Wandern mit einem Bären.

Nicht mehr gänzlich unproblematisch war das folgende KI-generierte Scherz-Bild des Papstes. Es führte vielen von uns erstmals vor Augen, wie unheimlich realistisch KI-Bilder 2023 geworden sind.

Nein, dieses Bild des Papstes ist nicht echt

Das KI-Bild wurde auf X und Instagram hunderttausendfach geteilt.
Das KI-Bild wurde auf X und Instagram hunderttausendfach geteilt.

Der Pontifex als neue Mode-Ikone? Er trägt seine charakteristische Kopfbedeckung – den Zucchetto – und einen ausladenden Daunenmantel, der von einer High-Fashion-Marke wie Balenciaga stammen könnte. Das Bild geisterte im März 2023 durchs Netz und sehr viele hielten es für echt.

Generiert wurde es von einem Reddit-User mit dem KI-Bildgenerator Midjourney. Wer genau hinschaut, kann kleine Bildstörungen erkennen.

Solche Bildfehler sind typisch für KI-Bildgeneratoren, die Qualität der Bilder wird aber rasend schnell besser.
Solche Bildfehler sind typisch für KI-Bildgeneratoren, die Qualität der Bilder wird aber rasend schnell besser.

Das KI-Foto löste eine ganze Lawine von Fake-Papst-Fotos aus, die zugegebenermassen teils ziemlich witzig sind.

Bei anderen Fake-Bildern stecken handfeste politische Interessen dahinter, etwa wenn Trump-Anhänger US-Präsident Joe Biden mit gefälschten Aufnahmen in Verruf bringen wollen.

Nein, Joe Biden trug auf diesem Foto keine Windeln

Dieses Bild von Joe Biden wurde manipuliert.
Dieses Bild von Joe Biden wurde manipuliert.

US-Präsident Joe Biden ist im Juni 2023 tatsächlich bei einem Auftritt im Bundesstaat Colorado auf einer Bühne gestürzt – offenbar stolperte der inzwischen 81-Jährige über einen Sandsack. Daraufhin kursierte im Netz ein manipuliertes Foto des Vorfalls, das Biden mit einer Windel zeigt.

Seine politischen Gegner versuchen immer wieder, mit manipulierten Fotos und Videos seine mentale und körperliche Fitness infrage zu stellen.

Das Original-Foto

President Joe Biden falls on stage after handing out diplomas during the 2023 United States Air Force Academy Graduation Ceremony at Falcon Stadium, Thursday, June 1, 2023, at the United States Air Fo ...
Vom Sturz gibt es zahlreiche Fotos und Videos, die zeigen, dass der Präsident keine Windel trug.Bild: keystone

Nein, der frühere US-Präsident Donald Trump wurde (noch) nicht verhaftet

Bild
bilder: Eliot Higgins

Ende März tauchten KI-Bilder auf, die vermeintlich Trumps Verhaftung zeigen. Sie machten im Netz schnell die Runde, da der Ex-US-Präsident Anfang April in New York zur Anklageverlesung antraben musste. 35'000 Polizisten waren im Einsatz, um Ausschreitungen von radikalen Trump-Anhängern zu verhindern.

Erstellt wurden die Fake-Bilder von Eliot Higgins, dem Gründer der niederländischen Investigativ-Organisation Bellingcat. Higgins veröffentlichte die KI-Bilder von Trump auf X und schrieb dazu: «Ich mache Bilder von Trumps Verhaftung, während ich auf Trumps Verhaftung warte.»

Nein, dieses Video zeigt nicht Wolodymyr Selenskyj als Bauchtänzer

Das Video ist ein Deepfake, bei dem das Gesicht des Präsidenten auf den Körper eines Tänzers gelegt wurde.
Das Video ist ein Deepfake, bei dem das Gesicht des Präsidenten auf den Körper eines Tänzers gelegt wurde.

Im September ging ein Video viral, das angeblich Wolodymyr Selenskyj in einem glitzernden, goldenen Kostüm als Bauchtänzer zeigt. Das Fake-Video wurde von russischen Propaganda-Accounts in den sozialen Medien verbreitet, um den ukrainischen Präsidenten zu diskreditieren. Später wurde es auch von konservativen US-Influencern verbreitet, um die westliche Hilfe für die Ukraine infrage zu stellen.

«Das Video zeigt nicht den ukrainischen Präsidenten Wolodymyr Selenskyj, sondern einen Bauchtänzer, Lehrer und Choreografen aus Argentinien namens Pablo Acosta», deckte das Faktencheckteam der Deutschen Welle auf.

Nein, das Foto von gebrauchten Kondomen, die gereinigt und als neu verkauft werden, ist nicht echt

Bild
bild: facebook

Im März verbreitete sich auf Facebook ein Foto, das angeblich benutzte Kondome zeigt. Dazu hiess es, sechs Studierende aus Kenia seien festgenommen worden, weil sie gebrauchte Kondome gereinigt und neu verkauft hätten.

Die Behauptung ist falsch, allerdings hat die Falschmeldung einen wahren Kern: «Laut einem Nachrichtenbericht von 2020 wurden tatsächlich fast 324'000 benutzte Kondome gereinigt und wiederverkauft – aber nicht in Kenia, sondern in Vietnam. Und nicht von sechs Studierenden, sondern von einer kleinen Manufaktur in Vietnam», schreiben die Faktenchecker der Deutschen Welle.

Nein, auch dieses Bild von einem flüchtenden Mann mit fünf Kindern in Gaza ist nicht echt

Dieses Bild zeige Menschen in Gaza, hiess es Ende Oktober auf X. Das Fake-Bild wurde mithilfe von Künstlicher Intelligenz erstellt.
Dieses Bild zeige Menschen in Gaza, hiess es Ende Oktober auf X. Das Fake-Bild wurde mithilfe von Künstlicher Intelligenz erstellt.
bild: x

Zahlreiche authentische Fotos belegen das Leid und die Zerstörung im aktuellen Krieg im Nahen Osten. Trotzdem gibt es Menschen, die zu Propagandazwecken mit KI-generierten Bildern wie diesem nachhelfen wollen. Das Bild teilte auch die chinesische Botschaft in Frankreich auf X.

Zu erkennen ist das KI-Bild anhand von Fingern und Zehen, die nicht in der richtigen Anzahl vorhanden sind oder seltsam aussehen, schreibt das Faktencheck-Portal Correctiv.

Nein, dieses Horror-Röntgenbild existiert nicht

Das Röntgenbild mit der riesigen Kakerlake ist ein Fake.
Das Röntgenbild mit der riesigen Kakerlake ist ein Fake. bild: facebook

Im Mai machte ein Röntgenbild mit einer angeblich riesigen Kakerlake im Brustkorb eines Menschen auf Facebook die Runde. Dazu hiess es: «In einem staatlichen Spital in Kenia wurde ein Patient geröntgt und ihm wurde gesagt, dass sich eine lebende Kakerlake in seiner Brust befand.» Der Patient musste angeblich zur Behandlung nach Singapur und dort habe man ihm gesagt, die Kakerlake sei nicht in seinem Körper, sondern im Röntgengerät gewesen.

In diesem Fall zeigte eine simple Bilderrückwärtssuche der Deutschen Welle, dass es sich um ein Fake-Bild handelt. «Das Originalröntgenbild wurde auf einer radiologischen Website veröffentlicht – und darauf ist keine Kakerlake zu sehen», stellen die Faktenchecker klar.

Nein, Schweden organisierte keine Sex-Meisterschaft

Bild

Im Mai ging die bizarre Meldung um die Welt, Schweden habe Sex zum Sport erklärt und organisiere ein Sex-Turnier. Am 8. Juni 2023 sollten angeblich in Schweden die europäischen Sex-Meisterschaften stattfinden.

Tatsächlich wollte Dragan Batic, der in Schweden als Stripclub-Besitzer bekannt ist, Sex als offizielle Sportart anerkennen lassen. Dafür hatte er im Januar beim nationalen Sportverband einen entsprechenden Antrag eingereicht. Der schwedische Sportverband hat diesen Antrag allerdings im Mai abgelehnt.

Nein, Putin kniete nicht vor Xi nieder

Angeblich soll das Bild bei Xis Besuch in Russland entstanden sein, doch es ist eine Fälschung.
Angeblich soll das Bild bei Xis Besuch in Russland entstanden sein, doch es ist eine Fälschung.
bild: telegram

Ein Bild aus Russland vom März 2023 belege, wie Wladimir Putin sich vor Xi Jinping kniete und die Hand des chinesischen Machthabers küsste. Natürlich ist auch dies ein Fake.

Verbreitet wurde das KI-Bild zuerst auf einem ukrainischen Telegram-Kanal. Darunter steht in russischer Sprache: «Na ja, dann … um Hilfe bitten.» Aus weiteren Beiträgen im gleichen Telegram-Chat gehe hervor, «dass das Bild scherzhaft gemeint war», schreibt das auf Faktenchecks spezialisierte Portal correctiv.org.

Von Telegram fand das Bild rasch den Weg auf die grossen Social-Media-Plattformen, wo es den Kommentaren nach von manchen Menschen für bare Münze genommen wurde.

Nein, Olaf Scholz verkündete kein AfD-Verbot

Der echte Olaf Scholz hatte keine Freude an diesem Deepfake-Video.Video: watson/x/politicalbeauty

Im November sorgte in Deutschland ein Scholz-Deepfake für Aufregung. Im Video warnt ein KI-generierter Bundeskanzler vor einer Bedrohung, «von der wir dachten, dass sie Vergangenheit ist». Gemeint ist die rechtspopulistische AfD. Es gehe nun darum, zu verhindern, dass Deutschland wieder in eine Entwicklung wie 1933 rutscht – und Rechtsextreme das Land übernehmen. «Das werde ich mir nicht länger bieten lassen», schliesst das Video.

Initiiert wurde das Fake-Video von einem Künstler-Kollektiv, das auf diese Weise für ein AfD-Verbot werben wollte.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Ein Bild lügt mehr als 1000 Worte: Was dir diese Fotos nicht zeigen
1 / 31
Ein Bild lügt mehr als 1000 Worte: Was dir diese Fotos nicht zeigen
Sehen wir hier eine dramatische Hinter-den-Kulissen-Szene bei einem Fo­to­shoo­ting des Naturmagazins «National Geographic»?
Auf Facebook teilenAuf X teilen
Dieses Paar zeigt dir, warum du nicht alles, was du auf Instagram siehst, glauben sollst
Video: watson
Das könnte dich auch noch interessieren:
54 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Phronesis
04.01.2024 06:31registriert Dezember 2022
Es braucht gesetzliche Regulierung von KI.
11315
Melden
Zum Kommentar
avatar
Drunken Master
04.01.2024 08:17registriert Juli 2018
Mit KI verhält es sich genau gleich, wie mit vielen anderen Technologien. Die Möglichkeiten sind praktisch grenzenlos, es könnte sehr viel Gutes daraus entstehen, aber was macht die Menschheit daraus? Betrug und Pornos...
1003
Melden
Zum Kommentar
avatar
Erwin Apfeltee
04.01.2024 07:31registriert August 2023
Je mehr KI kommt desto mehr werden wir einen John Connor brauchen!
531
Melden
Zum Kommentar
54
«Sie dürfen nun mit ihrem Betrug fortfahren» – die besten Antworten auf Scam-SMS
WhatsApp-Betrüger, Spam-Anrufe – das nervt ... Ausser, man macht sich ein Spiel daraus, darauf einzugehen.

Ihr kennt sie, jene Spam-WhatsApp-Nachrichten:

Zur Story