Aufsehenerregende Fake-Bilder hatten auch 2023 Hochsaison im Netz. Viele waren harmlos-witzig und wurden ohne böse Absichten weiterverbreitet. Etwa dieses mit einer Künstlichen Intelligenz generierte Satire-Bild, das Donald Trump auf die Schippe nahm.
Ebenfalls ein offensichtliches Fake-Bild von der lustigen Sorte: Das KI-generierte Selfie beim Wandern mit einem Bären.
Nicht mehr gänzlich unproblematisch war das folgende KI-generierte Scherz-Bild des Papstes. Es führte vielen von uns erstmals vor Augen, wie unheimlich realistisch KI-Bilder 2023 geworden sind.
Der Pontifex als neue Mode-Ikone? Er trägt seine charakteristische Kopfbedeckung – den Zucchetto – und einen ausladenden Daunenmantel, der von einer High-Fashion-Marke wie Balenciaga stammen könnte. Das Bild geisterte im März 2023 durchs Netz und sehr viele hielten es für echt.
Generiert wurde es von einem Reddit-User mit dem KI-Bildgenerator Midjourney. Wer genau hinschaut, kann kleine Bildstörungen erkennen.
Das KI-Foto löste eine ganze Lawine von Fake-Papst-Fotos aus, die zugegebenermassen teils ziemlich witzig sind.
Bei anderen Fake-Bildern stecken handfeste politische Interessen dahinter, etwa wenn Trump-Anhänger US-Präsident Joe Biden mit gefälschten Aufnahmen in Verruf bringen wollen.
US-Präsident Joe Biden ist im Juni 2023 tatsächlich bei einem Auftritt im Bundesstaat Colorado auf einer Bühne gestürzt – offenbar stolperte der inzwischen 81-Jährige über einen Sandsack. Daraufhin kursierte im Netz ein manipuliertes Foto des Vorfalls, das Biden mit einer Windel zeigt.
Seine politischen Gegner versuchen immer wieder, mit manipulierten Fotos und Videos seine mentale und körperliche Fitness infrage zu stellen.
Ende März tauchten KI-Bilder auf, die vermeintlich Trumps Verhaftung zeigen. Sie machten im Netz schnell die Runde, da der Ex-US-Präsident Anfang April in New York zur Anklageverlesung antraben musste. 35'000 Polizisten waren im Einsatz, um Ausschreitungen von radikalen Trump-Anhängern zu verhindern.
Erstellt wurden die Fake-Bilder von Eliot Higgins, dem Gründer der niederländischen Investigativ-Organisation Bellingcat. Higgins veröffentlichte die KI-Bilder von Trump auf X und schrieb dazu: «Ich mache Bilder von Trumps Verhaftung, während ich auf Trumps Verhaftung warte.»
Im September ging ein Video viral, das angeblich Wolodymyr Selenskyj in einem glitzernden, goldenen Kostüm als Bauchtänzer zeigt. Das Fake-Video wurde von russischen Propaganda-Accounts in den sozialen Medien verbreitet, um den ukrainischen Präsidenten zu diskreditieren. Später wurde es auch von konservativen US-Influencern verbreitet, um die westliche Hilfe für die Ukraine infrage zu stellen.
«Das Video zeigt nicht den ukrainischen Präsidenten Wolodymyr Selenskyj, sondern einen Bauchtänzer, Lehrer und Choreografen aus Argentinien namens Pablo Acosta», deckte das Faktencheckteam der Deutschen Welle auf.
Im März verbreitete sich auf Facebook ein Foto, das angeblich benutzte Kondome zeigt. Dazu hiess es, sechs Studierende aus Kenia seien festgenommen worden, weil sie gebrauchte Kondome gereinigt und neu verkauft hätten.
Die Behauptung ist falsch, allerdings hat die Falschmeldung einen wahren Kern: «Laut einem Nachrichtenbericht von 2020 wurden tatsächlich fast 324'000 benutzte Kondome gereinigt und wiederverkauft – aber nicht in Kenia, sondern in Vietnam. Und nicht von sechs Studierenden, sondern von einer kleinen Manufaktur in Vietnam», schreiben die Faktenchecker der Deutschen Welle.
Zahlreiche authentische Fotos belegen das Leid und die Zerstörung im aktuellen Krieg im Nahen Osten. Trotzdem gibt es Menschen, die zu Propagandazwecken mit KI-generierten Bildern wie diesem nachhelfen wollen. Das Bild teilte auch die chinesische Botschaft in Frankreich auf X.
Zu erkennen ist das KI-Bild anhand von Fingern und Zehen, die nicht in der richtigen Anzahl vorhanden sind oder seltsam aussehen, schreibt das Faktencheck-Portal Correctiv.
Im Mai machte ein Röntgenbild mit einer angeblich riesigen Kakerlake im Brustkorb eines Menschen auf Facebook die Runde. Dazu hiess es: «In einem staatlichen Spital in Kenia wurde ein Patient geröntgt und ihm wurde gesagt, dass sich eine lebende Kakerlake in seiner Brust befand.» Der Patient musste angeblich zur Behandlung nach Singapur und dort habe man ihm gesagt, die Kakerlake sei nicht in seinem Körper, sondern im Röntgengerät gewesen.
In diesem Fall zeigte eine simple Bilderrückwärtssuche der Deutschen Welle, dass es sich um ein Fake-Bild handelt. «Das Originalröntgenbild wurde auf einer radiologischen Website veröffentlicht – und darauf ist keine Kakerlake zu sehen», stellen die Faktenchecker klar.
Im Mai ging die bizarre Meldung um die Welt, Schweden habe Sex zum Sport erklärt und organisiere ein Sex-Turnier. Am 8. Juni 2023 sollten angeblich in Schweden die europäischen Sex-Meisterschaften stattfinden.
Tatsächlich wollte Dragan Batic, der in Schweden als Stripclub-Besitzer bekannt ist, Sex als offizielle Sportart anerkennen lassen. Dafür hatte er im Januar beim nationalen Sportverband einen entsprechenden Antrag eingereicht. Der schwedische Sportverband hat diesen Antrag allerdings im Mai abgelehnt.
Ein Bild aus Russland vom März 2023 belege, wie Wladimir Putin sich vor Xi Jinping kniete und die Hand des chinesischen Machthabers küsste. Natürlich ist auch dies ein Fake.
Verbreitet wurde das KI-Bild zuerst auf einem ukrainischen Telegram-Kanal. Darunter steht in russischer Sprache: «Na ja, dann … um Hilfe bitten.» Aus weiteren Beiträgen im gleichen Telegram-Chat gehe hervor, «dass das Bild scherzhaft gemeint war», schreibt das auf Faktenchecks spezialisierte Portal correctiv.org.
Von Telegram fand das Bild rasch den Weg auf die grossen Social-Media-Plattformen, wo es den Kommentaren nach von manchen Menschen für bare Münze genommen wurde.
Im November sorgte in Deutschland ein Scholz-Deepfake für Aufregung. Im Video warnt ein KI-generierter Bundeskanzler vor einer Bedrohung, «von der wir dachten, dass sie Vergangenheit ist». Gemeint ist die rechtspopulistische AfD. Es gehe nun darum, zu verhindern, dass Deutschland wieder in eine Entwicklung wie 1933 rutscht – und Rechtsextreme das Land übernehmen. «Das werde ich mir nicht länger bieten lassen», schliesst das Video.
Initiiert wurde das Fake-Video von einem Künstler-Kollektiv, das auf diese Weise für ein AfD-Verbot werben wollte.
Wird schwierig, diese Entwicklung mit Regulierung zu lösen.