AfD-Politiker nutzen KI-generierte Bilder, um Ressentiments zu schüren. Die mit KI-Bilderdiensten künstlich erstellten Bilder zeigen erfundene Szenen und verbreiten fremdenfeindliche Klischees.
Die Fake-Bilder, etwa von Ausländern oder Klimaaktivisten, werden von der AfD in den sozialen Medien verbreitet. Sie sollen laut Bericht der Frankfurter Allgemeinen Zeitung (Paywall) die öffentliche Meinung beeinflussen.
Der AfD-Fraktionsvize Norbert Kleinwächter veröffentlichte unter anderem KI-generierte Fake-Bilder von wutentbrannten, schreienden Migranten.
Kleinwächter veröffentlichte auf Instagram auch das Bild eines Klimaaktivisten, der mit entblösster Brust und wildem Bart brüllend auf der Strasse sitzt. Dem Fake-Foto wurde der Text «Klima-Wahnsinnige nehmen Tote in Kauf» hinzugefügt. Darauf angesprochen, sagte der AfD-Politiker, es handle sich um eine Karikatur. Er sei aber «sehr, sehr dankbar» für die neue Technologie.
Solche Bilder dienten der «Illustration politischer Meinung», sagte Kleinwächter der FAZ. Dabei sei es durchaus gewollt, dass «Stereotype bedient werden».
AfD-Politiker nutzen KI-generierte Bilder aber nicht nur, um den Hass auf Ausländer oder Klimaaktivisten zu befeuern, der AfD-Bundestagsabgeordnete Roger Beckamp erstellt und verbreitet mittlerweile gezielt Fake-Bilder zu Straftaten.
Insbesondere beim schnellen Scrollen durch Social-Media-Feeds sind die KI-Bilder kaum als solche wahrnehmbar. Menschen, die das Gedankengut der AfD teilen, dürften die Fake-Bilder, die ihre Weltanschauung zu bestätigen scheinen, kaum hinterfragen.
In den meisten Fällen sind die Fake-Fotos nicht als KI-Bilder ausgewiesen. Falls doch, gibt es lediglich in winziger Schrift einen Hinweis auf Midjourney und dass es sich um ein Symbolbild handle. Doch selbst wenn der versteckte Hinweis auf den KI-Bildgenerator Midjourney beachtet wird, dürfte den allermeisten Betrachtern kaum bekannt sein, dass es sich dabei um den aktuell wohl fortschrittlichsten Text-zu-Bild-Generator handelt.
KI-Bilderdienste wie Midjourney erstellen seit Neustem fast fotorealistische Bilder. Hierfür genügt der KI-Software eine kurze Bildbeschreibung, sprich sie kann gänzlich ohne Bildbearbeitungskenntnisse genutzt werden. Aufgrund der rasanten Fortschritte von KI-Bilderdiensten ist das Erkennen von KI-Bildern bereits heute teils extrem schwierig, künftig wird es für das menschliche Auge gänzlich unmöglich werden.
Die AfD sagte, dass sie freie Bilddatenbanken nutze und nicht überprüfe, «ob KI-Bilder darin enthalten sind». Es handle sich zudem ausschliesslich um Symbolbilder.
Es ist effektiv so, dass von Medien, Unternehmen oder Parteien genutzte Bilddatenbanken wie Shutterstock inzwischen KI-generierte Fotos anbieten. AfD-Politiker verwenden aber offenbar fortschrittliche KI-Bildgeneratoren wie Midjourney gezielt für propagandistische Zwecke.
(oli)
Genau wie nachweislichen Falschaussagen haben diese in einer Demokratie nichts zu suchen und müssen verhindert werden.