2024 ist das Jahr, in dem generative künstliche Intelligenz durchstartete. Die Menschen sind fasziniert von den Möglichkeiten der neuen Technik. Und immer mehr Kriminelle versuchen, daraus Profit zu schlagen.
Bei den künstlich erzeugten Bildern und Videos zeichnet sich ein massives Missbrauchsproblem ab. Während KI-Tools immer leistungsfähiger und einfacher zu bedienen sind, klemmt es bei der Fake-Bekämpfung.
Besonders betroffen sind die grossen, werbefinanzierten Videoplattformen mit ihren auf maximale Aufmerksamkeit getrimmten Empfehlungs-Algorithmen.
Der deutsche Journalist und Autor Mats Schönauer hat das Phänomen bei YouTube untersucht und kommt zu einem ernüchternden Fazit: Die bislang getroffenen Gegenmassnahmen bringen viel zu wenig. Doch nun verspricht der Techkonzern Google Besserung.
Bei monatelangen Recherchen hat Mats Schönauer laut eigenen Angaben «ein riesiges Netzwerk» von YouTube-Kanälen entdeckt, deren Video-Inhalte komplett KI-generiert sind. Die Macher verbreiten «grausame Fotomontagen» und «widerwärtige Falschmeldungen», vor allem zu Prominenten aus dem deutschsprachigen Raum.
Solche Fotomontagen sollen die User glauben machen, dass bekannte Personen einen Arm oder ein Bein amputieren mussten, oder gleich beides. In anderen Fake-Videos werden justiziable Lügen verbreitet:
Die Liste der haarsträubenden Falschmeldungen liesse sich beliebig fortsetzen. Es sei nach seinem Wissen das erste Mal, dass in dermassen grossem Stil KI-generierte Lügen über echte Menschen verbreitet werden.
Laut Schönauer kommt hinzu, dass die Verantwortlichen hinter den KI-Videos bei YouTube auch mit «Ragebait» provozieren. Das heisst, sie profitieren nicht nur von der Neugier der User, sondern auch von deren Ärger.
Schwer vorstellbar, aber für die Promi-Fake-News-Kanäle gibt es offenbar ein grosses Publikum. Über 100 Millionen Mal seien die von ihm untersuchten Videos angeschaut worden, sagt Schönauer in seinem bei YouTube veröffentlichten Bericht (siehe Quellen).
Irritierend: Während die verantwortlichen Kanäle mit der Verbreitung des «KI-Horrors» durchkommen und unbehelligt bleiben, straft YouTube jene User ab, die über die Missstände berichten. So musste Schönauer hinnehmen, dass ein journalistisch produziertes Video von der Plattformbetreiberin «demonetarisiert» wurde. Das heisst, er erhielt dafür trotz beachtlicher Klickzahlen kein Werbegeld aus Googles Partnerprogramm.
Es gebe mittlerweile eine ganze Reihe von Apps und Websites, die sich auf das einfache Erstellen von KI-Videos spezialisiert haben, erklärt Schönauer. Man müsse zum Teil nur einen Satz eingeben und ein paar Minuten später erhalte man ein fertiges Filmchen.
Eine von Schönauer untersuchte Spur führte nach Asien. Nach Vietnam, um genau zu sein. Bei ganz vielen YouTube-Kanälen gebe es dazu einen Bezug, etwa eine vietnamesische Mailadresse im Impressum. Andere Kanäle, die es schon länger gibt, hätten vor den Promi-Fake-News ganz andere Inhalte veröffentlicht.
Schönauer vermutet einen Zusammenhang mit sogenannten Content-Farmen. Das seien oft in Schwellenländern angesiedelte Unternehmen, die man bezahlen könne, um massenhaft Inhalte zu erstellen.
In Vietnam sind denn auch seit geraumer Zeit Content-Farmen angesiedelt. Nun steht der Verdacht im Raum, dass sie minderwertige KI-Inhalte produzieren. Mit solchen Billig-Videos wird dann seitens der Auftraggeber versucht, von den Werbeprogrammen der grossen Social-Media-Plattformen zu profitieren. Je mehr Aufmerksamkeit ein Beitrag erzielt, desto lukrativer.
Er vermute, dass hinter dem Geschäftsmodell ganze Netzwerke stecken, die sich nun bei YouTube immer weiter ausbreiteten, mahnt Schönauer.
So etwas Ähnliches sei auch schon früher bei anderen Themen zu beobachten gewesen, etwa bei billig produzierten Do-it-Yourself-Videos und bei fragwürdigen Animations-Videos für Kinder.
Anzumerken bleibt, dass sich die KI-Videos im deutschsprachigen Raum nicht auf Promi-Fake-News beschränken. Seit geraumer Zeit hat YouTube auch ein massives Problem mit gefälschten Bildungs-Videos, die sich an ein junges bis sehr junges Publikum richten.
Entsprechende Videos tragen Titel wie «20 schreckliche Dinge im Amazonas-Regenwald» oder «15 Riesenkreaturen, die an Stränden gefunden wurden». Und sie erreichen damit tatsächlich ein Millionenpublikum.
Das zum Google-Konzern Alphabet gehörende YouTube hat vor einem Jahr eine Richtlinie erlassen, wonach KI-generierte Inhalte gekennzeichnet sein müssen.
Zu den Offenlegungspflichten für YouTuber hielt der Techkonzern im November 2023 fest:
Viele YouTuber (Creators), die Inhalte erstellen und auf die Plattform hochladen, halten sich allerdings nicht daran und die Bestimmung wird nicht konsequent durchgesetzt. Zudem sei die Markierung am oberen linken Bildrand kaum zu erkennen, kritisiert Schönauer.
Schönauer sagt, das in die Videoplattform integrierte automatisierte Überprüfungs-System funktioniere langsam und in vielen Fällen gar nicht. Zudem ist es fraglich, ob der Techkonzern genügend menschliche Kontrolleure bezahlt. Für den deutschsprachigen Raum seien es gerade mal um die 350 Personen. Google selbst gibt an, weltweit 20'000 menschliche Prüfer zu beschäftigen.
Vor wenigen Tagen hat der US-Techkonzern nun angekündigt, auf seinem Videoportal mehr gegen Clickbait zu tun. Google will in einem Pilotversuch zunächst in Indien verstärkt gegen irreführende YouTube-Titel und -Vorschaubilder (Thumbnails) vorgehen.
Zunächst sollen die Massnahmen gegen Clickbait «langsam» in Indien eingeführt werden, zitiert das Techportal Golem.de aus dem Google-Blog. Dabei wolle die Plattformbetreiberin als Clickbait erkannte Videos zunächst nur entfernen, die Ersteller aber nicht weiter bestrafen. Die YouTuber sollen also mehr als genug Zeit bekommen, um sich auf die Änderung einzustellen.
Ironischerweise steht auch beim Abwehrkampf gegen die KI-Invasion bei YouTube künstliche Intelligenz im Zentrum. Dass dies reicht, ist zu bezweifeln.
Die amerikanische Medienforschungs-Organisation NewsGuard hatte schon 2023 festgestellt, dass generative KI den Betreibern von Content-Farmen ermöglicht, ihre Prozesse weiter zu automatisieren. Wir müssen deshalb mit mehr, nicht weniger Fakes rechnen.
Aktuell ist nicht klar, wie es YouTube schaffen will, Clickbait automatisiert zu erkennen. Wie kann man verlässlich bestimmen, dass ein Video-Titel und der dazugehörige Thumbnail nicht zum Video-Inhalt passen?
Ein Dilemma bleibt auch beim Publikum, das für KI-Fake-Videos besonders empfänglich ist. Die Betroffenen können mit Aufklärungsvideos kaum erreicht werden. Solche User mit wenig Medienkompetenz bewegen sich in ihrer eigenen «Bubble» (Blase), in die kaum eine seriöse Nachricht vorzudringen vermag. Und das wiederum liegt auch am Empfehlungs-Algorithmus.
Ja.
Andere sind sich des Fakes bewusst, haben aber nichts Besseres zu tun, als sich die Zeit mit doofen Inhalten auf dem Smartphone totzuschlagen.
Auch nicht viel intelligenter…
Ich befürchte nicht nur Gutes für unsere digitale Zukunft.