Digital
Künstliche Intelligenz

KI-Fake-News und Clickbait bei YouTube – das steckt hinter dem Phänomen

Mit solchen Clickbait-Vorschaubildern zu KI-Videos versuchen YouTuber, möglichst viele Klicks zu erzielen.
Mit solchen Clickbait-Vorschaubildern zu KI-Videos versuchen die Verantwortlichen, möglichst viel Aufmerksamkeit zu erregen.Screenshot: YouTube

KI-Horror bei YouTube – das steckt hinter dem Phänomen

Dubiose YouTube-Kanäle fluten Googles Videoplattform mit problematischen Inhalten. Dahinter steckt generative KI. Und es geht erst richtig los.
24.12.2024, 05:00
Mehr «Digital»
«Die KI-Invasion bei YouTube hat begonnen.»
Mats Schönauer

2024 ist das Jahr, in dem generative künstliche Intelligenz durchstartete. Die Menschen sind fasziniert von den Möglichkeiten der neuen Technik. Und immer mehr Kriminelle versuchen, daraus Profit zu schlagen.

Bei den künstlich erzeugten Bildern und Videos zeichnet sich ein massives Missbrauchsproblem ab. Während KI-Tools immer leistungsfähiger und einfacher zu bedienen sind, klemmt es bei der Fake-Bekämpfung.

Besonders betroffen sind die grossen, werbefinanzierten Videoplattformen mit ihren auf maximale Aufmerksamkeit getrimmten Empfehlungs-Algorithmen.

Der deutsche Journalist und Autor Mats Schönauer hat das Phänomen bei YouTube untersucht und kommt zu einem ernüchternden Fazit: Die bislang getroffenen Gegenmassnahmen bringen viel zu wenig. Doch nun verspricht der Techkonzern Google Besserung.

Was ist passiert?

«Es scheint viele Menschen zu geben, die auf solche Fakes hereinfallen.»

Bei monatelangen Recherchen hat Mats Schönauer laut eigenen Angaben «ein riesiges Netzwerk» von YouTube-Kanälen entdeckt, deren Video-Inhalte komplett KI-generiert sind. Die Macher verbreiten «grausame Fotomontagen» und «widerwärtige Falschmeldungen», vor allem zu Prominenten aus dem deutschsprachigen Raum.

Solche Fotomontagen sollen die User glauben machen, dass bekannte Personen einen Arm oder ein Bein amputieren mussten, oder gleich beides. In anderen Fake-Videos werden justiziable Lügen verbreitet:

  • Ein KI-Video soll die Leiche des ehemaligen Formel-1-Rennfahrers Michael Schumacher zeigen.
  • Der «Home Alone»-Star Macaulay Culkin soll über 300 Kilogramm zugenommen haben.
  • Der frühere Tennisstar Boris Becker soll betrunken seine Tochter vergewaltigt haben.

Die Liste der haarsträubenden Falschmeldungen liesse sich beliebig fortsetzen. Es sei nach seinem Wissen das erste Mal, dass in dermassen grossem Stil KI-generierte Lügen über echte Menschen verbreitet werden.

Laut Schönauer kommt hinzu, dass die Verantwortlichen hinter den KI-Videos bei YouTube auch mit «Ragebait» provozieren. Das heisst, sie profitieren nicht nur von der Neugier der User, sondern auch von deren Ärger.

Das Problem beginnt bei den Vorschaubildern:

Promi-Fake-News-Kanäle bei YouTube versuchen mit Fotomontagen Aufmerksamkeit zu erregen.
Mit solchen Clickbait-Thumbnails wird versucht, möglichst viele Klicks zu erzielen.screenshot: youtube

Schwer vorstellbar, aber für die Promi-Fake-News-Kanäle gibt es offenbar ein grosses Publikum. Über 100 Millionen Mal seien die von ihm untersuchten Videos angeschaut worden, sagt Schönauer in seinem bei YouTube veröffentlichten Bericht (siehe Quellen).

Wer klickt so etwas an?

Promi-Fake-News-Kanäle bei YouTube versuchen mit Fotomontagen Aufmerksamkeit zu erregen.
Schönauer vermutet, dass die Thumbnails manuell, nicht von KI, erstellt werden. Sie wirkten auffallend schludrig bzw. nicht professionell gemacht.Screenshot: YouTube

Irritierend: Während die verantwortlichen Kanäle mit der Verbreitung des «KI-Horrors» durchkommen und unbehelligt bleiben, straft YouTube jene User ab, die über die Missstände berichten. So musste Schönauer hinnehmen, dass ein journalistisch produziertes Video von der Plattformbetreiberin «demonetarisiert» wurde. Das heisst, er erhielt dafür trotz beachtlicher Klickzahlen kein Werbegeld aus Googles Partnerprogramm.

Wer steckt hinter den KI-Fake-Videos?

«Viele Täter werden nicht ausfindig und auch nicht haftbar gemacht.»

Es gebe mittlerweile eine ganze Reihe von Apps und Websites, die sich auf das einfache Erstellen von KI-Videos spezialisiert haben, erklärt Schönauer. Man müsse zum Teil nur einen Satz eingeben und ein paar Minuten später erhalte man ein fertiges Filmchen.

Eine von Schönauer untersuchte Spur führte nach Asien. Nach Vietnam, um genau zu sein. Bei ganz vielen YouTube-Kanälen gebe es dazu einen Bezug, etwa eine vietnamesische Mailadresse im Impressum. Andere Kanäle, die es schon länger gibt, hätten vor den Promi-Fake-News ganz andere Inhalte veröffentlicht.

Schönauer vermutet einen Zusammenhang mit sogenannten Content-Farmen. Das seien oft in Schwellenländern angesiedelte Unternehmen, die man bezahlen könne, um massenhaft Inhalte zu erstellen.

In Vietnam sind denn auch seit geraumer Zeit Content-Farmen angesiedelt. Nun steht der Verdacht im Raum, dass sie minderwertige KI-Inhalte produzieren. Mit solchen Billig-Videos wird dann seitens der Auftraggeber versucht, von den Werbeprogrammen der grossen Social-Media-Plattformen zu profitieren. Je mehr Aufmerksamkeit ein Beitrag erzielt, desto lukrativer.

«Solche Content-Farmen gibt es zwar schon länger, aber dank der immer besser und günstiger werdenden KI-Werkzeuge können sie jetzt in noch kürzerer Zeit und mit noch weniger Kosten viel viel mehr Content produzieren. Und mit wenigen Klicks ganze YouTube-Kanäle in verschiedenen Sprachen hochziehen und befüllen.»

Er vermute, dass hinter dem Geschäftsmodell ganze Netzwerke stecken, die sich nun bei YouTube immer weiter ausbreiteten, mahnt Schönauer.

So etwas Ähnliches sei auch schon früher bei anderen Themen zu beobachten gewesen, etwa bei billig produzierten Do-it-Yourself-Videos und bei fragwürdigen Animations-Videos für Kinder.

Anzumerken bleibt, dass sich die KI-Videos im deutschsprachigen Raum nicht auf Promi-Fake-News beschränken. Seit geraumer Zeit hat YouTube auch ein massives Problem mit gefälschten Bildungs-Videos, die sich an ein junges bis sehr junges Publikum richten.

Entsprechende Videos tragen Titel wie «20 schreckliche Dinge im Amazonas-Regenwald» oder «15 Riesenkreaturen, die an Stränden gefunden wurden». Und sie erreichen damit tatsächlich ein Millionenpublikum.

Was tut Google?

Das zum Google-Konzern Alphabet gehörende YouTube hat vor einem Jahr eine Richtlinie erlassen, wonach KI-generierte Inhalte gekennzeichnet sein müssen.

Zu den Offenlegungspflichten für YouTuber hielt der Techkonzern im November 2023 fest:

«Creator:innen müssen in Zukunft offenlegen, wenn sie manipulierte oder synthetische Inhalte erstellt haben, die realistisch wirken. Das schliesst die Nutzung von KI-Tools ein. Das kann z. B. ein KI-generiertes Video sein, in dem ein Ereignis realistisch dargestellt wird, das aber nie stattgefunden hat. Oder Inhalte, die eine Person zeigen, die etwas sagt oder tut, das sie nicht tatsächlich gesagt oder getan hat.»

Viele YouTuber (Creators), die Inhalte erstellen und auf die Plattform hochladen, halten sich allerdings nicht daran und die Bestimmung wird nicht konsequent durchgesetzt. Zudem sei die Markierung am oberen linken Bildrand kaum zu erkennen, kritisiert Schönauer.

Massnahmen gegen Clickbait

Schönauer sagt, das in die Videoplattform integrierte automatisierte Überprüfungs-System funktioniere langsam und in vielen Fällen gar nicht. Zudem ist es fraglich, ob der Techkonzern genügend menschliche Kontrolleure bezahlt. Für den deutschsprachigen Raum seien es gerade mal um die 350 Personen. Google selbst gibt an, weltweit 20'000 menschliche Prüfer zu beschäftigen.

Vor wenigen Tagen hat der US-Techkonzern nun angekündigt, auf seinem Videoportal mehr gegen Clickbait zu tun. Google will in einem Pilotversuch zunächst in Indien verstärkt gegen irreführende YouTube-Titel und -Vorschaubilder (Thumbnails) vorgehen.

Zunächst sollen die Massnahmen gegen Clickbait «langsam» in Indien eingeführt werden, zitiert das Techportal Golem.de aus dem Google-Blog. Dabei wolle die Plattformbetreiberin als Clickbait erkannte Videos zunächst nur entfernen, die Ersteller aber nicht weiter bestrafen. Die YouTuber sollen also mehr als genug Zeit bekommen, um sich auf die Änderung einzustellen.

Ironischerweise steht auch beim Abwehrkampf gegen die KI-Invasion bei YouTube künstliche Intelligenz im Zentrum. Dass dies reicht, ist zu bezweifeln.

Die amerikanische Medienforschungs-Organisation NewsGuard hatte schon 2023 festgestellt, dass generative KI den Betreibern von Content-Farmen ermöglicht, ihre Prozesse weiter zu automatisieren. Wir müssen deshalb mit mehr, nicht weniger Fakes rechnen.

Aktuell ist nicht klar, wie es YouTube schaffen will, Clickbait automatisiert zu erkennen. Wie kann man verlässlich bestimmen, dass ein Video-Titel und der dazugehörige Thumbnail nicht zum Video-Inhalt passen?

Ein Dilemma bleibt auch beim Publikum, das für KI-Fake-Videos besonders empfänglich ist. Die Betroffenen können mit Aufklärungsvideos kaum erreicht werden. Solche User mit wenig Medienkompetenz bewegen sich in ihrer eigenen «Bubble» (Blase), in die kaum eine seriöse Nachricht vorzudringen vermag. Und das wiederum liegt auch am Empfehlungs-Algorithmus.

Quellen

Das Video von Mats Schönauer zu den Promi-Fake-News:

«Wie KI-Kanäle YouTube zerstören»:

Mehr zum Versagen grosser Social-Media-Plattformen:

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
YouTube-Titelbilder, die zu dramatisch ausgefallen sind
1 / 29
YouTube-Titelbilder, die zu dramatisch ausgefallen sind
«Funniest» und das Titelbild passen so gar nicht zusammen.
quelle: youtube
Auf Facebook teilenAuf X teilen
Arnold Schwarzeneggers starke Botschaft gegen Hass und Antisemitismus
Video: watson
Das könnte dich auch noch interessieren:
120 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Haarspalter
24.12.2024 06:06registriert Oktober 2020
«Es scheint viele Menschen zu geben, die auf solche Fakes hereinfallen.»

Ja.

Andere sind sich des Fakes bewusst, haben aber nichts Besseres zu tun, als sich die Zeit mit doofen Inhalten auf dem Smartphone totzuschlagen.

Auch nicht viel intelligenter…
24110
Melden
Zum Kommentar
avatar
Don Huber
24.12.2024 06:03registriert Februar 2014
YouTube, Social Medien ist immer mehr zum Kotzen und es gibt tatsächlich ganz viele, die auf solchen Mist hereinfallen. Denen ist auch nicht mehr zu helfen. Kennt ihr den Film Idiocrazy ? Schaut ihn mal an. Der Film sagt die Zukunft voraus. Schöne Festtage wünsche ich euch!
1679
Melden
Zum Kommentar
avatar
Wa’Tsun
24.12.2024 07:02registriert März 2021
Seit diesem Jahr kann man nichts mehr glauben. Weder auf Bildern noch auf Videos. Die gesamte digitale Welt wurde auf den Kopf gestellt.
Ich befürchte nicht nur Gutes für unsere digitale Zukunft.
1396
Melden
Zum Kommentar
120
    Elon Musks X hat schon wieder Server-Probleme

    Die Social-Media-Plattform X hat offenbar erneut Probleme mit ihren Servern. Auf der Störungs-Website downdetector.com meldeten am Donnerstag tausende Nutzer der Plattform Probleme mit der Website und der App.

    Zur Story