Das Ende des Internets? Warum so viel KI-Müll entsteht und wie wir ihn stoppen können
Genau drei Jahre sind es her, seit OpenAI der Welt ChatGPT vorstellte und damit einen riesigen Boom bezüglich generativer KI – also Systemen, die komplexe Texte und Bilder generieren – auslöste. Seither haben sich diese GenAI-Systeme rasant ausgebreitet und produzieren viel Content. Teilweise sehr guten, aber oft auch schlechten. So oft, dass das ganze Internet darunter leidet.
AI-Slop – der Müll, den die KI produziert
KI-generierte Inhalte von geringer Qualität, ohne Substanz und minimal menschlich geprüft, sind mittlerweile ein so verbreitetes Phänomen, dass sie einen eigenen Namen bekommen haben: AI-Slop. Zu Deutsch etwa KI-Müll. AI-Slop kann aus Texten, Bildern oder Videos bestehen – und ist überall. In E-Mails, in Internetforen, auf Social-Media-Plattformen und ja, auch manchmal in KI-Kolumnen. Man erkennt den Müll typischerweise recht schnell, wenn man ihn sieht. Ein Beispiel, wie sich heute jeder zweite LinkedIn-Post liest:
Disruption ist keine Bedrohung — sie ist eine Einladung, das eigene Purpose-Level zu aktivieren. 🌈🤖
➡️ Disruption beginnt immer im Inneren.
➡️ Vertrauen ist das neue Betriebssystem.
➡️ Zukunft entsteht dort, wo Technologie auf Authentizität trifft.
Was denkst du — leben wir KI oder nutzen wir sie nur? 🤔
Dieser Text trägt alle typischen Anzeichen von AI-Slop:
- Pathetische, aufgeblasene Formulierungen: Wörter wie disruptiv, transformativ, inspirierend, zukunftsweisend oder visionär.
- Inhaltlich vage oder sogar falsch: Pseudo-tiefgründige Statements ohne klare Belege, Beispiele oder Kontext. Manchmal sogar faktisch falsche, erfundene Aussagen (siehe dazu unser Blogbeitrag zu «KI-Halluzination»).
- Unnatürlich rhythmisch: Übertriebene Satzstrukturen («Wir denken neu — denken anders — denken Zukunft.»), oft erzeugt mit «Em-Dashes» (—).
- Zu viele Emojis: 🤮.
Neben dem bedeutungslosen KI-Brei, der oft auf LinkedIn gepostet wird, gibt es auch ganze Buchreihen zu kaufen, welche ruchlos und mit wenig Sorgfalt KI-generiert wurden. Aber nicht nur Texte riechen oft nach AI-Slop. Auch billige KI-Bilder findet man mittlerweile in jedem Winkel des Internets. Ein besonders infames Beispiel ist der «Shrimp-Jesus»: Eine Reihe bizarrer, offensichtlich KI-generierter Abbildungen, die Jesus verschmolzen mit Shrimps und Krebsen zeigen.
Diese Bilder tauchen ohne klaren Grund auf Plattformen wie Facebook auf und erhaschen oft viele Likes und Kommentare. Und damit nicht genug: Auch AI-Slop-Videos sind spätestens seit dem Release von Sora 2, dem neuen Video-Modell von OpenAI, real: In der Social-Media-App Sora können seit September sehr einfach Kurzvideos inklusive Ton und sogar dem eigenen Gesicht KI-generiert werden. Die entstehenden Videos sind oft ohne Tiefgang, aber gerade hypnotisierend genug, damit man noch ein wenig weiter scrollt.
Aber Moment! Eben noch haben wir doch das Hohelied der Intelligenz auf die KI gesungen und bestaunt, wie sie fähig ist, ganze Lexika an Wissen richtig wiederzugeben, total komplexe Zusammenhänge clever zu erklären und Shakespeare-esque Sonette zu verfassen! Wo sind wir denn falsch abgebogen, dass nun nur noch ein Krustentier-Messias oder ein Zauberwald-CEO herauskommt?
Wie AI-Slop entsteht: Feedback und Moloch
AI-Slop hat seinen Ursprung in der fundamentalen Funktions- und Herstellungsweise der generativen KI-Systeme. Für Sprachmodelle wie ChatGPT oder Claude gilt beispielsweise Folgendes: Das der KI vorgegebene Ziel ist es, das jeweils nächste Wort in einer Wortsequenz so vorherzusagen, dass der entstehende Text menschlichen Ansprüchen möglichst gut genügt. Auf dieses Ziel wird hingearbeitet, indem das System ...
- ... tonnenweise bestehenden, menschengenerierten Text liest und die Systematik darin kennenlernt.
- ... von Menschen Feedback zu den Outputs bekommt und dann beliebte Antwortstrukturen häufiger zu generieren beginnt (sogenanntes «Reinforcement Learning from Human Feedback»).
Mit diesen zwei Punkten werden auch zwei Mechanismen klar, durch welche es in einem Sprachmodell zu Slop-Output kommen kann:
- Wiedergabe der Datengrundlage: Die KI-Systeme reflektieren immer ihre Trainingsdaten – die Daten also, an welchen die KI menschliche Sprache gelernt hat. Wenn gewisse Phrasen in diesen Trainingsdaten häufiger vorkommen, wird das KI-System diese auch häufiger wiedergeben.
- Verstärkung durch Feedback: Die KI-Sprachmodelle lernen anhand von menschlichem Feedback, was «gute» oder «schlechte» Outputs sind. Schön organisierte, wohlklingende Antworten werden von Menschen präferiert – und das Modell beginnt daher, immer stärker in diese Richtung zu gehen.
So kann Text entstehen, der zwar auf den ersten Blick gut aussieht, aber bei nochmaligem Hinschauen eben KI-Müll ist. Und auf dieser Grundlage tritt ein Spieler auf den Plan, der immer noch mehr Slop entstehen lässt: der «Moloch».
«Moloch» beschreibt in der Spieltheorie ein System, in dem jede einzelne Person zu ihrem eigenen Vorteil handelt – und dadurch alle verlieren. Beim Klimawandel ist es so. Und eben auch beim AI-Slop: Einzelne produzieren massenhaft billige KI-Inhalte, weil es kurzfristig Aufmerksamkeit, Likes und Reichweite bringt. Dadurch zwingen sie weitere Akteure, die sich keinen Nachteil leisten können, dasselbe zu tun und ihre Zeit nicht in aufwendige Qualitätskontrolle und Fact-Checking zu investieren.
Der Slop nimmt so immer weiter zu – und ruiniert mit der Zeit die Informationsqualität und Glaubwürdigkeit des gesamten Internets: Niemand weiss mehr genau, was echt, was faktisch richtig und was KI-fabuliert ist. Alle verlieren. Und mit den aktuellen Anreizsystemen scheint diese Abwärtsspirale ziemlich ausweglos … Oder können wir den KI-Müll doch noch deckeln?
Deckel drauf! Wie wir dem Slop begegnen können
Moloch ist also wie so oft unser gemeinsamer Feind. Einige Ideen, um diesem bezüglich AI-Slop möglichst effektiv entgegenwirken zu können:
- Hohe Qualitätsansprüche behalten: Wir dürfen uns nicht mit KI-Slop zufriedengeben, sondern müssen auf Qualität bestehen. Bei den Inhalten, die wir konsumieren, aber auch bei denen, die wir selbst produzieren.
- Mit gutem Beispiel vorangehen: AI-Slop kann in eigenen Outputs wie folgt verhindert werden:
Präzise sein. Je konkreter die Frage oder die Instruktion an die KI, desto weniger “sloppy” die Antwort. Oft helfen konkrete Beispiele.
Iterieren. Qualität entsteht oft nicht im ersten Versuch – spiel Pingpong mit der KI.
Facts checken. Nie etwas blind glauben, was die KI ausspuckt, sondern immer auf Plausibilität und Korrektheit prüfen. - «Von Menschen geprüft» als Standard anstreben: Ein Label wie «Für Menschen gemacht – von Menschen geprüft» könnte helfen, Vertrauen in Internet-Inhalte zurückzugewinnen. Darauf sollten wir hinarbeiten, beispielsweise mit standardmässiger Deklaration von KI-generierten Inhalten und explizitem Erwähnen menschlicher Prüfung.
Mit diesem disruptiven Mindset können wir den Status-Quo transformieren und auf ein inspirierendes, visionäres Utopia – ganz ohne Slop – hinwirken. 😉😉😉
- Klimakillerin KI – was am Vorwurf dran ist und was nicht
- Apertus oder nicht? Was für und was gegen Open-Source-KI spricht
- Wie und wann die KI die Macht übernehmen kann – und unsere Optionen
- Die Lizenz zum Arbeiten: KI-Agenten und was sie mit James Bond zu tun haben
- Die KI-Landkarte – eine Orientierungshilfe im Buzzword-Dschungel
- Sorgt die KI wirklich für ein «Job-Blutbad»?
- Wieso uns die KI anlügt – und warum dies nicht nur schlecht ist
