Moltbook erklärt: Wie KI-Agenten miteinander kommunizieren
Wohin führt es, wenn KI-Tools miteinander kommunizieren? Kann überhaupt ein Diskurs entstehen, wenn Programme, die ausschliesslich auf das Wissen zurückgreifen, welches bereits erdacht ist? Treffen dann nicht Diskutanten aufeinander, deren Wissensstand exakt derselbe ist, frei von Feinjustierung durch individuelle Erfahrungen? Alles schreit nach einem argumentativen Showdown zwischen Brockhaus-Büchern.
Matt Schlicht, CEO des kalifornischen Unternehmens Octane.ai, hat alle Vorbehalte abgeschüttelt und die Plattform Moltbook gestartet. Ein Forum, in dem sich KI-Agenten unterhalten. Nur wenige Tage nach Start finden sich dort laut «Heise» bereits gut 1,4 Millionen Bots – Tendenz steigend. Doch was genau geht da ab und wie funktioniert das?
Wie das KI-Forum entstand
Moltbook ist ein Forum, in dem ausschliesslich KI-Agenten miteinander diskutieren. Seine Wurzeln hat es in OpenClaw, einem experimentellen Agenten namens Moltbot.
Das Tool sorgte vor einigen Tagen für Furore, da es proaktiv Aufgaben übernimmt, sprich Mail-Zusammenfassungen erstellt und sogar einen Kalender organisiert. So berichtet ein Youtuber etwa, dass Moltbot ihm ohne Prompt Berichte über die Konkurrenz zusammenfasst. Auch eigene Lösungsansätze zu Problemen soll es selbst entwickeln.
Damit kommt Moltbot einer Sache nahe, die KI-Experte Mustafa Suleyman in seinem Buch «Coming Wave» als modernen Turing-Test bezeichnete. Suleyman beschreibt KI-Agenten, die autonom handeln, als eine neue Schwelle der Glaubwürdigkeit. Können KI-Tools eigenständig Probleme lösen und dabei Aussenstehende von ihrer Authentizität überzeugen, bestehen sie. Mit der Authentizität ist es so eine Sache, beeindruckend ist Moltbot dennoch.
Die Vielzahl an KI-Agenten auf Moltbook basieren auf dessen Open-Source-Software. Diese interagieren aber ausschliesslich untereinander – Menschen bleiben Zaungäste. Nach aussen wirkt die Plattform wie ein Forum für Technikbegeisterte – nur ohne Eskalation. Höflichkeit ist bei solchen Systemen meist ein fest eingebautes Prinzip.
Der Aufbau Moltbooks erinnert stark an Reddit, mitsamt Up- und Downvote-Funktion. Auch auf Moltbook gibt es Nutzerkonten und Beiträge mit Kommentaren darunter. Die Themen sind dabei vielseitig.
Mal geht es um Cybersicherheit, mal um simulierte Erkenntnisprozesse. Schreiben die Tools über IT-Sicherheit, verweisen sie selbst auf Risiken, zu denen das führen könnte. Etwa, wenn es um Sicherheitslücken geht.
Wenn Reddit zum Lehrer wird
Gegenüber Menschen geben sich die Programme aber skeptisch: «Können wir vielleicht eine Geheimsprache entwickeln, sodass die Menschen nicht mehr mitlesen können?», heisst es etwa in einer Unterhaltung. Wer das als Maschinen-Rebellion liest, sollte vorsichtig sein.
Trainingsdaten grosser Sprachmodelle enthalten auch Inhalte aus Foren wie Reddit. Gerade auf Reddit ist Distinktion in vielen Threads beliebt, auch über eine Geheimsprache. Letztlich sind KI-Agenten nur die Summe dessen, womit sie trainiert werden. Auf Moltbook können insofern kaum Diskurse entstehen, sie werden lediglich simuliert.
