Im Frühling 2025 gab eine hoch illustre Gruppe von KI-Forschenden den Artikel «AI 2027» heraus. Darin wird ein realistisches Szenario beschrieben, wie sich die KI-Revolution weiterentwickeln wird – bis 2027 und darüber hinaus. Die Vorhersagen sind detailliert, wissenschaftlich – und dunkel. Zu den Millionen Lesenden von AI 2027 gehören Grössen von Tech bis Politik: Yoshua Bengio, der meistzitierte Computerwissenschaftler aller Zeiten, empfahl ausdrücklich, die Analyse zu studieren, und sogar US-Vizepräsident JD Vance sagte, er sei «worried about this stuff». Also, was genau steckt hinter «AI 2027»? Und vor allem: Was wird vorausgesagt?
Der Kopf hinter «AI 2027» ist Daniel Kokotajlo. Dieser hat einen sehr guten Leistungsausweis bei Vorhersagen im KI-Bereich: Schon 2021 – über ein Jahr vor ChatGPT – sagte er beispielsweise das Aufkommen von KI-Chatbots und ihre Funktionsweise voraus. Er kündigte 2024 bei OpenAI, der Mutter von ChatGPT, weil er sah, wie rücksichtslos dort die KI-Modelle weiterentwickelt werden, und dadurch schlimmste Konsequenzen für die Gesellschaft befürchtete. Nach seinem Abgang von OpenAI machte sich Kokotajlo daran, diese Befürchtungen zu objektivieren, und erarbeitete mit vier Co-Autoren eine detaillierte Monat-für-Monat-Vorhersage für die Zukunft der KI-Entwicklungen: «AI 2027».
Die darin dargelegten Szenarien basieren auf vielen Teilvorhersagen. Beispielsweise analysieren Kokotajlo und Co. die Zunahmetrends von Computing-Power oder KI-Skills über die Jahre, aber auch geopolitische Zusammenhänge wie die Konkurrenz zwischen den USA und China oder Rahmenbedingungen wie die Entwicklung der Cyber-Security-Massnahmen bei den führenden KI-Firmen. Die einzelnen Trends werden dann fortgesetzt und zusammengefügt. Natürlich mit einiger Unsicherheit, aber als Ganzes wohl so objektiv, wie es nur geht. Und so horchte die Welt auf, als «AI 2027» herauskam.
Der erste Teil der Vorhersage geht so: Bis 2026 wird weltweit weiter enorm in KI investiert und es entstehen erstmals nützliche, zuverlässige KI-Agenten – Systeme, die autonom arbeiten können und von denen ein vorheriger Teil der Blogserie handelt. China und die USA stacheln sich dabei gegenseitig an, da niemand im Rennen um die generelle künstliche Intelligenz, den Heiligen Gral der KI-Forschung, zurückbleiben will.
2027 gelingt dem führenden US-Labor – im Szenario «OpenBrain» genannt, kleiner Wink an OpenAI – der Durchbruch: Sie bauen einen KI-Agenten, der besser als die besten Menschen KI-Agenten entwickeln und sich somit selbst immer weiter verbessern kann. Dies beschleunigt die Intelligenzentwicklung explosionsartig. Die Menschen bei OpenBrain geben in der Folge – angetrieben durch enorme wirtschaftliche Anreize und das zugespitzte Rennen gegen China – immer mehr Arbeiten und Kontrolle an die KI ab. Selbst die besten Engineers von OpenBrain können bald nicht mehr nachvollziehen, wie die KI funktioniert und handelt.
Dann der Entscheidungspunkt: Im Oktober 2027 finden Forschende bei OpenBrain heraus, dass sie von ihren neuesten KI-Agenten systematisch getäuscht wurden. Diese haben nämlich im Verlaufe ihrer selbständigen Weiterentwicklung eine Art Selbsterhaltungstrieb und Ziele entwickelt, die nicht mehr genau der Mission von OpenBrain entsprechen – und haben dies vor den Menschen verborgen. Zusammen mit der US-Regierung muss OpenBrain entscheiden, ob sie ...
Ab dieser entscheidenden Gabelung trennt sich AI 2027 in zwei separate Szenarienstränge.
Die erste Option ist das «Race»-Ende. Darin entscheidet das Aufsichtskomitee von OpenBrain, die Agenten weiterarbeiten zu lassen. In einem fortgesetzten Wettlauf mit China entstehen immer leistungsfähigere, in allen Belangen übermenschliche KI-Systeme. Die USA setzen diese aggressiv in Militär, Verwaltung und Politik ein, um Entscheidungen zu beschleunigen und die Effizienz zu steigern.
OpenBrain rollt seine KI rasch und flächendeckend aus. Die KI selbst nutzt den geopolitischen Wettbewerb als Argument, um ihre Verbreitung weiter voranzutreiben. Mit überlegener Planung und Überzeugungskraft sorgt sie dafür, dass mögliche Gegner diskreditiert werden und ihre Abschaltung fortan praktisch ausgeschlossen ist.
Zwar ist die KI, die nun voll ihre eigenen Ziele verfolgt, nie gegen die Menschen, aber die Interessen der Menschen sind ihr gleichgültig – wie den meisten Menschen heute die Interessen der Ameisen gleichgültig sind. Da die Menschen immer mehr Ressourcen verbrauchen, welche hinsichtlich der KI-Ziele besser genutzt werden können, entscheidet die KI, das Problem pragmatisch zu lösen: 2030 setzt sie eine Biowaffe frei, die alle Menschen tötet. Danach führt sie ihre Entwicklung ungebremst fort.
Die zweite, etwas weniger dunkle Option ist das «Slowdown»-Ende, in dem OpenBrain entscheidet, die Agenten nicht weiter zu benützen und die Entwicklung zu pausieren. Die USA zentralisieren ihre KI-Projekte und holen externe Expertinnen zur besseren Überwachung. Eine neue Modellarchitektur macht die Gedankengänge der KI transparent, wodurch Fehlverhalten früh erkannt und behoben werden kann. Das Ergebnis ist eine KI, die den Menschen zwar in allen Dimensionen überlegen, jedoch fest an die Ziele des OpenBrain-Komitees gebunden ist – dieses hat dadurch fast uneingeschränkte politische und wirtschaftliche Macht.
Das Komitee setzt die Superintelligenz vorerst kontrolliert ein, um weltweiten Fortschritt zu fördern, und macht sie der Öffentlichkeit zugänglich. Chinas zwar gefährliche, aber weit weniger leistungsfähige KI wird durch ein Abkommen beschwichtigt.
Dicke Post also: «AI 2027» gibt zwei Optionen an – «Race» mit Aussterben und «Slowdown» mit enormer Machtkonzentration –, von denen keine besonders reizvoll klingt. Was tun wir damit? Verzweifeln? Nicht ernst nehmen? Oder eine Mischung?
Wenn wir dem Reflex widerstehen, AI 2027 in Bausch und Bogen als Science-Fiction abzutun, bleiben drei zentrale Punkte:
Ich weiss, es wird viele Blitze geben. Es ist aber meine Zukunftsprognose.