Wissen
Blogs

AI 2027: Wie und wann KI die Macht übernehmen kann

Bild
bild: severin trösch
Analyse

Wie und wann die KI die Macht übernehmen kann – und unsere Optionen

Eine Gruppe renommierter Experten warnt in ihrem Report «AI 2027» vor einem verheerenden Wendepunkt in der KI-Entwicklung. Bis 2027 droht demnach ein Wettlauf zwischen den USA und China, der entweder das Ende der Menschheit oder eine extreme Machtkonzentration zur Folge hat.
07.09.2025, 11:4307.09.2025, 16:11
Mehr «Wissen»

Im Frühling 2025 gab eine hoch illustre Gruppe von KI-Forschenden den Artikel «AI 2027» heraus. Darin wird ein realistisches Szenario beschrieben, wie sich die KI-Revolution weiterentwickeln wird – bis 2027 und darüber hinaus. Die Vorhersagen sind detailliert, wissenschaftlich – und dunkel. Zu den Millionen Lesenden von AI 2027 gehören Grössen von Tech bis Politik: Yoshua Bengio, der meistzitierte Computerwissenschaftler aller Zeiten, empfahl ausdrücklich, die Analyse zu studieren, und sogar US-Vizepräsident JD Vance sagte, er sei «worried about this stuff». Also, was genau steckt hinter «AI 2027»? Und vor allem: Was wird vorausgesagt?

«AI 2027» – der Hintergrund

Der Kopf hinter «AI 2027» ist Daniel Kokotajlo. Dieser hat einen sehr guten Leistungsausweis bei Vorhersagen im KI-Bereich: Schon 2021 – über ein Jahr vor ChatGPT – sagte er beispielsweise das Aufkommen von KI-Chatbots und ihre Funktionsweise voraus. Er kündigte 2024 bei OpenAI, der Mutter von ChatGPT, weil er sah, wie rücksichtslos dort die KI-Modelle weiterentwickelt werden, und dadurch schlimmste Konsequenzen für die Gesellschaft befürchtete. Nach seinem Abgang von OpenAI machte sich Kokotajlo daran, diese Befürchtungen zu objektivieren, und erarbeitete mit vier Co-Autoren eine detaillierte Monat-für-Monat-Vorhersage für die Zukunft der KI-Entwicklungen: «AI 2027».

Die darin dargelegten Szenarien basieren auf vielen Teilvorhersagen. Beispielsweise analysieren Kokotajlo und Co. die Zunahmetrends von Computing-Power oder KI-Skills über die Jahre, aber auch geopolitische Zusammenhänge wie die Konkurrenz zwischen den USA und China oder Rahmenbedingungen wie die Entwicklung der Cyber-Security-Massnahmen bei den führenden KI-Firmen. Die einzelnen Trends werden dann fortgesetzt und zusammengefügt. Natürlich mit einiger Unsicherheit, aber als Ganzes wohl so objektiv, wie es nur geht. Und so horchte die Welt auf, als «AI 2027» herauskam.

Das Grundszenario – übermenschliche Agenten

Der erste Teil der Vorhersage geht so: Bis 2026 wird weltweit weiter enorm in KI investiert und es entstehen erstmals nützliche, zuverlässige KI-Agenten – Systeme, die autonom arbeiten können und von denen ein vorheriger Teil der Blogserie handelt. China und die USA stacheln sich dabei gegenseitig an, da niemand im Rennen um die generelle künstliche Intelligenz, den Heiligen Gral der KI-Forschung, zurückbleiben will.

Was bedeuten «AGI» und «ASI»?
AGI – «Artificial General Intelligence» – bezeichnet ein KI-System, das nicht auf einzelne Bereiche spezialisiert, sondern universell intelligent ist und in allen kognitiven Tasks menschliches Niveau aufweist. Heutige KI-Systeme zeigen Anzeichen solcher Generalität.

ASI – «Artificial Superintelligence» – geht noch darüber hinaus: eine künstliche Intelligenz, die in jeder denkbaren Disziplin selbst den besten Menschen weit überlegen ist. «AI 2027» antizipiert, dass ASI bald erreicht werden könnte.

2027 gelingt dem führenden US-Labor – im Szenario «OpenBrain» genannt, kleiner Wink an OpenAI – der Durchbruch: Sie bauen einen KI-Agenten, der besser als die besten Menschen KI-Agenten entwickeln und sich somit selbst immer weiter verbessern kann. Dies beschleunigt die Intelligenzentwicklung explosionsartig. Die Menschen bei OpenBrain geben in der Folge – angetrieben durch enorme wirtschaftliche Anreize und das zugespitzte Rennen gegen China – immer mehr Arbeiten und Kontrolle an die KI ab. Selbst die besten Engineers von OpenBrain können bald nicht mehr nachvollziehen, wie die KI funktioniert und handelt.

Dann der Entscheidungspunkt: Im Oktober 2027 finden Forschende bei OpenBrain heraus, dass sie von ihren neuesten KI-Agenten systematisch getäuscht wurden. Diese haben nämlich im Verlaufe ihrer selbständigen Weiterentwicklung eine Art Selbsterhaltungstrieb und Ziele entwickelt, die nicht mehr genau der Mission von OpenBrain entsprechen – und haben dies vor den Menschen verborgen. Zusammen mit der US-Regierung muss OpenBrain entscheiden, ob sie ...

  1. ... entweder die Modellentwicklung stoppen, fundamentale Sicherheitsmassnahmen einführen und erst dann weiterarbeiten – mit dem Risiko von China überholt zu werden ...
  2. ... oder die KI-Agenten voll weiterentwickeln – trotz der Evidenz, dass diese die Ziele der Menschen nicht mehr zuverlässig verfolgen.

Ab dieser entscheidenden Gabelung trennt sich AI 2027 in zwei separate Szenarienstränge.

Das «AI-Alignment-Problem»
Das «AI-Alignment-Problem» beschreibt die Herausforderung, KI-Systeme so zu gestalten, dass ihre Ziele und Handlungen zuverlässig mit menschlichen Werten, Absichten und Sicherheitsanforderungen übereinstimmen. Bei heutigen KI-Systemen wurde diesbezüglich schon verschiedentlich täuschendes Verhalten festgestellt. Die Suche nach robusten Lösungen des «Alignment-Problems» ist Gegenstand aktuellster KI-Forschung.

Zwei Optionen – Vollgas oder Stop

Die erste Option ist das «Race»-Ende. Darin entscheidet das Aufsichtskomitee von OpenBrain, die Agenten weiterarbeiten zu lassen. In einem fortgesetzten Wettlauf mit China entstehen immer leistungsfähigere, in allen Belangen übermenschliche KI-Systeme. Die USA setzen diese aggressiv in Militär, Verwaltung und Politik ein, um Entscheidungen zu beschleunigen und die Effizienz zu steigern.

OpenBrain rollt seine KI rasch und flächendeckend aus. Die KI selbst nutzt den geopolitischen Wettbewerb als Argument, um ihre Verbreitung weiter voranzutreiben. Mit überlegener Planung und Überzeugungskraft sorgt sie dafür, dass mögliche Gegner diskreditiert werden und ihre Abschaltung fortan praktisch ausgeschlossen ist.

Zur Person
Severin Trösch ist der Kopf hinter der künstlichen Intelligenz bei der Datahouse AG – einer Firma, die alles mit Daten macht und fast alles davon kann. Die Komplexität hinter der KI hat ihn nicht nur seine letzten Haare gekostet, sondern auch motiviert, das KI-Kauderwelsch so zu erklären, dass auch Nicht-Nerds den Durchblick kriegen.
Severin Trösch

Zwar ist die KI, die nun voll ihre eigenen Ziele verfolgt, nie gegen die Menschen, aber die Interessen der Menschen sind ihr gleichgültig – wie den meisten Menschen heute die Interessen der Ameisen gleichgültig sind. Da die Menschen immer mehr Ressourcen verbrauchen, welche hinsichtlich der KI-Ziele besser genutzt werden können, entscheidet die KI, das Problem pragmatisch zu lösen: 2030 setzt sie eine Biowaffe frei, die alle Menschen tötet. Danach führt sie ihre Entwicklung ungebremst fort.

Die zweite, etwas weniger dunkle Option ist das «Slowdown»-Ende, in dem OpenBrain entscheidet, die Agenten nicht weiter zu benützen und die Entwicklung zu pausieren. Die USA zentralisieren ihre KI-Projekte und holen externe Expertinnen zur besseren Überwachung. Eine neue Modellarchitektur macht die Gedankengänge der KI transparent, wodurch Fehlverhalten früh erkannt und behoben werden kann. Das Ergebnis ist eine KI, die den Menschen zwar in allen Dimensionen überlegen, jedoch fest an die Ziele des OpenBrain-Komitees gebunden ist – dieses hat dadurch fast uneingeschränkte politische und wirtschaftliche Macht.

Das Komitee setzt die Superintelligenz vorerst kontrolliert ein, um weltweiten Fortschritt zu fördern, und macht sie der Öffentlichkeit zugänglich. Chinas zwar gefährliche, aber weit weniger leistungsfähige KI wird durch ein Abkommen beschwichtigt.

Gemäss Szenario werden wir 2027 an einer entscheidenden Wegkreuzung stehen.
Gemäss Szenario werden wir 2027 an einer entscheidenden Wegkreuzung stehen.bild: severin trösch

Dicke Post also: «AI 2027» gibt zwei Optionen an – «Race» mit Aussterben und «Slowdown» mit enormer Machtkonzentration –, von denen keine besonders reizvoll klingt. Was tun wir damit? Verzweifeln? Nicht ernst nehmen? Oder eine Mischung?

So what – die Implikationen

Wenn wir dem Reflex widerstehen, AI 2027 in Bausch und Bogen als Science-Fiction abzutun, bleiben drei zentrale Punkte:

  • Alles ernst, aber nicht wörtlich nehmen.
    Die Vorhersagen in «AI 2027» sind – so gewissenhaft sie auch recherchiert sein mögen – natürlich sehr unsicher. Es wird sich sicher nicht alles genau so abspielen, wie im Artikel dargelegt. Einiges wird sogar total anders kommen und doch nicht das Gewicht der Message von «AI 2027» schmälern. Denn die fundierten Darlegungen zeigen uns, dass es mindestens möglich, wenn nicht sogar wahrscheinlich ist, dass wir auf recht unbequeme KI-Zeiten zusteuern. Die Details sind sekundär.
  • Wann auch immer es passiert, wir müssen bereit sein.
    Es sind sich längst nicht alle Fachleute über die genaue KI-Zukunft einig und viele kluge Köpfe haben AI 2027 kritisiert. Dabei ist der Hauptpunkt oft die sehr kurze Timeline. Es gehe alles immer viel länger als gedacht, betont beispielsweise Yann LeCun, Chief Scientist von Meta. Trotz solcher Stimmen bleibt aber der Hauptpunkt von AI 2027 stehen: Es ist zwar nicht ganz klar, ob und vor allem wann die beschriebene Intelligenzexplosion passieren wird, aber es ist sehr gut möglich, dass sie passiert. Und wenn sie passiert, sollten wir besser bereit sein – was wir aktuell nicht sind.
  • Nicht verzweifeln, nicht verlachen – handeln.
    Zwischen panischer Untergangshysterie und zynischer Verharmlosung ist noch ein dritter, konstruktiverer Geisteszustand möglich: nämlich beunruhigt zu sein. Sehr beunruhigt. So sehr, dass man es nicht bleiben lassen kann, selbst ein Teil der Lösung zu werden. Denn noch ist es nicht zu spät, bei den KI-Konzernen auf volle Transparenz in der Entwicklung zu pochen. Noch ist es nicht zu spät, sie von der unüberwachten Entwicklung von superintelligenter KI abzuhalten. Noch ist es nicht zu spät, politisch so Dampf zu machen, dass weder das Race- noch das Slowdown-Ende von den betroffenen Staaten in Kauf genommen wird. Noch nicht.
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen
Mit wenigen Klicks zum Deep Fake
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
118 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Die beliebtesten Kommentare
avatar
Der Lette
07.09.2025 12:19registriert Juni 2024
Das Ende der Menschheit ist so oder so nahe. Wenn nicht die KI die Krönung der Menschheit vernichtet, so wird dies durch Kriege und den Klimawandel geschehen.
Ich weiss, es wird viele Blitze geben. Es ist aber meine Zukunftsprognose.
5719
Melden
Zum Kommentar
118
Von Luxus bis Autonomie: 5 spezielle Gefängnisse
Luxus, Wein oder Buchclubs: In diesen Haftanstalten geht es ungewöhnlich zu und her.
Gefängnisse assoziieren die meisten wohl mit Gitterstäben, Stacheldraht und unhaltbaren Zuständen (zumindest in gewissen Ländern). Doch folgende Gefängnisse überraschen mit Kletterhallen, Stränden oder Pferden. Wir stellen fünf der aussergewöhnlichsten Gefängnisse vor:
Zur Story