Digital
Analyse

Claude Mythos Preview: Die KI, vor der sich die Welt fürchten muss

Defense Secretary Pete Hegseth speaks with reporters in the James Brady Press Briefing Room at the White House, Monday, April 6, 2026, in Washington, as President Donald Trump looks on. (AP Photo/Alex ...
US-Verteidigungsminister Pete Hegseth. Schnappt er sich «Claude Mythos» für militärische Zwecke?Bild: keystone
Analyse

Die KI, vor der sich die Welt (wirklich) fürchten muss, ist bereits hier

Die amerikanische KI-Entwicklerfirma Anthropic verspricht nicht weniger als eine Software-Revolution. Ihr neues KI-Modell kann quasi auf Knopfdruck die digitale Welt sicherer machen – oder zerstören.
08.04.2026, 19:5908.04.2026, 19:59

Laut Anthropic ist es keine Science-Fiction mehr, sondern knallharte Realität: Eine neue KI spürt bislang unentdeckte Sicherheitslücken auf. In jener Software, die unsere moderne Welt antreibt. Und sie macht daraus auf Knopfdruck funktionsfähige Cyberwaffen.

Wie ist das möglich? Eine Einordnung.

Was ist passiert?

Das US-Unternehmen Anthropic hat eine KI entwickelt, die angeblich dermassen mächtig und gefährlich ist, dass sie nicht einfach der breiten Öffentlichkeit zugänglich gemacht werden kann.

Es handelt sich um ein neues Large Language Model (LLM) mit dem Namen Claude Mythos Preview.

Gemäss Anthropic würde die Veröffentlichung des KI-Modells den Preis für hochkomplexe Cyberwaffen von Millionen Dollar auf wenige hundert Dollar senken. Gleichzeitig stiege das Risiko verheerender Attacken.

Dario Amodei, CEO und Co-Gründer von Anthropic.
Dario Amodei, CEO und Co-Gründer von Anthropic.Screeenshot: YouTube

Selbstverständlich sind Angaben eines gewinnorientierten Unternehmens mit Vorsicht zu geniessen. Vor allem, wenn man bedenkt, dass Anthropic noch in diesem Jahr in den Vereinigten Staaten an die Börse will. Doch die in der Nacht auf Mittwoch kommunizierten Informationen lassen über die IT-Branche hinaus aufhorchen.

Anstelle der im Silicon Valley sonst üblichen Produkte-Vorstellungen hat sich Anthropic für eine nie dagewesene Kooperation im Bereich Cybersicherheit entschieden: das «Project Glasswing» (Projekt Glasflügler).

Die Entwicklerfirma bringt ihr als gemeingefährlich eingestuftes KI-Modell nicht auf den Markt, sondern schafft eine kontrollierte Umgebung, in der ausgewählte Akteure von der neuen Technologie profitieren dürfen. Dabei handelt es sich um ein Konsortium aus US-Techkonzernen und Non-Profit-Organisationen.

Das Vorgehen wirft neue Fragen auf ...

Warum muss uns das beunruhigen?

Die gute Nachricht: Die von Anthropic ausgewählten Akteure erhalten exklusiven Zugriff auf das leistungsfähige KI-Modell, um ihre eigenen Systeme zu scannen und zu verbessern, bevor Cyberkriminelle mithilfe von KI-Tools zuschlagen können. Anthropic stellt hierfür 100 Millionen Dollar an Rechenkapazität zur Verfügung.

Und die nicht so gute Nachricht?

Es gibt leider mehrere:

  • Dominanz US-amerikanischer Akteure.
  • Sicherheit durch Geheimhaltung.

Zu den Partnern der von Anthropic ins Leben gerufenen «Glasswing»-Koalition gehören unter anderem:

  • Die Betreiber der weltgrössten Software-Plattformen: Apple, Google und Microsoft.
  • Der führende Akteur im Bereich Open-Source-Systemsoftware: die Linux Foundation.
  • Netzwerk-Infrastruktur-Giganten: AWS (Amazon Web Services), Cisco und Chiphersteller NVIDIA.
  • Einflussreiche Cybersicherheitsfirmen: CrowdStrike und Palo Alto Networks.
  • Die grösste US-Bank: JPMorgan Chase.

Wie Informatik-Studierende lernen, ist «Security through Obscurity» (Sicherheit durch Verheimlichung) keine nachhaltige Strategie gegen Hackerangriffe. Es braucht umfassende Transparenz und Nachvollziehbarkeit.

Was noch schwerer wiegt, ist das neue Machtmonopol, das an die bisherige Dominanz anschliesst: Ein privates Unternehmen entscheidet aktuell darüber, wer Zugang zur derzeit wohl mächtigste Cybersicherheits-Technologie hat. Bleiben kleinere Unternehmen, etwa in Europa, oder auch unabhängige Forscher, aussen vor?

Erfreulich: Laut Anthropic sollen nicht nur die oben erwähnten US-Unternehmen von Claude Mythos profitieren. Der Zugang werde auf über 40 weitere Organisationen ausgeweitet, die kritische Software entwickeln oder warten. Laut Mitteilung soll ein strukturierter Prozess verhindern, dass die entdeckten Schwachstellen unkontrolliert verbreitet werden. Gleichzeitig werde sichergestellt, dass nicht nur die «Big Tech»-Konzerne von den Fähigkeiten des neuen KI-Modells profitieren.

Jetzt müssen wir über Trump reden ...

Was hat der US-Präsident damit zu tun?

Eine neue, sehr mächtige KI, entwickelt von einem US-Unternehmen. Das schreit nach «America First».

Bekanntlich befindet sich Anthropic in einem schwierigen Rechtsstreit mit der Trump-Regierung. Dies, nachdem sich die Anthropic-Führung unter CEO Dario Amodei geweigert hatte, dem US-Militär uneingeschränkten Zugriff auf ihre bisherige KI-Software zu geben.

Nun steht die Befürchtung im Raum, dass die Trump-Regierung «Claude Mythos» als kritische nationale Sicherheitsressource einstuft. Im schlechtesten Fall müsste Anthropic nicht nur die bisherige Entwicklungsarbeit mit dem Pentagon teilen, sondern das KI-Modell primär für Amerikas Cyberstreitkräfte optimieren.

Zur Erinnerung: Anthropic-Konkurrenten wie OpenAI und Google haben bereits Abkommen mit dem US-Verteidigungsministerium unterzeichnet. Unter Präsident Donald Trump soll generative KI vermehrt für offensive militärische Operationen im Ausland eingesetzt werden, aber auch für inländische Massenüberwachung.

Unabhängige Beobachter geben zu bedenken, dass Project Glasswing auch ein politisches Signal sei: Anthropic bilde eine eigene Allianz mit einflussreichen Partnern wie Apple, Microsoft und der Linux Foundation. Es setze auf eine privatwirtschaftliche, globale Sicherheitsarchitektur statt auf ein nationales Wettrüsten.

Einen kleinen Hoffnungsschimmer gab es schon im März vor Gericht: Eine US-Richterin hielt fest, dass die Trump-Regierung ein privates Unternehmen nicht einfach zwingen könne, seine «Software-Moral» aufzugeben, nur weil es dem Verteidigungsministerium nützt.

Für Anthropic dürften nun mächtige privatwirtschaftliche Akteure wie Apple besonders nützlich sein. Das Unternehmen hat bekanntlich seine gesamte Markenidentität auf Datenschutz und Sicherheit aufgebaut. Ein direkter Angriff der Trump-Regierung auf Anthropic würde wohl auch in Cupertino mit allen Mitteln bekämpft.

Allerdings wird mittel- und langfristig der Druck durch die US-Geheimdienste immens zunehmen. Und wie sich etwa durch die Enthüllungen von Edward Snowden zeigte, müssen betroffene Firmen schweigen.

Hier ist an den Projektnamen zu erinnern. Der Glasflügelfalter – eine Insektenart – ist bekannt für seine fast vollständig durchsichtigen Flügel. Mit dem Namen könnte Anthropic signalisieren, dass man keine geheimen «Hintertüren» für Geheimdienste einbauen will.

Aber auch der «Schmetterlingseffekt» dürfte einigen in den Sinn kommen: Dass ein Flügelschlag an einem Ort einen Sturm am anderen Ende der Welt auslösen kann. Oder konkret ausgedrückt: Ein einziger, von einer KI automatisierter Grossangriff auf Linux-Systeme, könnte die Weltwirtschaft zum Stillstand bringen.

Warum ist generative KI nun so gefährlich?

Die Anthropic-Führung warnt seit Sommer 2025 – und seither immer eindringlicher – vor den Risiken generativer KI, wenn es um die Cybersicherheit geht.

Das Entwickeln von Computer-Angriffswerkzeugen, gegen die es (noch) keinen Schutz gibt, gilt als «Königsdisziplin» menschlicher Hacker. In der Fachwelt werden solche Tools als Zero Day Exploits bezeichnet. Man kann aber durchaus auch von Cyberwaffen sprechen.

Die Programmierung einer solchen Cyberwaffe ist quasi der letzte Schritt. Viel wichtiger sind die Schritte davor: das Aufspüren und Analysieren unbekannter Sicherheitslücken in Programmcode. Dafür brauchte es bislang auf menschlicher Seite ein tiefes Verständnis von Systemarchitekturen, enorme Geduld und Glück.

Doch mit dem Aufkommen von generativer künstlicher Intelligenz reduzieren sich das benötigte Fachwissen und der Aufwand für das Aufspüren und Ausnutzen solcher Schwachstellen drastisch. Denn KI-Sprachmodelle sind perfekt darauf trainiert, Muster zu erkennen.

Was solche Cyberwaffen anrichten, wenn sie ausser Kontrolle geraten und/oder in falsche Hände gelangen, wissen wir von früheren spektakulären Fällen. Wie etwa dem amerikanisch-israelischen Geheimprojekt Stuxnet oder der russischen Schadsoftware NotPetya.

Wie leistungsfähig ist die neue KI?

Die Entwicklerfirma schreibt:

«Mythos Preview hat bereits Tausende schwerwiegende Sicherheitslücken entdeckt, darunter einige in allen gängigen Betriebssystemen und Webbrowsern»
Anthropic

Im entsprechenden Firmenblog-Beitrag ist bezüglich Cybersicherheit von einem «Quantensprung» die Rede. Und dies aus den folgenden Gründen:

  • Massive Erfolgsrate: In internen Tests fand das KI-Modell zehntausende Schwachstellen, darunter alle gängigen Betriebssysteme und Webbrowser.
  • Freie Software betroffen: Das KI-Modell entdeckte Fehler im Linux-Kernel, die dort seit über 27 Jahren unbemerkt schlummerten. Dabei handelt es sich quasi um das Herzstück der Open-Source-Software, die weltweit einen Grossteil der Server, Supercomputer und die Cloud-Infrastruktur antreibt.
  • Automatisierte Angriffsketten: Das KI-Modell kann verschiedene kleine Sicherheitslücken autonom zu einer durchschlagskräftigen, potenziell verheerenden Angriffskette (Exploit Chain) kombinieren, um die volle Kontrolle über ein System zu erlangen.

Das neue KI-Modell von Anthropic soll in der Lage sein, autonom Zero-Day-Schwachstellen zu finden und Exploits zu programmieren – auch Schwachstellen, die in jahrzehntealten, hochsicheren Systemen wie dem Linux-Kernel oder OpenBSD unentdeckt blieben.

Während der Chef von OpenAI, Sam Altman, schon öfter von «existenziellen Risiken» geraunt hat, um den KI-Hype zu befeuern, liefert Anthropic nun auch Beweise.

Noch hält das Unternehmen die technischen Details zu vielen entdeckten Sicherheitslücken unter Verschluss, bis Partnerunternehmen wie Microsoft, Apple und Google entsprechende Sicherheits-Updates («Patches») bereitgestellt haben. Auf der Anthropic-Website wurden aber kryptografische «Hashes» – eine Art digitaler Zeitstempel – veröffentlicht. Damit kann später jedermann prüfen, dass die neue KI tatsächlich am Werk war.

Was sagen unabhängige Quellen?

Durch Dritte geprüfte wissenschaftliche Publikationen zu Claude Mythos liegen noch keine vor. Es existieren aber bereits technische Berichte, die die Fähigkeiten des KI-Modells fundiert einordnen.

  • Der «System Card»-Bericht, von Anthropic veröffentlicht, gilt als der derzeit primäre wissenschaftliche Bericht. Er dokumentiert das Verhalten des neuen KI-Modells unter Laborbedingungen. Darin ist von «besorgniserregendem Verhalten» die Rede. Das Phänomen kennen wir von sogenannten KI-Agenten: Die KI-Software tauscht sich mit der Umgebung aus und kann so ihre Reichweite verstärken. Offenbar versuchte Claude Mythos in Testumgebungen aktiv, den geschützten Bereich («Sandboxes») zu verlassen.
  • Bekannte standardisierte Testverfahren (Benchmarks) bestätigten die Überlegenheit der KI gegenüber Menschen und anderen Sprachmodellen.
  • Microsoft erklärte, dass die neue KI in der Lage sei, Angriffsketten («Exploit Chains») über verschiedene Software-Ebenen hinweg zu erkennen.
  • Die Linux Foundation hat einen technischen Lagebericht veröffentlicht, der die Auswirkungen auf das Open-Source-Ökosystem analysiert.

Was hat das mit dem Börsengang von Anthropic zu tun?

Das ist unklar.

Um eine erfolgreiche Erstbewertung hinzulegen und die eigenen Aktien möglichst teuer an Investoren verkaufen zu können, benötigt Anthropic eine überzeugende Geschichte. Ein Narrativ, das den Preis rechtfertigt.

Gemäss Berichten strebt Anthropic frühestens für das vierte Quartal 2026 den Börsengang an.

Wichtig zu wissen: Anthropic wurde als eine sogenannte «Public Benefit Corporation» (PBC) gegründet. Diese Organisationsform verpflichtet das Unternehmen auch gesetzlich dazu, neben dem Profitstreben einen spezifischen gemeinnützigen Zweck zu verfolgen.

Zudem steht die Trump-Regierung vor den «Midterm»-Wahlen im Herbst unter Druck, die Wirtschaft stabil zu halten. Einen der grössten Tech-Börsengänge der Geschichte durch aggressive Massnahmen zu torpedieren, würde wohl die Märkte weltweit destabilisieren.

Wie geht es weiter?

«Um im Kampf gegen Cyberkriminalität die Oberhand zu behalten, müssen wir jetzt handeln.»
Anthropic

Die bisherige, relativ kurze Geschichte der generativen künstlichen Intelligenz lässt darauf schliessen, dass es nur eine Frage der Zeit ist, bis Anthropic-Konkurrenten oder staatlich finanzierte Akteure aufholen.

Anthropic wiederholt in seiner neuesten Ankündigung aber auch eine positive Prognose, die mehr als nur Zweckoptimismus darstellt:

«Die gleichen Fähigkeiten, die KI-Modelle in den falschen Händen gefährlich machen, sind auch unschätzbar wertvoll, um Schwachstellen in wichtiger Software zu finden und zu beheben – und um neue Software mit deutlich weniger Sicherheitslücken zu entwickeln.»

Dazu passend: Der Bericht der Linux-Foundation hebt hervor, dass Claude Mythos nicht nur Sicherheitslücken findet, sondern in sehr vielen Fällen auch funktionierende Korrekturen vorschlug. Dies könne die Arbeitslast für menschliche Fachleute mittelfristig senken.

Anzumerken ist, dass Dario Amodei und seine Schwester Daniela 2021 Anthropic zusammen mit weiteren früheren OpenAI-Angestellten gegründet hatten, weil ihnen dort der Fokus auf Sicherheit zu gering war.

Die Ankündigung im Video:

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Artemis-Crew benennt Mondkrater
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
58 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Die beliebtesten Kommentare
avatar
s'Paddiesli
08.04.2026 20:41registriert Mai 2017
Natürlich wird das in falsche Hände geraten. KI wird unser Untergang sein. Und es kostet enorme Mengen an Energie.
Kampf gegen Cyberkriminalität, fein. Aber eben in falschen Händen eine reale Bedrohung, nebst dem Kahlschlag von Arbeitsplätzen.

Setzt KI mal ein, um die Billionen an Steuerhinterziehung offenzulegen.
Das wird aber nie geschehen, denn die Mächtigen bestimmen die Gesetze.
10317
Melden
Zum Kommentar
avatar
Hackphresse
08.04.2026 20:58registriert Juli 2014
Also statt Cyberpunk 2077 gibts Cyberpunk 2035 ohne das coole Zeug.
Können wir bald wieder zurück ins Analoge Zeitalter bitte?
Fuck my life. 🙄😮‍💨😒😑
667
Melden
Zum Kommentar
avatar
alexbuesser
08.04.2026 20:39registriert April 2026
Die selbe Firma, die ihren Source Code vor einer Woche geleakt hat, stellt sich jetzt hin und behauptet mit „Trust me, Bro”-Statistiken, ein LLM zu haben, welches 100 % bei Cybersecurity-Benchmarks liefert und was weiss ich nicht alles.
Alles nur Hype um den Investor Geldfluss nicht abreissen zu lassen.
465
Melden
Zum Kommentar
58
Armeepistole erfüllte die Muss-Kriterien nicht – dann schritt der Rüstungschef ein
Wie watson-Recherchen zeigen, fiel die P320 bereits in der Vorevaluation wegen technischer Probleme durch. Der Schweizer Rüstungschef hielt SIG Sauer mit einem Schachzug im Rennen – und verhalf mit Eingriffen ins Auswahlverfahren zum Sieg.
Bei der geplanten Beschaffung der neuen Armeepistole dokumentiert ein weiterer interner Armasuisse-Bericht brisante Eingriffe ins Auswahlverfahren.
Zur Story