KI für Kriegszwecke: US-Regierung will Firma zwingen, jeglichen Schutz aufzuheben
Der von Donald Trump eingesetzte Verteidigungsminister Pete Hegseth hat der amerikanischen KI-Entwicklerfirma Anthropic ein Ultimatum gestellt.
Bis am Freitag (27. Februar), 17 Uhr, sollen die Verantwortlichen ein Dokument unterzeichnen, das dem US-Militär «uneingeschränkten» Zugang zu seinem KI-Modell Claude gewährt. Falls sich die Anthropic-Führung weigert, drohen gravierende Folgen.
Hier erfährst du alles Wichtige.
Warum ist das wichtig?
Der nun eskalierte Streit zwischen der US-Regierung und dem Privatunternehmen dreht sich um die Sicherheitsvorkehrungen («Guardrails»), die Anthropic in seine KI-Sprachmodelle integriert hat.
Andere amerikanische KI-Entwicklerfirmen wie Elon Musks xAI (Grok) haben bereits zugestimmt, ihre Technologie dem US-Militär für «alle rechtmässigen Zwecke» zur Verfügung zu stellen. Hingegen beharrt Anthropic auf zwei Verboten, was die militärische Nutzung seiner leistungsfähigen KI-Software betrifft:
- Vollautonome Waffensysteme: Die KI-Software Claude soll nicht für automatisierte Zielentscheidungen oder den Einsatz tödlicher Gewalt ohne menschliche Kontrolle verwendet werden.
- Massenüberwachung: Anthropic lehnte den Einsatz für die Inlandsüberwachung von amerikanischen Bürgerinnen und Bürgern bislang entschieden ab.
Anthropics Co-Gründer und Geschäftsführer Dario Amodei spricht sich seit Langem für eine stärkere Regulierung von KI aus. Sein Unternehmen unterstützt ein politisches Aktionskomitee finanziell, das sich für strengere Sicherheitsvorkehrungen im Bereich der künstlichen Intelligenz einsetzt. Zudem war Amodei im US-Präsidentschaftswahlkampf 2024 ein Gegner Trumps.
Das Pentagon habe in den letzten Jahren Milliarden von Dollar in die Entwicklung KI-gestützter Technologien investiert, konstatiert die Tageszeitung «The Guardian». Die Militärprojekte reichten von unbemannten Drohnen bis hin zu automatisierten Zielsystemen. Der Fortschritt dieser Technologien habe «die ethischen Fragen darüber, wie viel Entscheidungsmacht im Bereich tödlicher Gewalt der KI überlassen werden sollte, verschärft».
Dass sich Anthropic gegen die Vereinnahmung seiner KI-Software durch das Pentagon sträubt, hat gemäss einem Insider gewichtige Gründe: Claude sei nicht immun gegen Halluzinationen, wie man sie von generativer KI kennt. Es gelte, potenziell tödliche KI-Fehler wie unbeabsichtigte Eskalation einer Operation oder Missionsversagen ohne menschliches Urteilsvermögen zu vermeiden.
Wie begründet das Pentagon sein Vorgehen?
Das US-Verteidigungsministerium (Pentagon) argumentiert, dass ein privates Unternehmen dem US-Militär nicht vorschreiben dürfe, wie es Befehle auszuführen habe. Es vergleicht die KI-Software Claude mit einem Kampfflugzeug von Boeing, bei dem der Hersteller auch nicht über die Einsatzziele mitentscheide.
Ein hochrangiger Pentagon-Beamter widersprach auch den Befürchtungen von KI-Experte Amodei: Das gewählte Vorgehen habe «nichts mit Massenüberwachung und dem Einsatz autonomer Waffensysteme zu tun». Man erteile der KI «lediglich rechtmässige Befehle».
Was hat das mit Palantir zu tun?
Hintergrund des am Dienstag von Pete Hegseth ausgesprochenen Ultimatums ist ein Vorfall vom 3. Januar 2026. Da wurde Berichten zufolge Claude im Rahmen der US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt. Wofür genau wurde nicht öffentlich kommuniziert.
Und hier kommt Palantir ins Spiel, eine der umstrittensten Software-Firmen weltweit. Palantir ist ein US-amerikanisches Überwachungsunternehmen, das sich auf die Analyse riesiger Datenmengen spezialisiert hat. Die Gründung des Konzerns wurde mageblich von der CIA finanziert, dem Auslandsgeheimdienst der USA.
Die Anthropic-Software Claude war bislang innerhalb der Palantir-Plattform verfügbar – gemäss einer Kooperations-Vereinbarung aus dem Jahr 2024. Doch nach dem Einsatz in Venezuela soll die KI-Entwicklerfirma bei ihrem Partner Palantir kritisch nachgefragt haben, ob dies gegen die Nutzungsrichtlinien verstiess. Und dies beurteilte wohl das Pentagon als inakzeptabel.
Im gleichen Monat liess Verteidigungsminister Hegseth verlauten, das Pentagon wolle keine KI-Modelle nutzen, «die es nicht erlauben, Kriege zu führen». Sein Ministerium schloss damals auch einen Vertrag mit Elon Musks KI-Firma xAI zur Nutzung deren Software.
Was droht Anthropic?
Sollte die KI-Entwicklerfirma bis am Freitag nicht nachgeben, droht das Pentagon mit drastischen Massnahmen:
- Die Trump-Regierung könnte auf ein Gesetz aus der Ära des Kalten Krieges zurückgreifen: Mit dem Defense Production Act (DPA) könnte Anthropic dazu gezwungen werden, Produkte nach staatlichen Vorgaben anzupassen oder zu priorisieren. Allerdings ist fraglich, ob dieses Gesetz auch für Software gilt.
- Zudem droht die Trump-Regierung, Anthropic auf eine schwarze Liste zu setzen, mit der Einstufung als «Risiko für die Lieferkette». Dann müssten alle US-Unternehmen im Rüstungs- und Verteidigungsbereich die Zusammenarbeit beenden, was das Geschäftsmodell des Start-ups massiv gefährden würde.
Die Lage wird für Anthropic dadurch erschwert, dass andere Techkonzerne bereits grünes Licht für den Einsatz ihrer KI-Software in militärischen Netzwerken erhalten haben und die «Unrestricted Use»-Bedingungen des US-Verteidigungsministeriums akzeptieren.
Was ist mit anderen KI-Entwicklerfirmen?
Wie der «Guardian» in Erinnerung ruft, schloss das US-Verteidigungsministerium bereits im Juli 2025 Verträge mit mehreren KI-Entwicklerfirmen ab, darunter Anthropic, Google und OpenAI, und bot ihnen Aufträge im Wert von bis zu 200 Millionen US-Dollar an. Bis diese Woche sei jedoch Anthropics Claude das einzige grosse Sprachmodell (LLM) gewesen, das für den Einsatz in den geheimen Systemen des Militärs zugelassen war.
Am vergangenen Montag unterzeichnete das Verteidigungsministerium einen Vertrag mit Musks xAI, der es Militärangehörigen erlaubt, auch Grok in geheimen Systemen zu nutzen. Also genau der KI-Chatbot, der wegen der Erstellung nicht einvernehmlicher, sexualisierter Bilder von Frauen und Kinder in der Kritik steht.
Google und OpenAI sollen Berichten zufolge ebenfalls vor einer Vertragsunterzeichnung stehen.
Quellen
- axios.com: Hegseth gives Anthropic until Friday to back down on AI safeguards
- theguardian.com: US military leaders pressure Anthropic to bend Claude safeguards (25. Feb.)
- Nachrichtenagenturen SDA/DPA
