Streit um KI eskaliert: US-Regierung verbannt Anthropic – OpenAI mit Deal
Nach dem Streit zwischen dem Pentagon und der KI-Firma Anthropic hat sich Rivale OpenAI eigenen Angaben nach mit dem US-Verteidigungsministerium auf die Verwendung seiner Software beim Militär geeinigt.
«Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen», schrieb OpenAI-Chef Sam Altman auf der Plattform X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschliesslich autonomer Waffensysteme. «Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.»
Weitere Details des Deals waren zunächst nicht bekannt. Demnach ist unklar, ob und wie die erwähnten Einschränkungen durchgesetzt werden sollen.
Streit zwischen Pentagon und Anthropic eskaliert
Auf die beiden Sicherheitsprinzipien hatte auch OpenAI-Konkurrent Anthropic gepocht. Das US-Unternehmen wollte als Grenzen für die Verwendung seiner KI-Software im US-Militär ihrem Chef Dario Amodei zufolge durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als «Supply-Chain Risk to National Security», also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem «besseren und patriotischeren» Anbieter zu ermöglichen.
Die Massnahme erfolgte im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Darum geht es bei dem Streit
Im Kern der Debatte geht es darum, dass Anthropic darauf besteht, dass Künstliche Intelligenz der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird, schrieb Mitgründer und Chef Dario Amodei in einem Blogeintrag. Das US-Verteidigungsministerium habe deshalb gedroht, Anthropic als ein Lieferketten-Risiko einzustufen, was das Geschäft des Unternehmens in den USA drastisch einschränken würde.
Das von Pete Hegseth geführte Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die «jedem legalen Einsatz» ihrer Software zustimmen. Anthropic beharrt jedoch darauf, dass die von der Firma geforderten Einschränkungen wichtig seien.
Der Anthropic-Chef warnt, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in grossem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden.
Altman: Gleiche Bedingungen für alle KI-Unternehmen
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – «Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte». Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmassnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche.
(sda/dpa)
