Digital
Analyse

Künstliche Intelligenz im Krieg: Warum KI zu Kontrollverlust führen kann

Militärexperten sehen in automatisierten Systemen die Zukunft des Drohnenkampfes
Militärexperten sehen in automatisierten Systemen die Zukunft des DrohnenkampfesBild: Shutterstock
Analyse

Künstliche Intelligenz im Krieg: Warum KI zu Kontrollverlust führen kann

Digitale Technologien prägen schon jetzt das Kampfgeschehen in Kriegen. Besonders bei ungleichen Konfliktparteien kommen sie zum Einsatz – und bestimmen auch, wer zum Ziel wird und wer nicht.
05.10.2025, 19:2205.10.2025, 19:22
Konstantin Hitscher / t-online
Ein Artikel von
t-online

Als Schwarm fliegen die Drohnen in der Nacht auf russische Ziele zu – dann entscheiden sie eigenständig, was sie attackieren. Während des Flugs koordinieren sie sich untereinander und passen ihr Vorgehen laufend an.

Wie das «Wall Street Journal» schreibt, gehören solche Angriffe inzwischen zum Alltag im Krieg zwischen Russland und der Ukraine. Kiew setzt, um einen Vorteil gegenüber Russland zu haben, bei Drohnen immer stärker auf Künstliche Intelligenz.

Militärexperten sehen in automatisierten Systemen die Zukunft des Drohnenkampfes und entwerfen Szenarien, in denen Tausende Einheiten auf einmal losfliegen können – auch wenn die in der Ukraine eingesetzte Technik bisher wohl nur mit maximal 25 Drohnen getestet wurde.

Unternehmen wie der deutsche Drohnenbauer Helsing machen ähnliche Versprechen und sammeln damit bei Investoren mehrere Milliarden Euro ein. Dabei bildet diese Vision nur einen Bruchteil dessen ab, wie Künstliche Intelligenz in den kommenden Jahren in Kriegen eingesetzt wird – und auch jetzt schon eine Rolle spielt.

Der Informatiker Rainer Rehak, der am Weizenbaum-Zentrum in Berlin zu den moralischen Dimensionen von Künstlicher Intelligenz forscht, sagt t-online: «Auch wenn das prozentual schlecht festgemacht werden kann: Die KI, die aus grossen Datenmengen Ziele generiert, die dann an die ausführenden Einheiten weitergegeben werden, macht aktuell wahrscheinlich den Grossteil der Nutzung von Künstlicher Energie in Kriegen aus.»

Die KI sucht militärische Ziele

KI ist so der entscheidende Teil in der «Kill-Chain». Der Begriff bezeichnet im militärischen Kontext den Ablauf verschiedener Schritte bis zum erfolgreichen Schlag gegen ein bestimmtes Ziel – also etwa das Lokalisieren und Verfolgen von Zielen, schliesslich der Schlag und das Bewerten der Wirksamkeit der Aktion.

Künstliche Intelligenz wird dabei mit Informationen aus den unterschiedlichen Systemen gefüttert, etwa Telefondaten und Satellitenbildern. Die KI führt einzelne Schritte durch und zieht schliesslich auch eigene Schlüsse: Sie zeigt etwa Soldaten an, wo sich potenzielle Ziele befinden.

Unterschiede in Kriegsführung

Damit Künstliche Intelligenz in einem Krieg wirklich umfassend genutzt werden kann, gibt es allerdings eine zentrale Voraussetzung. Rehak betont: «Diesen breiten Einsatz von KI finden wir vor allem dort, wo es asymmetrische Kriege gibt. Eine Seite muss sehr viel mehr über die andere Seite wissen.»

Im Krieg zwischen der Ukraine und Russland sei dies nicht der Fall: Beiden Seiten fehle die entsprechende Datengrundlage; KI kommt dort vor allem in Drohnen zum Einsatz. Anders sei die Lage im Gazakrieg. Israel verfüge über eine nahezu vollständige Informationsbasis vom Gazastreifen und sei auch gewillt, KI-generierte Zielausgaben militärisch zu nutzen.

KI macht Arbeit, für die Menschen nicht mehr ausreichen

Die Entscheidung für den Einsatz mehrerer ineinandergreifender KI-Systeme kam dort nicht zufällig. Wie das Magazin «+972» schreibt, reagierte die israelische Armee damit auf eine politische Entscheidung nach dem Angriff der Hamas vom 7. Oktober 2023: Die Definition dessen, wer als legitimes Ziel gilt, wurde ausgeweitet – und damit der Anwendungsbereich automatisierter Zielvorschläge.

Diese Vielzahl von Personen konnte laut dem Bericht von Menschen schlicht nicht mehr überwacht werden. Die KI ist im Gegensatz dazu aber in der Lage, mit so grossen Datenmengen umzugehen.

Ähnlichkeitsrelationen zur Zielsuche

Rehak fasst die Ergebnisse der Recherchen so zusammen: «Israel hat die gesamten Kommunikationsdaten aus Gaza – also Text, Audio, Telefon, Social-Media.» Zudem kenne die Armee wie Bewegungs- oder Zahlungsdaten. «Diese Daten werden mit Personen verbunden, die KI berechnet daraus dann Ähnlichkeitsrelationen.»

Das Programm errechnet einen Score, wie stark einzelne Personen dem Profil von Hamas-Terroristen entsprechen. Vonseiten des Militärs wurde dabei schon eine Vorentscheidung getroffen: Wie «+972» schreibt, wurde beim Training der KI eine sehr lose Definition dafür verwendet, wann jemand als Hamas-Angehöriger gilt. «Die Ähnlichkeit kann der Arbeitsweg sein, das kann der Ort sein, wo man Brötchen gekauft», sagt Informatiker Rehak dazu.

Wird ein bestimmter Grenzwert überschritten, ist eine Person laut dem System ein legitimes Ziel. Wie der Informatiker erklärt, ist die Festlegung des Grenzwerts dabei aber willkürlich.

Fehler gehören zwangsläufig dazu

Als statistisches System operiert die KI laut Rehak immer mit einem gewissen Fehlerquotienten: «Wenn ich einen Text übersetze oder mir Spotify aus meiner Musikhistorie drei Songs vorschlägt, die ich nicht hören will, ist das nicht so schlimm.» Sie aber einzusetzen, wenn es um Menschenleben geht, sei eine mehr als fragwürdige Entscheidung. Im Falle der KI-Systeme, die im Gazakrieg eingesetzt werden, liegt dieser Fehlerquotient nach Recherchen von «+972» bei etwa zehn Prozent. «Die KI bringt auf jeden Fall eine unglaubliche Beschleunigung und damit auch einen Verlust von Kontrolle – aber dazu entscheidet man sich ja auch», sagt Rehak.

Die Technik senke zudem den Einsatz, den ein Land bei einem Angriff aufs Spiel setzt – und könne damit auch zu einer grösseren Leichtfertigkeit führen: «Weder Bombardierungen noch Drohnenangriffe sind politisch wirklich teuer, weil die eigenen Soldaten dabei nicht sterben oder davon erzählen können.»

Wie «+972» unter Berufung auf Angehörige des israelischen Militärs schreibt, enthalten einzelne Systeme einen definierten Schwellenwert, wie viele zivile Opfer bei einem Bombenschlag in Kauf genommen werden. Zwischenzeitlich seien bis zu 15 oder 20 zivile Opfer akzeptiert worden, selbst wenn sich nur wenige Mitglieder der Hamas in dem Gebiet aufhielten, heisst es. Wie Rehak erklärt, ermöglicht die KI auch, dass man den geforderten Schwellenwert senkt – und so auf Knopfdruck neue Ziele finden kann.

Soldaten schieben Verantwortung von sich

Ausserdem hat die umfassende Nutzung dieser Technik auch eine Auswirkung auf die Soldaten. Der Medienwissenschaftler Ramon Reichert, der an der Universität für angewandte Kunst Wien lehrt, erklärt: «KI-Anwendungen erscheinen den Soldaten als eine Blackbox, deren Funktionsweise sie nicht mehr durchschauen können.» Das führe zum sogenannten Automation Bias – der Fachbegriff bezeichnet die Tendenz des Menschen, algorithmische Entscheidungen unkritisch zu übernehmen.

Reichert ergänzt: «Für die Soldaten besteht keine Möglichkeit, in die Systeme einzugreifen oder nachzuvollziehen, wie die jeweilige Entscheidung zustande gekommen ist.» Die Soldaten würden sich so für die Entscheidungen nicht mehr vollkommen verantwortlich fühlen.

Die israelische Armee betont bei «+972», dass noch immer ein Mensch in die Entscheidungen involviert sei. Wie Insider dem Magazin erklären, sei dazu aber häufig die Zeit knapp. Das treffe vor allem zu, wenn es um Zielpersonen gehe, die keine hohen Ämter innerhalb der Hamas innehaben. Die Zeit würde dann lediglich dazu ausreichen, um zu prüfen, ob die Zielperson männlich oder weiblich ist.

Verträge in Milliardenhöhe

Um den enormen, dafür benötigten Rechenbedarf zu gewährleisten, arbeitet Israel mit einer Reihe von grossen Techunternehmen zusammen. Der Informatiker Rehak erklärt: «Das sind riesige Systeme, nach Schätzungen werden 13,5 Petabyte an Daten verarbeitet.»

Nach Recherchen der US-Nachrichtenagentur AP hat etwa Microsoft mit dem israelischen Verteidigungsministerium einen Vertrag im Wert von 133 Millionen Dollar abgeschlossen – nach dem Beginn des Gazakriegs ist die von Microsoft bereitgestellte Rechenleistung demnach um zwei Drittel angestiegen.

«Nicht mehr transparent»

Amazon und Google sollen für ähnliche Dienstleistungen mit Israel bereits 2021 einen Vertrag über mehr als 1,2 Milliarden US-Dollar geschlossen haben. Weitere Verträge gibt es laut der Recherche mit Dell, Cisco, IBM und Open AI – mal für Rechenleistung, mal für Software.

Aber wohin wird der Einsatz von Künstlicher Intelligenz im Militär noch führen? Der Informatiker Karl-Hans Bläsius warnt vor Wettrüstungslogiken: «Da es bei autonomen Waffen vor allem um die Software geht, die einfach modifiziert werden kann, ist nicht mehr transparent, welche Wirkung solche Waffen eines Gegners haben können.» Kontrollen oder eventuelle Abrüstungsverträge seien so eigentlich nicht mehr möglich.

Verwendete Quellen:

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
7 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
7
KI-Software programmierte 30 Stunden lang
Die KI-Firma Anthropic hat einen Meilenstein beim Einsatz ihrer Software zum Programmieren erreicht. Das neue Modell mit dem Namen Claude Sonnet 4.5 konnte den Angaben zufolge rund 30 Stunden am Stück eigenständig programmieren.
Zur Story