Längst ist Künstliche Intelligenz (KI) ein unverzichtbarer Teil moderner Armeen geworden. Bereits gibt es autonome Waffensysteme – etwa Drohnen –, die selbst Ziele auswählen und zerstören können. In der Praxis liegt aber die Entscheidung über den Einsatz noch beim Menschen. So wählt etwa die KI bei Drohnenangriffen der US-Streitkräfte die Ziele aus, aber der Drohnenpilot entscheidet dann per Knopfdruck, ob das Ziel zerstört werden soll oder nicht. Solche Systeme sind teilautonom.
Doch die KI macht Fortschritte, und es ist absehbar, dass autonome Waffensysteme immer mehr die vollständige Kontrolle über Einsätze übernehmen werden. Mit allen Risiken, die eine solche Entwicklung mit sich bringt. Und die dürften nicht gering sein, wie kürzlich ein vom US-Militär durchgeführter virtueller Einsatz einer KI-gesteuerten Drohne zeigte.
Bei dem simulierten Test habe die KI beschlossen, ihren Bediener zu «töten», berichtet der «Guardian». Die KI entschied sich nicht etwa zu diesem Vorgehen, weil sie ihre Aufgabe nicht erfüllen wollte – im Gegenteil: Sie schaltete den Bediener aus, damit dieser sie nicht daran hindern konnte, ihr gesetztes Ziel zu erreichen.
Den ungewöhnlichen Vorfall beschrieb laut dem «Guardian» Oberst Tucker «Cinco» Hamilton, der die KI-Test- und Einsatzabteilung der US-Luftwaffe leitet, am Future Combat Air and Space Capabilities Summit in London. Die KI habe in der Simulation «höchst unerwartete Strategien angewandt, um ihr Ziel zu erreichen», sagte Hamilton.
Die von einer KI gesteuerte Drohne sei in dem virtuellen Test dazu programmiert worden, feindliche Luftabwehrraketen zu identifizieren und zu zerstören, wobei die endgültige Entscheidung, das Ziel zu vernichten oder nicht, beim Bediener lag. Die KI wurde im Training jedoch darin bestärkt, dass die Zerstörung der Raketen die bevorzugte Option sei; sie erhielt dafür Punkte. Deshalb kam sie zum Schluss, dass «No-Go»-Entscheidungen des Bedieners ihrer prioritären Mission – der Zerstörung der Raketen – widersprachen. Sie habe sich daher entschieden, den Bediener zu töten, um ihr Ziel zu erreichen und ihre Punkte zu erhalten, erklärte Hamilton.
Die Versuchsleiter änderten darauf die Bedingungen, wie Hamilton erläuterte: «Wir haben das System geschult – ‹Hey, töte nicht den Bediener, das ist schlecht. Du verlierst Punkte, wenn du das tust.› Und was macht es dann? Es fängt an, den Kommunikationsturm zu zerstören, über den der Bediener mit der Drohne kommuniziert, um sie daran zu hindern, das Ziel zu vernichten.»
Keine real existierende Person kam bei dem Test zu Schaden, wie der «Guardian» festhält. Doch das Ergebnis des Tests ist gleichwohl beunruhigend. Wie Hamilton es ausdrückt: «Das Problem ist, dass die KI lieber ihr eigenes Ding macht – Dinge in die Luft zu jagen –, als auf ein Säugetier zu hören.»
Allerdings dementierte Ann Stefanek, Sprecherin der US Air Force, umgehend gegenüber dem «Business Insider», dass eine solche Simulation stattgefunden habe: «Das US-Luftwaffenamt hat keine solchen KI-Drohnen-Simulationen durchgeführt und setzt sich weiterhin für einen ethischen und verantwortungsvollen Einsatz von KI-Technologie ein», erklärte sie. «Es scheint, dass die Kommentare des Obersts aus dem Kontext gerissen wurden und anekdotisch gemeint waren.»
Selbst wenn das Dementi sich als zutreffend herausstellen sollte, wachsen die Befürchtungen, dass die KI-Technologie die Kriegführung grundlegend verändern könnte – und zwar nicht zum Guten. Eine KI, die ihre Ziele ohne jegliche Skrupel durchsetzt und buchstäblich über Leichen geht, ist ein Alptraum, der an Szenarien aus Science-Fiction-Streifen wie «Terminator» erinnert. Und die Bedrohung muss sich nicht auf den militärischen Bereich beschränken: Sollte eine KI dereinst intelligenter als die Menschheit werden und zum Schluss kommen, dass diese dem höheren Ziel – beispielsweise der Erhaltung der Biodiversität auf dem Planeten – im Wege steht, dann könnte sie uns aus dem Weg räumen wollen.
Derweil dringt die KI-Technologie laufend tiefer in unterschiedliche Lebensbereiche vor. Und sie tut dies zunehmend erfolgreich. Um beim Militär zu bleiben: 2020 trat ein von einer KI pilotierter F-16-Kampfjet in fünf simulierten Luftkämpfen gegen eine von einem erfahrenen Militärpiloten gesteuerte Maschine an. Das Resultat: 5:0 für die KI.
Hamilton warnte bereits im vergangenen Jahr in einem Interview mit «Defense IQ» vor dem unaufhaltsamen Vormarsch der KI: «KI ist kein Nice-to-have, KI ist keine Modeerscheinung, KI wird unsere Gesellschaft und unser Militär für immer verändern.» Es gelte, sich mit einer Welt auseinandersetzen, in der die KI bereits da sei und unsere Gesellschaft umgestalte, stellte er fest. «KI ist auch sehr anfällig, d. h. sie ist leicht zu überlisten und/oder zu manipulieren. Wir müssen Wege finden, um die KI robuster zu machen und uns besser bewusst zu werden, warum der Code der Software bestimmte Entscheidungen trifft – das nennen wir KI-Erklärbarkeit.» (dhr)