Wissen
International

Autonome Waffen: Die missverstandenen Killer-Roboter

Roboter
Autonome Waffen können vordefinierte Ziele eigenständig erreichen, indem sie auf intelligente Art mit der Umwelt interagieren. Screenshot: Netflix

Autonome Waffen: Die missverstandenen Killer-Roboter

03.03.2018, 17:2003.03.2018, 17:22
Marko Kovic
Mehr «Wissen»

Fortschritte im Bereich der künstlichen Intelligenz (KI) machen sich von Tag zu Tag stärker bemerkbar. Immer mehr Autos fahren autonom; unsere Smartphone-Assistenten können uns immer besser mit Rat und Tat zur Seite stehen; medizinische Diagnosen können zunehmend schneller und genauer erbracht werden. Kurzum: KI erlaubt es uns, Ziele immer besser und effizienter zu erreichen. 

Dr. phil. Marko Kovic ist Präsident von ZIPAR – Zurich Institute of Public Affairs Research und von Skeptiker Schweiz – Verein für kritisches Denken. Zudem ist er CEO der Beraterfirma ars cognitionis.

Die rasanten Fortschritte im Bereich der KI interessieren auch das Militär. Das ist wenig erstaunlich, denn KI kann dem Militär im Grunde genauso helfen, wie sie uns im Zivilen hilft: Dank KI kann das Militär seine Ziele besser und effizienter erreichen. Brisant dabei ist, dass das Militär KI auch für Kampfeinsätze nutzbar machen möchte und KI darum in sogenannten autonomen Waffensystemen zum Einsatz kommen lassen will.

Autonome Waffen sind Waffen, welche in der Lage sind, ihre vordefinierten Ziele eigenständig zu erreichen, indem sie auf intelligente Art mit der Umwelt interagieren. Das bedeutet konkret, dass Waffen in nicht allzu ferner Zukunft in der Lage sein könnten, autonom komplexe Entscheidungen zu treffen mit dem Ziel, Menschen kampfunfähig zu machen oder gar zu töten. 

Gegenwärtig findet ein weltweites Wettrüsten um autonome Waffen statt, obwohl noch fast gänzlich unklar ist, wie autonome Waffen moralisch und strategisch, geschweige denn juristisch zu beurteilen sind. 

KI Autonome Waffensysteme
KI kommt auch in sogenannten autonomen Waffensystemen zum Einsatz. Bild: Future of Life Institute

Müssen wir Angst vor autonomen Waffen haben?

Im vergangenen Jahr haben über Einhundert KI- und Technologie-Experten in einem offenen Brief an die UNO dafür plädiert, autonome Waffen zu verbieten. Unter den Unterzeichnenden finden sich namhafte Persönlichkeiten wie Elon Musk, Steve Wozniak und Stephen Hawking. In diesem Brief wird davor gewarnt, dass autonome Waffen eine neue Ära der bewaffneten Konflikte einläuten könnten.

Autonome Waffen könnten, so die besorgten Experten, Kriege begünstigen, die schlimmer sind als alles, was wir bisher gesehen haben. Autonome Waffen könnten zudem auch von Terroristen und Diktatoren verwendet werden, die damit ziemlich sicher nichts Gutes im Sinn haben. 

Waffen
AbonnierenAbonnieren

Die Befürchtung, dass mit autonomen Waffen eine neue Explosion der kriegerischen Gewalt ausbricht, ist nachvollziehbar. Anders als beispielsweise Massenvernichtungswaffen dürften autonome Waffen verhältnismässig günstig in der Herstellung und verhältnismässig einfach in der Anschaffung sein. Steht uns eine neue Ära der brutalen «Schlacht-Bots» bevor, wie Gegner autonomer Waffen in einem aufsehenerregenden Video von 2017 warnen

In den letzten rund 1000 Jahren ist Waffentechnologie immer effektiver und effizienter geworden. In der zweiten Hälfte des 20. Jahrhunderts fand sogar eine regelrechte Revolution von Waffentechnologie statt. Im Grunde können heute nur schon einige wenige Leute Milliarden von Menschen, wenn nicht sogar die ganze Menschheit, umbringen.

Fast paradoxerweise aber gab es in den letzten Jahrhunderten und Jahrzehnten eine Explosion des Friedens, nicht des Krieges. Gewalt im Allgemeinen und bewaffnete kriegerische Konflikte im Besonderen nehmen stetig ab. Die Wahrscheinlichkeit, dass autonome Waffen den über Jahrtausende kumulierten moralischen Fortschritt der Menschheit zunichte machen und wir alle zu blutrünstigen Psychopathen degenerieren, dürfte vernachlässigbar klein sein. Ganz im Gegenteil: Autonome Waffen bergen sogar das Potenzial, Kriegsführung moralisch weiter zu verbessern. 

Drohne
Drohnen werden schon lange zivil und militärisch genutzt. Bild: Pexel

Der (überraschende) moralische Nutzen autonomer Waffen

Eines der zentralen Probleme der Kriegsführung betrifft die Problematik des jus in bello: Wie sollen sich die Parteien in einem bewaffneten Konflikt genau verhalten? In den letzten rund 100 Jahren wurde die Kriegsführung immer zivilisierter. Potenzielle Konfliktparteien haben sich immer stärker auf gewisse ausdrückliche wie auch auf implizite moralische Regeln geeinigt, welche darauf abzielen, die Kriegsführung in möglichst geregelten Bahnen ablaufen zu lassen.

Diese Regeln und Prinzipien werden oftmals mit dem Begriff des internationalen humanitären Völkerrechtes beschrieben. Die moralische Kernidee des Völkerrechts ist einfach: Unbeteiligte müssen durch einen bewaffneten Konflikt möglichst wenig Leid erfahren. Darum sind nicht alle Mittel der Kriegsführung wie auch nicht alle Arten des Umgangs der Kombattanten untereinander erlaubt. 

Noch ist es Science Fiction:
Künstliche Intelligenz im Kino

1 / 31
Künstliche Intelligenz im Kino: Gnadenlose Schaltkreise
Lasst die Spiele beginnen: Das Master Control Program (M.C.P.) ist sauer. Der Programmierer Kevin Flynn (Jeff Bridges) will mit einem Code namens Tron seine gestohlenen Ideen aus dem Grossrechner der KI zurückklauen. Das M.C.P. digitalisiert den «Nutzer» daraufhin mit einem Laserstrahl und lässt ihn im Inneren des Rechners gegen andere Programme antreten. Der Disneyfilm «Tron» von 1982 traf mit dem Thema Künstliche Intelligenz den Zeitgeist einer videospielbegeisterten Jugend und wurde zum Klassiker des Filmjahrzehnts. ... Mehr lesen
Auf Facebook teilenAuf X teilen

Humanitäres Völkerrecht klingt in der Theorie sehr gut, doch leider ist dessen Umsetzung in der Praxis allzu oft mangelhaft. Immer wenn Menschen in bewaffneten Konflikten Entscheidungen treffen, ist nämlich menschliches Fehlverhalten ein grosses Risiko. Soldaten zum Beispiel können in Panik und Angst reagieren, sie können hasserfüllt sein, sie können sadistische Züge haben (man denke an Abu Ghraib), oder sie können einfach Denkfehlern unterliegen und folgenschwere Irrtümer begehen.

Autonome Waffen könnten in diesem Zusammenhang grosse Abhilfe schaffen, denn sie sind gegen all die potenziell katastrophalen verzerrenden Einflüsse, denen wir als Menschen unterliegen, immun. Autonome Waffen basieren auf KI, und KI bedeutet schlicht, dass Ziele gemäss einer vordefinierten Nutzenfunktion verfolgt werden. In dieser Nutzenfunktion können völkerrechtliche Regeln explizit und unumgehbar eingebaut werden. Darum bergen autonome Waffen das Potenzial, regelrechte Völkerrechts-Roboter zu sein – und nicht die Killer-Roboter, vor denen wir Angst haben. 

Bedeutet der mögliche moralische Nutzen autonomer Waffen, dass wir diese möglichst bald entwickeln und einsetzen sollen? Nein: Autonome Waffen haben einen gewichtigen Nachteil, der den Nutzen zunichte macht. 

Soldaten, Drohne
Noch funktionieren Drohnen nicht als völlig autonomes Waffensystem. Bild: Shutterstock

Das strategische Risiko autonomer Waffen

Man stelle sich vor, dass eine Armee in einem bewaffneten Konflikt autonome Waffen einsetzt. Den Waffen, einer kleinen Drohnen-Flotte, werden vor dem Einsatz die taktischen Ziele vorgegeben: Sie sollen die Panzer der gegnerischen Armee kampfunfähig machen. Während des Kampfeinsatzes merken die Drohnen, dass einer der Panzer, welche sie kampfunfähig machen sollen, zu flüchten versucht. Die Drohnen analysieren die Situation und entscheiden selbstständig, die Brücke, über welche der Panzer flüchten könnte, präventiv zu zerstören. 

Wissen
AbonnierenAbonnieren

In diesem fiktiven Beispiel haben die Drohnen ihr Ziel erreicht: Alle Panzer sind kampfunfähig. Um das Ziel zu erreichen, haben die Drohnen im Zuge des Kampfeinsatzes eigenständig sogenannte instrumentelle Teilziele definiert und erreicht – vor dem Einsatz wussten die Drohnen nichts von der Brücke, über welche ein Panzer hätte flüchten können. Obwohl die Armee in diesem fiktiven Beispiel ihr Ziel mit dem Drohneneinsatz erreicht hat, zeigt es, warum es für eine Armee hochriskant ist, autonome Waffen einzusetzen. 

Ein zentraler Pfeiler des Militärs ist das Prinzip der Befehlskette. Armeen sind hierarchisch organisiert, was einen klaren und klar nachvollziehbaren Prozess der Entscheidungsfindung ermöglicht. Wenn nun autonome Waffen nicht-triviale Entscheidungen eben autonom treffen, ist das ein grosses strategisches Problem für das Militär: Die Befehlskette wird ganz grundsätzlich unterbrochen und die Entscheidungen, welche durch autonome Waffen getroffen werden, sind weder unmittelbar kontrollierbar (dann wären die autonomen Waffen nicht mehr autonom) noch sind sie nachträglich nachvollziehbar. 

Als Gegenargument mag man sich denken: Ob das Prinzip der Befehlskette über Bord geworfen wird, ist mir egal; Hauptsache, autonome Waffen funktionieren. Das strategische Problem der unterbrochenen Befehlskette hat aber mehr als nur philosophische Folgen. Wenn eine Armee autonome Waffen einsetzt, dann gibt sie in jenem Moment, in welchem eine solche Waffe für den Einsatz aktiviert wird, die Kontrolle über die Waffe auf (Das ist schliesslich der Witz an autonomen Waffen.). Wenn aber autonome Waffen Entscheidungen treffen, welche die Armee nicht kontrollieren kann, dann kann die Armee auch nicht wissen, ob die Entscheidungen einer autonomen Waffe tatsächlich einfach von der KI getroffen werden, oder, ob die autonomen Waffen von den Gegnern im Konflikt sabotiert wurden.

Digitale Revolution: Fünf Technologien, die unseren Alltag verändern werden

1 / 7
Digitale Revolution: Fünf Technologien, die unseren Alltag verändern werden
Mehrzweckroboter Baxter: Lernt Bewegungen durch handgreifliche Anleitung.
Auf Facebook teilenAuf X teilen

In einem Konflikt, in welchem die Konfliktpartei A autonome Waffen einsetzt, ist eines der höchsten Ziele von Konfliktpartei B nämlich, diese Waffen der Konfliktpartei A zu sabotieren. Fast nichts ist für Konfliktpartei B so nützlich wie die Kontrolle über die Waffen von Konfliktpartei A. Konfliktpartei A muss darum rationalerweise davon ausgehen, dass in jenem Moment, in welchem sie autonome Waffen einsetzt, diese Waffen durch die Konfliktpartei B sabotiert werden. Wenn aber Konfliktpartei A rational genug ist, um dieses fundamentale Risiko zu erkennen, dann wird sie autonome Waffen gar nicht erst einsetzen wollen. 

Aus ganz rationalem Eigennutz müsste also jede Armee der Welt freiwillig auf autonome Waffen verzichten. Das enorme Sicherheitsrisiko, welches durch den Unterbruch der militärischen Befehlskette entsteht, ist jenseits jedes potenziellen Nutzens. Mittelfristig dürften militärische Entscheidungsträger rund um die Welt zu dieser Einsicht kommen (Entgegen dem Klischee sind militärische Entscheidungsträger in der Regel nicht kriegsgeile Rambos, sondern besonnene Risikomanager.). Trotzdem ist es nicht verkehrt, bereits jetzt ein weltweites Verbot autonomer Waffen anzustreben. Zu diesem Zweck könnte das internationale Kriegsrecht um Regeln rund um die Notwendigkeit einer ununterbrochenen Befehlskette ergänzt werden. 

Am Ende könnten es tatsächlich vor allem Schurkenstaaten und Terroristen sein, die nach autonomen Waffen streben. Angesichts des Sicherheitsrisikos, das solche Waffen mit sich bringen, könnte dieser Schuss aber – zum Glück – nach hinten losgehen. 

US-Marinesoldaten testen Kampfroboter.Video: YouTube/WarLeaks - Daily Military Defense Videos & Combat Footage

Kollege Roboter

1 / 19
Kollege Roboter
Greifen mit Gefühl: Der humanoide Roboter Ecce kommt aus der Schweiz.
quelle: x00227 / wolfgang rattay
Auf Facebook teilenAuf X teilen

Zuerst Herstellung, jetzt Kunst. Können Roboter alles?

Video: srf
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
31 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Menel
03.03.2018 18:11registriert Februar 2015
"Aus ganz rationalem Eigennutz müsste also jede Armee der Welt freiwillig auf autonome Waffen verzichten."

Als wäre der Mensch das jemals gewesen. Dass er Kriege überhaupt führt, zeigt, dass er rational absolut unfähig ist.
555
Melden
Zum Kommentar
avatar
Roman Stanger
03.03.2018 19:49registriert Februar 2018
Der Artikel fing sehr gut an und hat viele meiner Ansichten gestützt. Den zweiten Teil kann ich aber nicht nachvollziehen. Es ist doch nicht so, dass hinter jeder einzelnen kriegerischen Handlung eine direkte Befehlskette steht. Und wenn die Armeen nur deshalb keine autonomen Waffen aufs Feld schicken würden, weil sie Angst haben, dass der Gegner die Kontrolle darüber erlangen könnte, dann wäre bisher nie ein Kriegsgerät eingesetzt worden, das hätte erbeutet werden können. Also sorry, den Schluss fand ich unlogisch und nicht nachvollziehbar.
425
Melden
Zum Kommentar
avatar
blabla..
03.03.2018 19:54registriert Mai 2015
Ich kenne keinen kriegerischen Konflikt bei dem auch nur irgendeine Seite das humanitäre Völkerrecht eingehalten hätte....
273
Melden
Zum Kommentar
31
Prager Spital führt Abtreibung bei falscher Patientin durch

Infolge einer Verwechslung hat ein Prager Krankenhaus an einer schwangeren Frau eine Abtreibung durchgeführt. Wie tschechische Medien am Donnerstag berichteten, wollte die Frau nur zu einer Routinekontrolle im Rahmen ihrer Schwangerschaft in die Gynäkologie-Abteilung der Klinik. Sie wurde aber mit einer Patientin verwechselt, die zu einer sogenannten Kürettage (Gebärmutter-Ausschabung) gekommen war.

Zur Story