Hochintelligente Drohnen schiessen getarnt aus der Luft auf Menschen. Dabei entscheiden die Kampfflugzeuge autonom, welche Ziele abgeschossen werden sollen und welche nicht.
Das ist Fiktion – könnte jedoch bald Realität werden. Zumindest wenn man den Aussagen von Laura Nolan, einer ehemaligen Top-Software Ingenieurin von Google, Glauben schenkt.
Doch von Anfang an: In einem Artikel des Guardian warnt Nolan, dass autonom agierende Drohnen versehentlich Kriege und Massenexekutionen lostreten könnten. Die Software Ingenieurin arbeitete für Google am Maven-Programm. Dieses lieferte für das US-Verteidigungsministerium künstliche Intelligenz, die Überwachungsdrohnen dazu befähigen sollte, autonom Objekte aus der Luft zu erkennen und zu klassifizieren.
Die Fähigkeit, militärische Drohnen in autonome, nicht von Menschen gelenkte Waffen umzuwandeln, «ist heutzutage nur ein Softwareproblem, das relativ einfach gelöst werden kann», so Nolan.
Aus Gewissensgründen schmiss Nolan letztes Jahr ihren Job und trat der Kampagne gegen Killerroboter bei, bei der schon 29 Länder und 110 NGOs mitwirken. Und Elon Musk. Die USA, Russland und China sind nicht dabei. Die Schweiz übrigens auch nicht.
Nolan hat bereits vor UN-Diplomaten in Genf und New York über die Gefahr solcher Drohnen referiert. Sie warnt, dass die Wahrscheinlichkeit einer Katastrophe exponentiell steigt, je mehr solcher Killer-Roboter sich gleichzeitig in einem Gebiet befinden. «Rechtswidrige Tötungen und Gräueltaten sind möglich», sagt sie dem Guardian.
Bewaffnete Drohnen stehen bis anhin unter der Kontrolle des Menschen, der sie steuert und im Ernstfall darüber entscheidet, ob Ziele angegriffen werden. Wenn diese menschliche Kontrolle entfällt, so Nolan, könnte es zu schweren Unfällen kommen, sobald sich die Drohnen auf unerwartete Weise verhielten.
Die ehemalige Google-Mitarbeiterin skizziert, wie externe Faktoren, zum Beispiel ein Wetterumschwung, Killerroboter vom Kurs abbringen und so möglicherweise fatale Folgen haben könnten:
Die aktuelle US-Militärdoktrin hält fest, dass letztlich immer ein Mensch über einen möglichen Angriff bestimmen muss. Wie lange das jedoch so bleibt, ist fraglich. Wie der Rüstungsexperte Paul Scharre in einem Interview mit der Zeit erklärte, existieren bereits heute simple Waffensysteme, die grosse Objekte wie Radaranlagen, Kriegsschiffe oder U-Boote angreifen könnten.
Zudem arbeiten Länder wie die USA, Grossbritannien, Frankreich, Israel, Russland und China bereits an Tarnkappen-Angriffsdrohnen, die dank künstlicher Intelligenz autonom agieren können. Andere autonome Waffen, die von Militärmächten auf der ganzen Welt entwickelt werden, sind zum Beispiel:
Donald Trump hat indes im Februar ein Dekret erlassen, das sicherstellen soll, dass die USA in Sachen KI führend bleiben. Das US-Verteidigungsministerium bekräftigte nur einen Tag später, dass KI genutzt werden solle, um die Bürger und das Land zu schützen. Auch autonome Waffen könnten Teil dieser Strategie sein.
Bis jetzt gibt es keine Hinweise darauf, dass Google direkt an der Entwicklung autonomer Waffensysteme beteiligt ist. Im August diskutierte eine Expertengruppe der Vereinten Nationen über autonome Waffen. Sie hielt fest, dass Google keine KI für den Einsatz in Waffensystemen programmiere.
Den Vertrag für das Maven-Programm mit dem US-Verteidigungsministerium, der von 2017-2019 läuft, hat Google nach heftigen Protesten von tausenden Mitarbeitern nicht erneuert. Die Mutterfirma von Google, Alphabet, hat zudem beim Kauf des KI-Unternehmens DeepMind 2014 versprochen, dessen Technologien keinen Militärs zur Verfügung zu stellen.
Das NGO PAX aus Holland hat zudem kürzlich eine Studie veröffentlicht, die 50 Tech-Firmen aus zwölf Ländern auf ihre Aktivitäten im Bezug auf mögliche Entwicklung von autonomen Waffensystemen untersuchte. Die Studie stellte fest, dass Google eine Vorreiterrolle einnimmt, da sich das Unternehmen verpflichtet hat, keine KI für den Einsatz in Waffen zu entwerfen oder bereitzustellen.
Ich glaube, diese Disziplin will der Mensch nicht so schnell an Maschinen auslagern. Das machen wir doch lieber selbst... jedenfalls hatte ich letzthin diesen Eindruck, als ich wieder mal Tagesschau sah 🤷♀️😈. Rette sich, wer kann.