Armee
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
terminator

Bild: shutterstock

Drohnen mit künstlicher Intelligenz: Die autonomen Killermaschinen

Google hat im Rahmen des «Project Maven» dem US-Verteidigungsministerium künstliche Intelligenz (KI) zur Verfügung gestellt, die in Drohnen zum Einsatz kam. Eine ehemalige Mitarbeiterin warnt nun vor autonomen Killermaschinen.



Hochintelligente Drohnen schiessen getarnt aus der Luft auf Menschen. Dabei entscheiden die Kampfflugzeuge autonom, welche Ziele abgeschossen werden sollen und welche nicht.

Das ist Fiktion – könnte jedoch bald Realität werden. Zumindest wenn man den Aussagen von Laura Nolan, einer ehemaligen Top-Software Ingenieurin von Google, Glauben schenkt.

Doch von Anfang an: In einem Artikel des Guardian warnt Nolan, dass autonom agierende Drohnen versehentlich Kriege und Massenexekutionen lostreten könnten. Die Software Ingenieurin arbeitete für Google am Maven-Programm. Dieses lieferte für das US-Verteidigungsministerium künstliche Intelligenz, die Überwachungsdrohnen dazu befähigen sollte, autonom Objekte aus der Luft zu erkennen und zu klassifizieren.

Die Fähigkeit, militärische Drohnen in autonome, nicht von Menschen gelenkte Waffen umzuwandeln, «ist heutzutage nur ein Softwareproblem, das relativ einfach gelöst werden kann», so Nolan.

Wie bringt man Drohnen menschliches Gespür bei?

Aus Gewissensgründen schmiss Nolan letztes Jahr ihren Job und trat der Kampagne gegen Killerroboter bei, bei der schon 29 Länder und 110 NGOs mitwirken. Und Elon Musk. Die USA, Russland und China sind nicht dabei. Die Schweiz übrigens auch nicht.

Nolan hat bereits vor UN-Diplomaten in Genf und New York über die Gefahr solcher Drohnen referiert. Sie warnt, dass die Wahrscheinlichkeit einer Katastrophe exponentiell steigt, je mehr solcher Killer-Roboter sich gleichzeitig in einem Gebiet befinden. «Rechtswidrige Tötungen und Gräueltaten sind möglich», sagt sie dem Guardian.

Bewaffnete Drohnen stehen bis anhin unter der Kontrolle des Menschen, der sie steuert und im Ernstfall darüber entscheidet, ob Ziele angegriffen werden. Wenn diese menschliche Kontrolle entfällt, so Nolan, könnte es zu schweren Unfällen kommen, sobald sich die Drohnen auf unerwartete Weise verhielten.

Die ehemalige Google-Mitarbeiterin skizziert, wie externe Faktoren, zum Beispiel ein Wetterumschwung, Killerroboter vom Kurs abbringen und so möglicherweise fatale Folgen haben könnten:

«Wie trainieren Sie ein System, das ausschliesslich mit Software betrieben wird, subtiles menschliches Verhalten zu erkennen oder den Unterschied zwischen Jägern und Aufständischen zu erkennen? Wie unterscheidet die Drohne, die alleine unterwegs ist, zwischen dem 18-jährigen Kämpfer und dem 18-Jährigen, der nach Kaninchen jagt?»

Wettrüsten der Supermächte

Die aktuelle US-Militärdoktrin hält fest, dass letztlich immer ein Mensch über einen möglichen Angriff bestimmen muss. Wie lange das jedoch so bleibt, ist fraglich. Wie der Rüstungsexperte Paul Scharre in einem Interview mit der Zeit erklärte, existieren bereits heute simple Waffensysteme, die grosse Objekte wie Radaranlagen, Kriegsschiffe oder U-Boote angreifen könnten.

Zudem arbeiten Länder wie die USA, Grossbritannien, Frankreich, Israel, Russland und China bereits an Tarnkappen-Angriffsdrohnen, die dank künstlicher Intelligenz autonom agieren können. Andere autonome Waffen, die von Militärmächten auf der ganzen Welt entwickelt werden, sind zum Beispiel:

Donald Trump hat indes im Februar ein Dekret erlassen, das sicherstellen soll, dass die USA in Sachen KI führend bleiben. Das US-Verteidigungsministerium bekräftigte nur einen Tag später, dass KI genutzt werden solle, um die Bürger und das Land zu schützen. Auch autonome Waffen könnten Teil dieser Strategie sein.

Die geheime Einkaufsliste des Schweizer Militärs

Google von Vorwürfen befreit

Bis jetzt gibt es keine Hinweise darauf, dass Google direkt an der Entwicklung autonomer Waffensysteme beteiligt ist. Im August diskutierte eine Expertengruppe der Vereinten Nationen über autonome Waffen. Sie hielt fest, dass Google keine KI für den Einsatz in Waffensystemen programmiere.

Den Vertrag für das Maven-Programm mit dem US-Verteidigungsministerium, der von 2017-2019 läuft, hat Google nach heftigen Protesten von tausenden Mitarbeitern nicht erneuert. Die Mutterfirma von Google, Alphabet, hat zudem beim Kauf des KI-Unternehmens DeepMind 2014 versprochen, dessen Technologien keinen Militärs zur Verfügung zu stellen.

Das NGO PAX aus Holland hat zudem kürzlich eine Studie veröffentlicht, die 50 Tech-Firmen aus zwölf Ländern auf ihre Aktivitäten im Bezug auf mögliche Entwicklung von autonomen Waffensystemen untersuchte. Die Studie stellte fest, dass Google eine Vorreiterrolle einnimmt, da sich das Unternehmen verpflichtet hat, keine KI für den Einsatz in Waffen zu entwerfen oder bereitzustellen.

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com (umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Darpa Robotics Challenge: 25 Roboter als Katastrophenhelfer, die auch Autofahren können

WIR LEBEN IN DER ZUKUNFT! Ich begegne ein Shopping-Roboter

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Bhakdi und Reiss sind bei Corona-Skeptikern Helden – ihre Kernaussagen im Faktencheck

Die deutschen Wissenschafter Sucharit Bhakdi und Karina Reiss haben umstrittene Aussagen gemacht. Der Faktencheck.

Ein Interview in den CH-Media-Zeitungen mit Sucharit Bhakdi von der Universität Mainz und Karina Reiss von der Universität Kiel vom vergangenen Samstag hat Wellen geworfen. Das deutsche Forscherehepaar stellt im Interview ihre Sicht der Coronamassnahmen dar, welche die beiden in ihrem Buch «Corona Fehlalarm?» schon veröffentlicht haben.

Reiss' Universität Kiel hat sich mit einem offiziellen Statement vom Buch distanziert, weil es tendenziöse Aussagen enthalte, welche die wissenschaftliche …

Artikel lesen
Link zum Artikel