Nebel
DE | FR
International
Wissen

Horror-Szenario «Slaughterbots»: So warnen Forscher vor autonomen Kampfrobotern

Horror-Szenario «Slaughterbots»: So drastisch warnen Forscher vor autonomen Kampfrobotern

Bild: youtube.com/stopautonomousweapons
Schwärme von autonomen Mini-Drohnen gegen Soldaten – wird so der Krieg der Zukunft aussehen? In Genf hat diese Woche ein UN-Gremium über ein Verbot von «tödlichen autonomen Waffensystemen». Aktivisten warnen mit einem schockierenden Science-Fiction-Clip vor tödlichen Kampfrobotern.
17.11.2017, 21:53
Elia Diehl / nordwestschweiz
Mehr «International»

Tödliche autonome Waffensysteme sind seit einigen Jahren immer wieder ein Thema. Mehrfach haben Experten für künstliche Intelligenz und Forscher wie Astrophysiker Stephen Hawking oder Apple-Co-Gründer Steve Wozniak schon Kritik geäussert (auch die GsoA).

Jetzt auf

Die Kritiker fordern von den Vereinten Nationen schon länger ein Verbot solcher Kampfroboter. Darüber hat diese Woche an der fünftägigen UN-Abrüstungskonferenz in Genf ein Gremium von Experten und Landesvertretern erstmals auf formeller Ebene beraten (siehe Infobox unten).

Zeitgleich haben die vereinte Kritiker von autonomen Waffen («Ban Lethal Autonomous Weapons») einen Albtraum-Kurzfilm veröffentlicht, der ein Horror-Szenario durchspielt: In knapp acht Minuten zeigt der Science-Fiction-Clip, welch verheerende Folgen solch eine Technologie hätte, würde sie ausser Kontrolle geraten.

Slaughterbots – der Kurzfilm

Zu Beginn des von Elon Musk mitfinanzierten Films «Slaughterbots» (Deutsch: Schlachtroboter) präsentiert ein Vertreter einer Rüstungsfirma stolz und im Stile einer Apple-Keynote von Steve Jobs eine Minidrohne – kaum grösser als ein Fünffränkler.

Speziell daran: Das Gerät ist bewaffnet und kann dank Gesichtserkennung und künstlicher Intelligenz selbstständig und gezielt einen Menschen töten, indem sie auf der Stirn des Zieles eine kleine Sprengladung zündet.

Schwärmer voller autonomer Drohnen

In gekonnter Hollywood-Manier entwickelt sich der Kurzfilm zu einem regelrechten Apokalypse-Streifen: Denn bald schon sorgen ganze Schwärme solcher autonomer Drohnen für Unruhe, Schrecken und Tod – ohne dass jemand weiss, wer dahinter steckt.

Zum Schluss spricht der Informatiker Stuart Russel von der Berkley-Universität, wie Tesla-Milliardär Ellon Musk einer von über 20'000 Unterstützern der internationalen Kampagne zum Stopp von Killerrobotern. Er ist einer der wichtigsten Forscher im Bereich der künstlichen Intelligenz und warnt: «Wir können die Zukunft, die sie gerade gesehen haben, verhindern. Aber unser Zeitfenster schliesst sich schnell.»

Dieser Roboter macht Rückwärtssaltos

Video: watson

Wenn Maschinen über Leben und Tod entscheiden

Das Video hat natürlich nicht viel mit sachlicher Diskussion zu tun – und dies wohl ganz bewusst, da Sachlichkeit Debatten durchaus verschleppen kann. Die Initianten setzen also gezielt auf Emotionen, ob sie die Debatte voranbringt, wird sich zeigen.

Sieht man den Kurzfilm an, da fragt man sich dennoch: Warum gibt's kein Verbot, wo liegt das Problem?

Nun, die Antwort sind weitere Fragen: Was genau soll eigentlich verboten werden? So etwas wie im Kurzfilm gibt es heute noch nicht, auch wenn verschiedene Staaten bereits an vollautonomen Waffensystemen forschen. 

Und dennoch: Im Gegensatz zu beispielsweise einer Landmine oder zu Streumunition ist heute noch nicht klar, was eigentlich alles als ein «tödliches autonomes Waffensystem» zu definieren ist. Und schon heute gibt es Waffen mit einer gewissen Selbstständigkeit. Ab wann ist sie autonom? Wo wird also die Grenze gezogen (wenn überhaupt)? 

Das Problem mit der «künstlichen Intelligenz»

Das Thema wirft allerlei ethische, sicherheitspolitische und rechtliche Fragen auf: Kann künstliche Intelligenz menschliches Urteilsvermögen ersetzen? Kann der Roboter zwischen Zivilisten und Soldaten, zwischen Verletztem und Angreifer, zwischen Gut und Böse unterscheiden? Kann ein Computer, dem das menschliche Einfühlungsvermögen fehlt, Menschen- und Völkerrecht wahren? Befürworter von Kampfrobotern führen ins Feld, dass die autonomen Waffensysteme auch Vorteile hätten, da sie keine Fehlentscheidungen aufgrund menschlicher Emotionen wie Angst, Wut oder Rachegelüsten treffen würden.

Kein Fortschritt bei Reglementierung 
Ob und wie sogenannte Killer-Roboter als Kriegsmaschinen überwacht und reglementiert werden sollen, hat diese Woche Regierungsvertreter aus rund 100 Ländern in Genf beschäftigt. Am Freitag verständigten sie sich im Prinzip nur auf eine Fortsetzung ihrer Beratungen im nächsten Jahr.

Zu dem dringenden Aufruf von Menschenrechtlern und Experten künstlicher Intelligenz, schleunigst Regeln zu schaffen, bevor solche tödlichen autonomen Waffen einsatzbereit sind, sagte der Vorsitzende der Beratungen, der indische Botschafter Amandeep Gill: «Man sollte die Sache nicht dramatisieren. Roboter werden nicht die Welt übernehmen.»

Aktivisten und Experten sowie blockfreie Staaten – solche, die mit keinem der grösseren Militärmächte verbündet sind – fordern ein Verbot solcher Waffen. Vor allem waffenproduzierende Länder wollen aber keine Auflagen, die die Zukunftsentwicklungen behindern könnten.
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
37 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Kong
17.11.2017 22:51registriert Juli 2017
Die Armee ist bereits stark technisiert und bedient sich fast schon pionierhaft neuesten Errungenschaften. In UK fliegt schon länger Taranis, noch am Zügel eines Operators aber eigentlich für vollautonom ausgelegt. Vermutlich wird die moralische Entrüstung nach einer "Rasterattacke" auf beschaulichem Niveau bleiben, wie bei heutigen Drohnenangriffen bereits üblich. Im Video erschreckt ja augenscheinlich, das es unsere westliche Welt trifft und quasi die Guten sterben. Die Bösen hätten es verdient. Das haben wir von Hollywood schon breit abgestützt gelernt. Bedenklich. Das muss man beobachten
986
Melden
Zum Kommentar
avatar
Wilhelm Dingo
18.11.2017 05:53registriert Dezember 2014
Drohnenkriege werden reine Ressourcenkriege weil jede Hemmung durch ‚eigene‘ tote Soldaten entfällt. Das ist bereits heute zu beobachten. Sehr gefährlich.
311
Melden
Zum Kommentar
avatar
Sir_Nik
18.11.2017 06:43registriert Februar 2017
„Befürworter von Kampfrobotern führen ins Feld, dass die autonomen Waffensysteme auch Vorteile hätten, da sie keine Fehlentscheidungen aufgrund menschlicher Emotionen wie Angst, Wut oder Rachegelüsten treffen würden.“

Basierend auf dieser Aussage sollte man dann aber als erstes die Menschen, die Kriege beginnen, durch Roboter ersetzen.
292
Melden
Zum Kommentar
37
Übergewicht bei der Mutter erhöht bei Mäuse-Nachwuchs Krebs-Risiko

Der Nachwuchs von fettleibigen Mäuse-Müttern hat laut einer Studie ein grösseres Risiko für Leberkrebs im Alter. Diese Ergebnisse seien ein Warnsignal und ein Aufruf zum Handeln, schrieb die Universität Genf in einer Mitteilung vom Dienstag. Ob die Resultate auf Menschen übertragen werden können, ist allerdings noch nicht geklärt.

Zur Story