USA

Horror-Szenario «Slaughterbots»: So drastisch warnen Forscher vor autonomen Kampfrobotern

Bild: youtube.com/stopautonomousweapons

Schwärme von autonomen Mini-Drohnen gegen Soldaten – wird so der Krieg der Zukunft aussehen? In Genf hat diese Woche ein UN-Gremium über ein Verbot von «tödlichen autonomen Waffensystemen». Aktivisten warnen mit einem schockierenden Science-Fiction-Clip vor tödlichen Kampfrobotern.

17.11.17, 21:53

Elia Diehl / nordwestschweiz

Tödliche autonome Waffensysteme sind seit einigen Jahren immer wieder ein Thema. Mehrfach haben Experten für künstliche Intelligenz und Forscher wie Astrophysiker Stephen Hawking oder Apple-Co-Gründer Steve Wozniak schon Kritik geäussert (auch die GsoA).

Die Kritiker fordern von den Vereinten Nationen schon länger ein Verbot solcher Kampfroboter. Darüber hat diese Woche an der fünftägigen UN-Abrüstungskonferenz in Genf ein Gremium von Experten und Landesvertretern erstmals auf formeller Ebene beraten (siehe Infobox unten).

Zeitgleich haben die vereinte Kritiker von autonomen Waffen («Ban Lethal Autonomous Weapons») einen Albtraum-Kurzfilm veröffentlicht, der ein Horror-Szenario durchspielt: In knapp acht Minuten zeigt der Science-Fiction-Clip, welch verheerende Folgen solch eine Technologie hätte, würde sie ausser Kontrolle geraten.

Slaughterbots – der Kurzfilm

Video: YouTube/Stop Autonomous Weapons

Zu Beginn des von Elon Musk mitfinanzierten Films «Slaughterbots» (Deutsch: Schlachtroboter) präsentiert ein Vertreter einer Rüstungsfirma stolz und im Stile einer Apple-Keynote von Steve Jobs eine Minidrohne – kaum grösser als ein Fünffränkler.

Speziell daran: Das Gerät ist bewaffnet und kann dank Gesichtserkennung und künstlicher Intelligenz selbstständig und gezielt einen Menschen töten, indem sie auf der Stirn des Zieles eine kleine Sprengladung zündet.

Schwärmer voller autonomer Drohnen

In gekonnter Hollywood-Manier entwickelt sich der Kurzfilm zu einem regelrechten Apokalypse-Streifen: Denn bald schon sorgen ganze Schwärme solcher autonomer Drohnen für Unruhe, Schrecken und Tod – ohne dass jemand weiss, wer dahinter steckt.

Zum Schluss spricht der Informatiker Stuart Russel von der Berkley-Universität, wie Tesla-Milliardär Ellon Musk einer von über 20'000 Unterstützern der internationalen Kampagne zum Stopp von Killerrobotern. Er ist einer der wichtigsten Forscher im Bereich der künstlichen Intelligenz und warnt: «Wir können die Zukunft, die sie gerade gesehen haben, verhindern. Aber unser Zeitfenster schliesst sich schnell.»

Dieser Roboter macht Rückwärtssaltos

40s

Dieser Roboter macht Rückwärtssaltos

Video: watson

Wenn Maschinen über Leben und Tod entscheiden

Das Video hat natürlich nicht viel mit sachlicher Diskussion zu tun – und dies wohl ganz bewusst, da Sachlichkeit Debatten durchaus verschleppen kann. Die Initianten setzen also gezielt auf Emotionen, ob sie die Debatte voranbringt, wird sich zeigen.

Sieht man den Kurzfilm an, da fragt man sich dennoch: Warum gibt's kein Verbot, wo liegt das Problem?

Nun, die Antwort sind weitere Fragen: Was genau soll eigentlich verboten werden? So etwas wie im Kurzfilm gibt es heute noch nicht, auch wenn verschiedene Staaten bereits an vollautonomen Waffensystemen forschen. 

Und dennoch: Im Gegensatz zu beispielsweise einer Landmine oder zu Streumunition ist heute noch nicht klar, was eigentlich alles als ein «tödliches autonomes Waffensystem» zu definieren ist. Und schon heute gibt es Waffen mit einer gewissen Selbstständigkeit. Ab wann ist sie autonom? Wo wird also die Grenze gezogen (wenn überhaupt)? 

Das Problem mit der «künstlichen Intelligenz»

Das Thema wirft allerlei ethische, sicherheitspolitische und rechtliche Fragen auf: Kann künstliche Intelligenz menschliches Urteilsvermögen ersetzen? Kann der Roboter zwischen Zivilisten und Soldaten, zwischen Verletztem und Angreifer, zwischen Gut und Böse unterscheiden? Kann ein Computer, dem das menschliche Einfühlungsvermögen fehlt, Menschen- und Völkerrecht wahren? Befürworter von Kampfrobotern führen ins Feld, dass die autonomen Waffensysteme auch Vorteile hätten, da sie keine Fehlentscheidungen aufgrund menschlicher Emotionen wie Angst, Wut oder Rachegelüsten treffen würden.

Kein Fortschritt bei Reglementierung 

Ob und wie sogenannte Killer-Roboter als Kriegsmaschinen überwacht und reglementiert werden sollen, hat diese Woche Regierungsvertreter aus rund 100 Ländern in Genf beschäftigt. Am Freitag verständigten sie sich im Prinzip nur auf eine Fortsetzung ihrer Beratungen im nächsten Jahr.

Zu dem dringenden Aufruf von Menschenrechtlern und Experten künstlicher Intelligenz, schleunigst Regeln zu schaffen, bevor solche tödlichen autonomen Waffen einsatzbereit sind, sagte der Vorsitzende der Beratungen, der indische Botschafter Amandeep Gill: «Man sollte die Sache nicht dramatisieren. Roboter werden nicht die Welt übernehmen.»

Aktivisten und Experten sowie blockfreie Staaten – solche, die mit keinem der grösseren Militärmächte verbündet sind – fordern ein Verbot solcher Waffen. Vor allem waffenproduzierende Länder wollen aber keine Auflagen, die die Zukunftsentwicklungen behindern könnten.

Nach so viel Zukunft ein bisschen retro:

Ab in die Badi! Das sagten sich auch schon unsere Grosseltern – und so sah das damals aus

Was Menschen früher am Sonntag so trieben ...

47 Bilder zeigen, was die Models Backstage so trieben, als es noch keine Smartphones gab

Anno dazumal auf dem Bürgenstock: 29 wahnsinnig schöne Bilder von Audrey Hepburn                 

Als es am Gotthard noch gemütlich zu und her ging

Vertraut und doch ganz anders – so sah die Schweiz vor hundert Jahren aus

Nazi-Schmierfinken, Mord und Blechschaden: Polizeibilder aus Zürich von damals

Grossartige Fotos aus Basel, als über dem Birsig noch Plumpsklos hingen

Fantastische Bilder aus einer Zeit, in der in Zürich noch keine Hipster rumkurvten

Wow! So sah Luzern aus, bevor die Japaner die Stadt ins Internet gestellt haben

Diese Bilder beweisen, dass es in Bern schon früher gemütlich zu und her ging

In Farbe: Vor exakt 70 Jahren wurde Winston Churchill in Zürich wie ein Superstar empfangen

Alle Artikel anzeigen

Hol dir die App!

Yanik Freudiger, 23.2.2017
Die App ist vom Auftreten und vom Inhalt her die innovativste auf dem Markt. Sehr erfrischend und absolut top.
Abonniere unseren NewsletterNewsletter-Abo
41
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
41Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • dmark 19.11.2017 16:09
    Highlight "...eine Minidrohne – kaum grösser als ein Fünffränkler."
    Also mal vorsichtshalber immer einen Tennisschläger mit nehmen? :)
    2 1 Melden
  • Statler 19.11.2017 02:54
    Highlight «Kann ein Computer, [...], Menschen- und Völkerrecht wahren?»
    Vermutlich «könnte» das ein Computer besser, als es die Menschen derzeit können. Das Problem dabei ist aber, dass Computer von Menschen programmiert werden. Um es mal salopp auszudrücken: «why do dogs lick their balls? Cause they can» - Wenn man es bauen kann, wird es auch jemand bauen - und es wird Leute geben, die das einsetzen. Verbot hin oder her. Solange wir der Meinung sind, dass es ok ist, «böse» Menschen abzuknallen, werden sich nur die Mittel dazu verändern.
    6 0 Melden
    • You will not be able to use your remote control. 19.11.2017 12:52
      Highlight > Vermutlich «könnte» das ein Computer besser

      Worauf beruht diese Vermutung?

      Ein Computer kann nicht verstehen, was Menschen- und Völkerrecht bedeutet.
      0 0 Melden
  • Spooky 18.11.2017 20:23
    Highlight So ein totaler Quatsch!

    Im Krieg ist nichts verboten.

    Auch nicht die Lüge.
    7 8 Melden
  • Groovy 18.11.2017 15:53
    Highlight Nach der Lektüre "Kill Decision" von Daniel Suarez, wird einem Angst und Bange vor dem Szenario. Das Buch wurde vor 5 Jahren schon veröffentlicht.
    5 0 Melden
  • frankyfourfingers 18.11.2017 14:30
    Highlight black mirror lässt grüssen
    8 0 Melden
  • petrolleis 18.11.2017 13:20
    Highlight die befürworter sollten sich mal den film "terminator" ansehen. zwar nur ein film aber langsam kommen wir der sache immer näher. es heisst dann vielleicht nicht skynet, aber das resultat wäre das gleiche...

    beängstigend finde ich auch die entwicklung von KI, die viel klüger als menschen sein soll... und dann noch davon schwärmen, wie toll das sein wird. es könnte eines tages wirklich nach hinten los gehen.
    10 2 Melden
  • Thinktank 18.11.2017 12:16
    Highlight Was ist am automatisierten Krieg schlecht. In Zukunft ionisieren Blechbüchsen andere Blechbüchsen und kein Mensch wird verletzt.
    1 23 Melden
  • Nevermind 18.11.2017 12:01
    Highlight Das Problem mit Kampfrobotern ist grundsätzlich die niedrige Hemmschwelle für den Einsatz.
    Keine Eltern und Verwandten die trauern. Kein Volk, dass die Bilder der Heimkehrenden Särge leid ist.
    Der Einsatz ist nur durch den Output der Fabriken limitiert.
    15 0 Melden
  • Typu 18.11.2017 11:54
    Highlight Wieso die empörung? Ist grundsätzlich eine normale weiterentwicklung des bestehenden. Was dem menschen einfällt setzt er früher oder später um.
    7 15 Melden
  • pamayer 18.11.2017 10:02
    Highlight Zum Glück kann niemand solche Systeme hacken. Da können wir uns beruhigt zurücklehnen und weiter Nachricht... Was zum Teufel kommt da zum Fernseher raus... Das bewegt sich ja... Aaaaaa









    Zum Glück kann man solche Systeme nicht hacken.
    25 2 Melden
  • zombie woof 18.11.2017 09:51
    Highlight Krieg an sich ist schon pervers genug, jetzt wird das Perverse perfektioniert. Ich denke nur grad darüber nach, was ich machen würde, wenn ein Teil meiner unschuldigen Familie von einem Roboter oder Drohne gekillt wird?
    10 4 Melden
  • dracului 18.11.2017 09:30
    Highlight Jede Technologie wird früher oder später militärisch ausgenutzt! Bereits heute haben US Dronen global mehrere tausend Personen exekutiert und dabei nur 15% Zivilisten erwischt. Bald gibt es noch ausgereiftere Technologien und die permanente Angst, dass ein Gegner weiter sein könnte, treibt die digitale Aufrüstung unaufhaltsam voran. Maschinen können (noch?) reglementiert werden - die Natur des Menschen nicht. So lehrt es uns die Geschichte. Manchmal hoffe ich, dass wir Maschinen schaffen, die uns irgendwann von der globalen Zerstörung abhalten, denn aus eigenem Antrieb schaffen wir das nie!
    7 7 Melden
    • Skater88 18.11.2017 12:50
      Highlight Umgekehrt, die meisten zivilen Technologien stammen von militärischer Forschung.
      13 4 Melden
  • _kokolorix 18.11.2017 09:26
    Highlight Ein offizielles Verbot wäre bestimmt gut, man sollte solche Systeme mit allen Mitteln behindern.
    Aber ein Blick in die Vergangenheit zeigt, in einer kapitalistischen Wirtschaft ist mit Verboten kaum etwas zu erreichen. Jedes noch so abartiges Produkt, das irgendwo einen Käufer findet wird hergestellt und geliefert. Dafür sorgen Staaten wie die Schweiz, wo die Transparenz der Geldflüsse mit allen Mitteln verhindert wird.
    17 15 Melden
    • _kokolorix 18.11.2017 09:40
      Highlight Man stelle sich nur mal das Geschäftsmodell der Schutzgeldzahlung vor welches mit solchen Drohnen realisiert werden könnte. Wer nicht bezahlt wird irgendwann von so einem Gerät gemeuchelt. Es braucht keinen persönlichen Kontakt, nur ein Gerücht, dass z.B. alle Personen mit roten Haaren bedroht seien und schon werden viele ängstliche, rothaarige zahlen.
      Ich bin sicher, dass dem einen oder anderen Konzernmanager bei dem Gedanken der Geifer zu laufen beginnt. Dass diese Leute absolut keine Skrupel haben, haben sie uns ja längst bewiesen.
      13 8 Melden
  • Raphael Stein 18.11.2017 09:24
    Highlight Willkommen in unserer Zukunft.

    Das Buch "Das letzte Kapitel der Menschheit" ist noch grad nicht gedruckt. Man schreibt noch dran.
    19 4 Melden
  • Karl Müller 18.11.2017 09:14
    Highlight "Kann der Roboter zwischen Zivilisten und Soldaten, zwischen Verletztem und Angreifer, zwischen Gut und Böse unterscheiden? Kann ein Computer, dem das menschliche Einfühlungsvermögen fehlt, Menschen- und Völkerrecht wahren?"

    Ach, können denn Menschen das? Ich schätze, ein Kampfroboter den man entsprechend programmiert, agiert im Schnitt humaner als ein menschlicher Soldat.
    15 15 Melden
    • You will not be able to use your remote control. 19.11.2017 12:56
      Highlight > Ich schätze, ein Kampfroboter den man entsprechend programmiert, agiert im Schnitt humaner als ein menschlicher Soldat.

      Er kann nicht human agieren, er entscheidet mechanisch.
      1 2 Melden
  • Henzo 18.11.2017 07:28
    Highlight Und dann fragt man sich, weshalb terroristen wie pilze aus dem boden spriesen... Gegen wehn sollen die sich wehren? Werden die bauern ihre ziege gegen eine AK-47 tauschen um dann damit gegen roboter ein wettschiessen machen, das sie ohne aussicht auf erfolg mit dem leben bezahlen werden? Nein, die schnallen sich lieber eine bombe um den körper oder mieten einen lastwagen und wählen ein verletzliches ziel: zivilisten
    8 4 Melden
  • Sir_Nik 18.11.2017 06:43
    Highlight „Befürworter von Kampfrobotern führen ins Feld, dass die autonomen Waffensysteme auch Vorteile hätten, da sie keine Fehlentscheidungen aufgrund menschlicher Emotionen wie Angst, Wut oder Rachegelüsten treffen würden.“

    Basierend auf dieser Aussage sollte man dann aber als erstes die Menschen, die Kriege beginnen, durch Roboter ersetzen.
    29 2 Melden
  • Wilhelm Dingo 18.11.2017 05:53
    Highlight Drohnenkriege werden reine Ressourcenkriege weil jede Hemmung durch ‚eigene‘ tote Soldaten entfällt. Das ist bereits heute zu beobachten. Sehr gefährlich.
    30 1 Melden
  • Gelöschter Benutzer 18.11.2017 02:19
    Highlight Hoffe, das wird nicht gesetzlich blockiert. Habe bereits in Firmen, die an entsprechenden Entwicklungen beteiligt sind investiert. So kann man die bösen Jungs erwischen, ohne jemals selber in Gefahr zu kommen. Das ist und muss die Zukunft sein.
    6 43 Melden
    • Tepesch 18.11.2017 12:18
      Highlight @Money
      Bis zu dem Moment an dem die bösen Jungs selbst autonome Waffen besitzen...
      15 0 Melden
  • ohjaja! 18.11.2017 00:54
    Highlight (auch die GsoA) 😂 moll super...
    17 7 Melden
  • barmi 18.11.2017 00:12
    Highlight Die Wissenschaft ist uns Menschen mittlerweile voraus, bevor solche ''Slaughterrobots' Realität werden müssten wir eine Antwort auf die erwähnten moralischen Fragen finden. Doch dazu rennt diese Zeit davon...

    Ich bin der Meinung, kein autonomer Roboter darf in der Lage sein Lebewesen (ja auch Tiere) zu töten, da die Wissenschaft der Menschheit dienen sollte und nicht schaden.
    8 3 Melden
  • Zeyben 17.11.2017 23:23
    Highlight Hat die UN nun ein Verbot von autonomen Waffensystemen abgelehnt? Das würde den steigenden Einfluss der USA erklären.
    5 0 Melden
  • Gelöschter Benutzer 17.11.2017 22:58
    Highlight In der SF-Literatur gilt eine Waffe als "Autonomes System", wenn sie selbständig aktiv ein Ziel suchen kann.

    Ist eine Zielperson nicht dort, wo sie vermutet wurde, kann die Waffe in einem vorgegebenen - räumlichen und zeitlichen - Rahmen selbständig weitersuchen. Als Ziele gelten nicht nur einzeln benannte Individuen, sondern z.B. auch Angaben wie "Alle mit blonden Haaren" oder "Alle mit drei Beinen". etc.
    54 3 Melden
    • _kokolorix 18.11.2017 11:47
      Highlight Soziale Netzwerke haben noch kaum Einzug in die SF-Literatur gehalten. Ausnahmen sind wohl Thariot und Peter F. Hamilton.
      Diese werden dann wohl sehr stark zur Identifizierung von Zielen herangezogen werden. 'Wer sich zu einem bestimmten Zeitpunkt an Ort X aufhielt' oder 'wer mit Zielperson Y Verbindungen in Facebook, Whatsapp oder Google hat' könnten dann die Vorgaben der Drohnen sein. Wenn dann auch noch Facebook gehackt und Millionen solcher Verbindungen gafakt werden, ist die Katastrophe vorprogrammiert, im wahrste Sinne des Wortes.
      Ganz zu schweigen von direkt gehackten Drohnen...
      6 0 Melden
  • Kong 17.11.2017 22:51
    Highlight Die Armee ist bereits stark technisiert und bedient sich fast schon pionierhaft neuesten Errungenschaften. In UK fliegt schon länger Taranis, noch am Zügel eines Operators aber eigentlich für vollautonom ausgelegt. Vermutlich wird die moralische Entrüstung nach einer "Rasterattacke" auf beschaulichem Niveau bleiben, wie bei heutigen Drohnenangriffen bereits üblich. Im Video erschreckt ja augenscheinlich, das es unsere westliche Welt trifft und quasi die Guten sterben. Die Bösen hätten es verdient. Das haben wir von Hollywood schon breit abgestützt gelernt. Bedenklich. Das muss man beobachten
    97 5 Melden
  • kleiner_Schurke 17.11.2017 22:38
    Highlight Wenn diese Killer Roboter spitzbärtigen IS Freaks killen, dann soll mir das nur recht sein. Warum sollen wir unsere Jugend opfern um diesen Idioten Einhalt zu gebieten?
    27 101 Melden
    • capture 17.11.2017 23:53
      Highlight Du hast den Inhalt des Videos schlicht nicht begriffen.
      27 2 Melden
    • barmi 18.11.2017 00:08
      Highlight Und damit auch ja jeder getötet wird, einfach alle mit Bart abknallen oder? Und am besten die ganze Familie auch noch, ist ja eine Terroristenfamilie...

      Mol super Lösung, ruft sicher nicht Hass und Rachegelüste hervor und heizt den Terrorismus noch mehr an. Wurde jemals irgendwo mit Gewalt dauerhafter Frieden erzielt? Mir ist kein solcher Fall bekannt
      11 5 Melden
    • Pasch 18.11.2017 00:17
      Highlight In der Präsentation bei Slaughterbots sagt er ja als vermeintlichen Vorteil zu A.I. Menschen haben Gefühle Menschen widersetzen sich Befehlen!

      In einer Zeit in der moderne Kriege mit zivilen Schutzschildern geführt werden, sollte doch jemand am Abzug sein der mehr als nur 1 und 0 versteht....

      Ungeachtet dessen das ein bewaffneter Konflikt ein totalversagen der Menschheit ist und meist nur auf dem Drang nach Ressourcen und Macht zurückzuführen ist.
      15 2 Melden
    • Hallosager 18.11.2017 04:22
      Highlight Joa genau weil jeder Schweizer Infaterist in den nahen Osten geschickt wird? Da kommen nur Elite Soldaten hin, von welchen die Schweizer Armee nur träumen kann. Und all jene entscheiden sich freiwillig dazu. Klar jugentlicher Leichtsinn gehört auch dazu in der Lebensphase. Die Drohne agiert unauffälliger als der Mensch und kann mit technischen Mittel leicht übernommen werden. Bedenkt man von wo die Waffen des IS und Co. kommen...
      6 5 Melden
    • SemperFi 18.11.2017 07:10
      Highlight Wenn jedoch die spitzbärtigen IS-Freaks an diese Killer-Roboter kommen, ist es dann weniger gemütlich, gell...
      19 2 Melden
    • arriving somewhere but not here 18.11.2017 07:58
      Highlight Quo vadis, kleiner_Schurke? 😢
      10 1 Melden
    • _kokolorix 18.11.2017 08:47
      Highlight Wer opfert hier seine Jugend?
      Vielleicht solltest du mal bedenken, dass auch jemand auf die Idee kommen könnte solche Drohnen auf all jene anzusetzen welche menschenverachdende, rassistische und dumme Kommentare im Internet verbreiten🤔
      15 4 Melden
    • _kokolorix 18.11.2017 09:52
      Highlight Und noch ein kleiner Hinweis: Sieht der gefeierte Remo Schmid nicht genau so aus wie ein spitzbärtiger IS Freak?
      Wie genau soll diese Zielgruppe den identifiziert werden? Wenn die merken, dass alle bärtigen, mit Thwab bekleideten Männer getötet werden, wie schnell werden sie sich rasieren und mit Anzug und Krawatte in den heiligen Krieg ziehen?
      7 3 Melden
    • kleiner_Schurke 18.11.2017 11:32
      Highlight Wisst ihr IS Versteher und Beschützer. ich muss im Zweifelsfall nicht mehr an die Front und ich habe auch keine Kinder die im Zweifelsfall an der Front sehen werden. Kann mir ja eigentlich egal sein. Wenn ihr euer Ärsche unbedingt riskieren mögt, na dann...
      1 15 Melden
    • _kokolorix 18.11.2017 16:55
      Highlight Tja kleiner_Schurke. Womöglich musst du tatsächlich nicht an die Front. Diese könnte aber schneller bei dir sein als dir lieb ist, wenn die Islamisten erstmal bei den Waffenhändlern eingekauft haben...
      Deine verächtlichen Sprüche kannst du dir sparen, kein Mensch hier will den IS verstehen oder beschützen. Aber die intelligenteren unter uns können erkennen, dass jede Waffe früher oder später auch von der anderen Seite eingesetzt wird
      7 0 Melden

Der Rassistin das Maul gestopft – «Ich bin einfach nur ein N**** mit Geld»

Emmit Walker ist ein Musikmanager aus Washington, der am Flughafen in Virginia in einer Schlange steht, um an Bord seines Flugzeugs zu kommen. So weit so gut, aber ...

Vergangenes Wochenende versucht eine Frau, sich an Walker vorbeizudrängeln. Ein dunkelhäutiger Mann in der Schlange für Priority Passagiere? Da wird sich der Mann wohl falsch eingereiht haben, findet sie. Walker lässt die Frau eiskalt abblitzen und dokumentiert die Auseinandersetzung auf Facebook.

«Entschuldigung? Ich glaube, …

Artikel lesen