Waffen
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Roboter

Autonome Waffen können vordefinierte Ziele eigenständig erreichen, indem sie auf intelligente Art mit der Umwelt interagieren.  Screenshot: Netflix

Autonome Waffen: Die missverstandenen Killer-Roboter

Marko Kovic



Fortschritte im Bereich der künstlichen Intelligenz (KI) machen sich von Tag zu Tag stärker bemerkbar. Immer mehr Autos fahren autonom; unsere Smartphone-Assistenten können uns immer besser mit Rat und Tat zur Seite stehen; medizinische Diagnosen können zunehmend schneller und genauer erbracht werden. Kurzum: KI erlaubt es uns, Ziele immer besser und effizienter zu erreichen. 

Dr. phil. Marko Kovic ist Präsident von ZIPAR – Zurich Institute of Public Affairs Research und von Skeptiker Schweiz – Verein für kritisches Denken. Zudem ist er CEO der Beraterfirma ars cognitionis.

Die rasanten Fortschritte im Bereich der KI interessieren auch das Militär. Das ist wenig erstaunlich, denn KI kann dem Militär im Grunde genauso helfen, wie sie uns im Zivilen hilft: Dank KI kann das Militär seine Ziele besser und effizienter erreichen. Brisant dabei ist, dass das Militär KI auch für Kampfeinsätze nutzbar machen möchte und KI darum in sogenannten autonomen Waffensystemen zum Einsatz kommen lassen will.

Autonome Waffen sind Waffen, welche in der Lage sind, ihre vordefinierten Ziele eigenständig zu erreichen, indem sie auf intelligente Art mit der Umwelt interagieren. Das bedeutet konkret, dass Waffen in nicht allzu ferner Zukunft in der Lage sein könnten, autonom komplexe Entscheidungen zu treffen mit dem Ziel, Menschen kampfunfähig zu machen oder gar zu töten. 

Gegenwärtig findet ein weltweites Wettrüsten um autonome Waffen statt, obwohl noch fast gänzlich unklar ist, wie autonome Waffen moralisch und strategisch, geschweige denn juristisch zu beurteilen sind. 

KI Autonome Waffensysteme

KI kommt auch in sogenannten autonomen Waffensystemen zum Einsatz.  Bild: Future of Life Institute

Müssen wir Angst vor autonomen Waffen haben?

Im vergangenen Jahr haben über Einhundert KI- und Technologie-Experten in einem offenen Brief an die UNO dafür plädiert, autonome Waffen zu verbieten. Unter den Unterzeichnenden finden sich namhafte Persönlichkeiten wie Elon Musk, Steve Wozniak und Stephen Hawking. In diesem Brief wird davor gewarnt, dass autonome Waffen eine neue Ära der bewaffneten Konflikte einläuten könnten.

Autonome Waffen könnten, so die besorgten Experten, Kriege begünstigen, die schlimmer sind als alles, was wir bisher gesehen haben. Autonome Waffen könnten zudem auch von Terroristen und Diktatoren verwendet werden, die damit ziemlich sicher nichts Gutes im Sinn haben. 

Die Befürchtung, dass mit autonomen Waffen eine neue Explosion der kriegerischen Gewalt ausbricht, ist nachvollziehbar. Anders als beispielsweise Massenvernichtungswaffen dürften autonome Waffen verhältnismässig günstig in der Herstellung und verhältnismässig einfach in der Anschaffung sein. Steht uns eine neue Ära der brutalen «Schlacht-Bots» bevor, wie Gegner autonomer Waffen in einem aufsehenerregenden Video von 2017 warnen

In den letzten rund 1000 Jahren ist Waffentechnologie immer effektiver und effizienter geworden. In der zweiten Hälfte des 20. Jahrhunderts fand sogar eine regelrechte Revolution von Waffentechnologie statt. Im Grunde können heute nur schon einige wenige Leute Milliarden von Menschen, wenn nicht sogar die ganze Menschheit, umbringen.

Fast paradoxerweise aber gab es in den letzten Jahrhunderten und Jahrzehnten eine Explosion des Friedens, nicht des Krieges. Gewalt im Allgemeinen und bewaffnete kriegerische Konflikte im Besonderen nehmen stetig ab. Die Wahrscheinlichkeit, dass autonome Waffen den über Jahrtausende kumulierten moralischen Fortschritt der Menschheit zunichte machen und wir alle zu blutrünstigen Psychopathen degenerieren, dürfte vernachlässigbar klein sein. Ganz im Gegenteil: Autonome Waffen bergen sogar das Potenzial, Kriegsführung moralisch weiter zu verbessern. 

Drohne

Drohnen werden schon lange zivil und militärisch genutzt.  Bild: Pexel

Der (überraschende) moralische Nutzen autonomer Waffen

Eines der zentralen Probleme der Kriegsführung betrifft die Problematik des jus in bello: Wie sollen sich die Parteien in einem bewaffneten Konflikt genau verhalten? In den letzten rund 100 Jahren wurde die Kriegsführung immer zivilisierter. Potenzielle Konfliktparteien haben sich immer stärker auf gewisse ausdrückliche wie auch auf implizite moralische Regeln geeinigt, welche darauf abzielen, die Kriegsführung in möglichst geregelten Bahnen ablaufen zu lassen.

Diese Regeln und Prinzipien werden oftmals mit dem Begriff des internationalen humanitären Völkerrechtes beschrieben. Die moralische Kernidee des Völkerrechts ist einfach: Unbeteiligte müssen durch einen bewaffneten Konflikt möglichst wenig Leid erfahren. Darum sind nicht alle Mittel der Kriegsführung wie auch nicht alle Arten des Umgangs der Kombattanten untereinander erlaubt. 

Noch ist es Science Fiction:
Künstliche Intelligenz im Kino

Humanitäres Völkerrecht klingt in der Theorie sehr gut, doch leider ist dessen Umsetzung in der Praxis allzu oft mangelhaft. Immer wenn Menschen in bewaffneten Konflikten Entscheidungen treffen, ist nämlich menschliches Fehlverhalten ein grosses Risiko. Soldaten zum Beispiel können in Panik und Angst reagieren, sie können hasserfüllt sein, sie können sadistische Züge haben (man denke an Abu Ghraib), oder sie können einfach Denkfehlern unterliegen und folgenschwere Irrtümer begehen.

Autonome Waffen könnten in diesem Zusammenhang grosse Abhilfe schaffen, denn sie sind gegen all die potenziell katastrophalen verzerrenden Einflüsse, denen wir als Menschen unterliegen, immun. Autonome Waffen basieren auf KI, und KI bedeutet schlicht, dass Ziele gemäss einer vordefinierten Nutzenfunktion verfolgt werden. In dieser Nutzenfunktion können völkerrechtliche Regeln explizit und unumgehbar eingebaut werden. Darum bergen autonome Waffen das Potenzial, regelrechte Völkerrechts-Roboter zu sein – und nicht die Killer-Roboter, vor denen wir Angst haben. 

Bedeutet der mögliche moralische Nutzen autonomer Waffen, dass wir diese möglichst bald entwickeln und einsetzen sollen? Nein: Autonome Waffen haben einen gewichtigen Nachteil, der den Nutzen zunichte macht. 

Soldaten, Drohne

Noch funktionieren Drohnen nicht als völlig autonomes Waffensystem.  Bild: Shutterstock

Das strategische Risiko autonomer Waffen

Man stelle sich vor, dass eine Armee in einem bewaffneten Konflikt autonome Waffen einsetzt. Den Waffen, einer kleinen Drohnen-Flotte, werden vor dem Einsatz die taktischen Ziele vorgegeben: Sie sollen die Panzer der gegnerischen Armee kampfunfähig machen. Während des Kampfeinsatzes merken die Drohnen, dass einer der Panzer, welche sie kampfunfähig machen sollen, zu flüchten versucht. Die Drohnen analysieren die Situation und entscheiden selbstständig, die Brücke, über welche der Panzer flüchten könnte, präventiv zu zerstören. 

In diesem fiktiven Beispiel haben die Drohnen ihr Ziel erreicht: Alle Panzer sind kampfunfähig. Um das Ziel zu erreichen, haben die Drohnen im Zuge des Kampfeinsatzes eigenständig sogenannte instrumentelle Teilziele definiert und erreicht – vor dem Einsatz wussten die Drohnen nichts von der Brücke, über welche ein Panzer hätte flüchten können. Obwohl die Armee in diesem fiktiven Beispiel ihr Ziel mit dem Drohneneinsatz erreicht hat, zeigt es, warum es für eine Armee hochriskant ist, autonome Waffen einzusetzen. 

Ein zentraler Pfeiler des Militärs ist das Prinzip der Befehlskette. Armeen sind hierarchisch organisiert, was einen klaren und klar nachvollziehbaren Prozess der Entscheidungsfindung ermöglicht. Wenn nun autonome Waffen nicht-triviale Entscheidungen eben autonom treffen, ist das ein grosses strategisches Problem für das Militär: Die Befehlskette wird ganz grundsätzlich unterbrochen und die Entscheidungen, welche durch autonome Waffen getroffen werden, sind weder unmittelbar kontrollierbar (dann wären die autonomen Waffen nicht mehr autonom) noch sind sie nachträglich nachvollziehbar. 

Als Gegenargument mag man sich denken: Ob das Prinzip der Befehlskette über Bord geworfen wird, ist mir egal; Hauptsache, autonome Waffen funktionieren. Das strategische Problem der unterbrochenen Befehlskette hat aber mehr als nur philosophische Folgen. Wenn eine Armee autonome Waffen einsetzt, dann gibt sie in jenem Moment, in welchem eine solche Waffe für den Einsatz aktiviert wird, die Kontrolle über die Waffe auf (Das ist schliesslich der Witz an autonomen Waffen.). Wenn aber autonome Waffen Entscheidungen treffen, welche die Armee nicht kontrollieren kann, dann kann die Armee auch nicht wissen, ob die Entscheidungen einer autonomen Waffe tatsächlich einfach von der KI getroffen werden, oder, ob die autonomen Waffen von den Gegnern im Konflikt sabotiert wurden.

Digitale Revolution: Fünf Technologien, die unseren Alltag verändern werden

In einem Konflikt, in welchem die Konfliktpartei A autonome Waffen einsetzt, ist eines der höchsten Ziele von Konfliktpartei B nämlich, diese Waffen der Konfliktpartei A zu sabotieren. Fast nichts ist für Konfliktpartei B so nützlich wie die Kontrolle über die Waffen von Konfliktpartei A. Konfliktpartei A muss darum rationalerweise davon ausgehen, dass in jenem Moment, in welchem sie autonome Waffen einsetzt, diese Waffen durch die Konfliktpartei B sabotiert werden. Wenn aber Konfliktpartei A rational genug ist, um dieses fundamentale Risiko zu erkennen, dann wird sie autonome Waffen gar nicht erst einsetzen wollen. 

Aus ganz rationalem Eigennutz müsste also jede Armee der Welt freiwillig auf autonome Waffen verzichten. Das enorme Sicherheitsrisiko, welches durch den Unterbruch der militärischen Befehlskette entsteht, ist jenseits jedes potenziellen Nutzens. Mittelfristig dürften militärische Entscheidungsträger rund um die Welt zu dieser Einsicht kommen (Entgegen dem Klischee sind militärische Entscheidungsträger in der Regel nicht kriegsgeile Rambos, sondern besonnene Risikomanager.). Trotzdem ist es nicht verkehrt, bereits jetzt ein weltweites Verbot autonomer Waffen anzustreben. Zu diesem Zweck könnte das internationale Kriegsrecht um Regeln rund um die Notwendigkeit einer ununterbrochenen Befehlskette ergänzt werden. 

Am Ende könnten es tatsächlich vor allem Schurkenstaaten und Terroristen sein, die nach autonomen Waffen streben. Angesichts des Sicherheitsrisikos, das solche Waffen mit sich bringen, könnte dieser Schuss aber – zum Glück – nach hinten losgehen. 

abspielen

US-Marinesoldaten testen Kampfroboter. Video: YouTube/WarLeaks - Daily Military Defense Videos & Combat Footage

Kollege Roboter

Mehr zum Thema Künstliche Intelligenz

Der Untergang der Menschheit beginnt mit einem Klick auf «Make Paperclip»

Link zum Artikel

Horror-Szenario «Slaughterbots»: So drastisch warnen Forscher vor autonomen Kampfrobotern

Link zum Artikel

Wenn Siri ein Miststück wäre – ein Drama in 9 Akten

Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

Link zum Artikel

Keine Angst, liebe KV-Lehrlinge – deshalb werden euch die Roboter euren Job nicht wegnehmen 

Link zum Artikel

Maschinen im Bett: Wenn es uns Roboter besorgen

Link zum Artikel

So gross ist das Risiko, dass du wegen einem Roboter schon bald deinen Job los bist 

Link zum Artikel

«Eine Maschine wird niemals ein Bewusstsein haben»

Link zum Artikel

«In Zukunft werden Drohnen auch Menschen transportieren»

Link zum Artikel

Eine phantastische Reise hat begonnen

Link zum Artikel

Bauen wir eine Welt, die nicht mehr für Menschen gemacht ist?

Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

Link zum Artikel
Alle Artikel anzeigen

(dhr, 24.01.2018) Künstliche Intelligenz

Der Untergang der Menschheit beginnt mit einem Klick auf «Make Paperclip»

30
Link zum Artikel

Horror-Szenario «Slaughterbots»: So drastisch warnen Forscher vor autonomen Kampfrobotern

26
Link zum Artikel

Wenn Siri ein Miststück wäre – ein Drama in 9 Akten

2
Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

14
Link zum Artikel

Keine Angst, liebe KV-Lehrlinge – deshalb werden euch die Roboter euren Job nicht wegnehmen 

31
Link zum Artikel

Maschinen im Bett: Wenn es uns Roboter besorgen

0
Link zum Artikel

So gross ist das Risiko, dass du wegen einem Roboter schon bald deinen Job los bist 

28
Link zum Artikel

«Eine Maschine wird niemals ein Bewusstsein haben»

17
Link zum Artikel

«In Zukunft werden Drohnen auch Menschen transportieren»

15
Link zum Artikel

Eine phantastische Reise hat begonnen

4
Link zum Artikel

Bauen wir eine Welt, die nicht mehr für Menschen gemacht ist?

43
Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

36
Link zum Artikel

(dhr, 24.01.2018) Künstliche Intelligenz

Der Untergang der Menschheit beginnt mit einem Klick auf «Make Paperclip»

30
Link zum Artikel

Horror-Szenario «Slaughterbots»: So drastisch warnen Forscher vor autonomen Kampfrobotern

26
Link zum Artikel

Wenn Siri ein Miststück wäre – ein Drama in 9 Akten

2
Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

14
Link zum Artikel

Keine Angst, liebe KV-Lehrlinge – deshalb werden euch die Roboter euren Job nicht wegnehmen 

31
Link zum Artikel

Maschinen im Bett: Wenn es uns Roboter besorgen

0
Link zum Artikel

So gross ist das Risiko, dass du wegen einem Roboter schon bald deinen Job los bist 

28
Link zum Artikel

«Eine Maschine wird niemals ein Bewusstsein haben»

17
Link zum Artikel

«In Zukunft werden Drohnen auch Menschen transportieren»

15
Link zum Artikel

Eine phantastische Reise hat begonnen

4
Link zum Artikel

Bauen wir eine Welt, die nicht mehr für Menschen gemacht ist?

43
Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

36
Link zum Artikel

Zuerst Herstellung, jetzt Kunst. Können Roboter alles?

abspielen

Video: srf

Das könnte dich auch interessieren:

Die Reaktionen auf Fox News legen eine schonungslose Wahrheit über das Impeachment offen

Link zum Artikel

So würde das Parlament aussehen, wenn nur die Romands wählen würden

Link zum Artikel

Das will die Mikrosteuer-Intiative – das Wichtigste in 5 Punkten

Link zum Artikel

Kritik an Federer-Fans wegen Applaus bei Doppelfehlern: «Das hat Djokovic nicht verdient»

Link zum Artikel

Diese 17-Jährige bezwingt die AfD. Eine Vorweihnachts-Geschichte, die ans Herz geht

Link zum Artikel

Heute kochen wir einen französischen Dreigänger. Weil Herbst. Und weil geil.

Link zum Artikel

Das Drama um Klein-Anna: Trennungsschmerz on fleek

Link zum Artikel

Darum macht sich Christian Levrat keine Sorgen wegen den erstarkten Grünen

Link zum Artikel

Katze zu fett für die Passagier-Kabine im Flugzeug – Besitzer trickst Airline aus

Link zum Artikel

Picdump. Spass. Jetzt.

Link zum Artikel

«Ein Asiate in Hausschuhen? Das gibt Ärger!» – der Chef hat ein Finken-Problem

Link zum Artikel

«The Game Changers» – haben wir uns ein Leben lang falsch ernährt?

Link zum Artikel
Alle Artikel anzeigen

Das könnte dich auch interessieren:

Die Reaktionen auf Fox News legen eine schonungslose Wahrheit über das Impeachment offen

84
Link zum Artikel

So würde das Parlament aussehen, wenn nur die Romands wählen würden

98
Link zum Artikel

Das will die Mikrosteuer-Intiative – das Wichtigste in 5 Punkten

141
Link zum Artikel

Kritik an Federer-Fans wegen Applaus bei Doppelfehlern: «Das hat Djokovic nicht verdient»

31
Link zum Artikel

Diese 17-Jährige bezwingt die AfD. Eine Vorweihnachts-Geschichte, die ans Herz geht

107
Link zum Artikel

Heute kochen wir einen französischen Dreigänger. Weil Herbst. Und weil geil.

48
Link zum Artikel

Das Drama um Klein-Anna: Trennungsschmerz on fleek

167
Link zum Artikel

Darum macht sich Christian Levrat keine Sorgen wegen den erstarkten Grünen

35
Link zum Artikel

Katze zu fett für die Passagier-Kabine im Flugzeug – Besitzer trickst Airline aus

48
Link zum Artikel

Picdump. Spass. Jetzt.

220
Link zum Artikel

«Ein Asiate in Hausschuhen? Das gibt Ärger!» – der Chef hat ein Finken-Problem

72
Link zum Artikel

«The Game Changers» – haben wir uns ein Leben lang falsch ernährt?

341
Link zum Artikel

Das könnte dich auch interessieren:

Die Reaktionen auf Fox News legen eine schonungslose Wahrheit über das Impeachment offen

84
Link zum Artikel

So würde das Parlament aussehen, wenn nur die Romands wählen würden

98
Link zum Artikel

Das will die Mikrosteuer-Intiative – das Wichtigste in 5 Punkten

141
Link zum Artikel

Kritik an Federer-Fans wegen Applaus bei Doppelfehlern: «Das hat Djokovic nicht verdient»

31
Link zum Artikel

Diese 17-Jährige bezwingt die AfD. Eine Vorweihnachts-Geschichte, die ans Herz geht

107
Link zum Artikel

Heute kochen wir einen französischen Dreigänger. Weil Herbst. Und weil geil.

48
Link zum Artikel

Das Drama um Klein-Anna: Trennungsschmerz on fleek

167
Link zum Artikel

Darum macht sich Christian Levrat keine Sorgen wegen den erstarkten Grünen

35
Link zum Artikel

Katze zu fett für die Passagier-Kabine im Flugzeug – Besitzer trickst Airline aus

48
Link zum Artikel

Picdump. Spass. Jetzt.

220
Link zum Artikel

«Ein Asiate in Hausschuhen? Das gibt Ärger!» – der Chef hat ein Finken-Problem

72
Link zum Artikel

«The Game Changers» – haben wir uns ein Leben lang falsch ernährt?

341
Link zum Artikel

Abonniere unseren Newsletter

17
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
17Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • redeye70 05.03.2018 20:32
    Highlight Highlight Unkonventionelle Betrachtungsweisen. Aber ich denke nicht, dass die Länder die technisch in der Lage sind auf solche Waffensysteme verzichten werden. Die Bereitschaft in einen kriegerischen Konflikt einzutreten wird aber eher steigen. Das zeigt uns schon die Drohneneinsätze. Es könnte aber ein Gleichgewicht entstehen wie bei ABC-Waffen. Dieses Gleichgewicht hat bisher den ganz grossen Knall verhindert.
  • AfterEightUmViertelVorAchtEsser___________________ 05.03.2018 11:23
    Highlight Highlight Autonome Kampfroboter gibt es schon

    Play Icon


    ;-)
  • Billy the Kid 04.03.2018 11:17
    Highlight Highlight Spätestens nach dem Wort "Völkerrechtsroboter" musste ich erst mal schlucken...- Was zum Teufel muss ich hier lesen?
    1. Die Behauptung, dass die Zivilbevölkerung in den Kriegen des letzten Jahrhunderts immer weniger leiden musste ist schlicht falsch. Im 2. Weltkrieg oder in Vietnam oder in Irak bezahlte vor allem die Zivilbevölkerung den höchsten Preis für die kriegerische Auseinandersetzung.
    2. Wir haben schon recht viele Erfahrungen mit Drohnen und anderen "Smartweapons". Ob nun autonom oder nicht - solange sie Menschen dienen, werden sie missbraucht werden können.
  • LeChef 03.03.2018 22:28
    Highlight Highlight Gut! Guter Artikel. Unkonventionelle Betrachtungsweisen, aber regt zum Nachdenken an.
  • jjjj 03.03.2018 21:50
    Highlight Highlight „In den letzten rund 100 Jahren wurde die Kriegsführung immer zivilisierter. “

    Wie bitte????
    • A7-903 03.03.2018 22:25
      Highlight Highlight Wohl frei nach dem motto „es muss erst schlimmer werden bevor es wieder besser wird“.

      Krieg war immer schon schlimm, und daran wird sich auch in zukunft nichts ändern. Menschenrechte halfen ein klein wenig das entvölkern von ganzen regionen etwas zu reduzieren, kommt aber immer noch viel zu regelmässig vor.

      Diese menschenrechte werden zur zeit ja leuder unter dem deckmantel der terrorbekämpfung von manchen staaten mit füssen getreten.

      Aber es soll ja besser, also zivilisierter werden.
      Immerhin sind nur noch due wenigsten bereit gegner zum beispiel bei lebendigem leib zu verbrennen.Immerhin.
    • LeChef 03.03.2018 22:26
      Highlight Highlight Ja. Genau so ist es. Fakten ignorieren ist aber natürlich einfacher, als sein Weltbild zu revidieren, das verstehe ich..
  • _kokolorix 03.03.2018 21:48
    Highlight Highlight Der Artikel beinhaltet zwar interessante Teile. Aber im Grossen und Ganzen ist er völlig realitätsfremd. Weder gibt es heute schon praktisch einsetzbare KI, noch sind militärische Führer Risikomanager. Assistenzsysteme arbeiten mit simplen Algorithmen und viel Blendwerk um ihre Inkompetenz zu übertünchen. Wären die Militärs besonnen sähe Syrien heute wesentlich anders aus. Schon heute zählt das Leben eines Soldaten nicht viel, das eines Kindes überhaupt nichts. Der einzige Effekt der autonomen Tötungsmaschinen könnte sein, dass sie teurer sind als Menschen und darum ungern verheizt werden...
  • blabla.. 03.03.2018 19:54
    Highlight Highlight Ich kenne keinen kriegerischen Konflikt bei dem auch nur irgendeine Seite das humanitäre Völkerrecht eingehalten hätte....
  • Roman Stanger 03.03.2018 19:49
    Highlight Highlight Der Artikel fing sehr gut an und hat viele meiner Ansichten gestützt. Den zweiten Teil kann ich aber nicht nachvollziehen. Es ist doch nicht so, dass hinter jeder einzelnen kriegerischen Handlung eine direkte Befehlskette steht. Und wenn die Armeen nur deshalb keine autonomen Waffen aufs Feld schicken würden, weil sie Angst haben, dass der Gegner die Kontrolle darüber erlangen könnte, dann wäre bisher nie ein Kriegsgerät eingesetzt worden, das hätte erbeutet werden können. Also sorry, den Schluss fand ich unlogisch und nicht nachvollziehbar.
    • redmug 06.03.2018 12:23
      Highlight Highlight Korrekt, man kann autonome Drohnen leider bestimmt so sichern, dass sie kaum manipulierbar sind.
  • ⚡ ⚡ ⚡☢❗andre ☢ ⚡⚡ 03.03.2018 19:40
    Highlight Highlight Hackt nicht immer so auf Roboter rum! Roboter sind schlussendlich auch nur Menschen.
    • nödganz.klar #161 03.03.2018 21:35
      Highlight Highlight ...auch nur bessere Menschen? 🤭
  • Menel 03.03.2018 18:11
    Highlight Highlight "Aus ganz rationalem Eigennutz müsste also jede Armee der Welt freiwillig auf autonome Waffen verzichten."

    Als wäre der Mensch das jemals gewesen. Dass er Kriege überhaupt führt, zeigt, dass er rational absolut unfähig ist.
    • derEchteElch 04.03.2018 09:23
      Highlight Highlight Richtig. Auch schon die Wirtschaft und die Überproduktion von Lebensmitteln (besonders Fleischprodukte) zeigen, wie unrational wir als Menschen sind..
  • Zeit_Genosse 03.03.2018 18:05
    Highlight Highlight Es ist nicht alles KI was etwas mehr als ein Smartphone ist. Bei Waffensystemen wäre ja ein Teil der KI, dass sie sich mit anderen Waffensystem verständigen und auch mit Menschen abstimmen. Autonom kann auch heissen, sich in einem Radius frei zu bewegen und Aufgaben übernehmen. ZB eine Brücke, Flughafen, Anlage selbständig verteidigen oder im Häuserkampf alles töten das lebt. Ausser Acht wird gelassen, dass man mit Roboterwaffen eher in den Kampf zieht, da keine Menschleben politisch verantwortet werden müssen. Konflikte nehmen zu. Und das Militär ist Treiber der KI und Waffen, nicht ziviles.
  • Emperor 03.03.2018 17:59
    Highlight Highlight You dreamer, du...

Wie man jedes Einfamilienhaus in eine Wasserstoff-Tankstelle verwandeln kann

EPFL-Professor Andreas Züttel hat eine Art «Wasserstoff»-Batterie entwickelt. Er will damit unsere Energieversorgung revolutionieren.

Ein geläufiges Bonmot über Brasilien lautet: «Es ist das Land der Zukunft – und wird es immer bleiben.» Ältere Wirtschafts- und Wissenschaftsjournalisten haben gegenüber Wasserstoff eine ähnlich zynische Haltung entwickelt. Seit Jahrzehnten werden sie periodisch zu Anlässen eingeladen, in denen Wasserstoff als das Wunder beschrieben wird, das sämtliche Probleme der Menschheit lösen wird – ausser vielleicht Liebeskummer. Stets sind diese Versprechungen danach irgendwie versandet.

Andreas Züttel …

Artikel lesen
Link zum Artikel