International

Stephen Hawking & Co. wollen Kampfroboter mit künstlicher Intelligenz verbieten

Stephen Hawking & Co. wollen Kampfroboter mit künstlicher Intelligenz verbieten

28.07.2015, 14:2628.07.2015, 17:33
Mehr «International»

Wissenschaftler warnen vor dem Einsatz selbstständiger Kampfroboter im Krieg. Intelligente Drohnen, die anhand definierter Kriterien eigenständig Menschen töten können, seien möglicherweise schon in wenigen Jahren verfügbar.

Das schrieben Forscher in einem am Montag veröffentlichten Brief anlässlich einer Technologie-Konferenz in Buenos Aires. Unterzeichnet wurde das Schreiben unter anderem von dem Astrophysiker Stephen Hawking, Apple-Mitgründer Steve Wozniak, Sprachwissenschaftler Noam Chomsky und dem Silicon-Valley-Star Elon Musk, der unter anderem mit seiner Firma Tesla Elektroautos entwickelt.

Darpa Robotics Challenge: 25 Roboter als Katastrophenhelfer, die auch Autofahren können

1 / 28
Darpa Robotics Challenge: 25 Roboter als Katastrophenhelfer, die auch Autofahren können
Eine Abwandlung des gängigsten, zweibeinigen Designs wählte das Team Nimbro Rescue. Sein Momaro-Roboter fährt auf acht Rädern. Das Team stammt aus Deutschland, von der Universität Bonn.
Auf Facebook teilenAuf X teilen

«Künstliche Intelligenz ist an einem Punkt angelangt, an dem der Einsatz solcher Systeme innerhalb weniger Jahre, nicht Jahrzehnte, möglich sein wird», schrieben die Forscher. Die Wissenschaftler richteten sich ausdrücklich nicht gegen von Menschen gesteuerte Kampfdrohnen, wie sie die USA beispielsweise gegen mutmassliche Terroristen einsetzen.

«Künstliche Intelligenz ist an einem Punkt angelangt, an dem der Einsatz solcher Systeme innerhalb weniger Jahre, nicht Jahrzehnte, möglich sein wird»

Mordanschläge und ethnische Säuberungen

Die autonomen Waffensysteme könnten leicht in die Hände von Terroristen und Diktatoren fallen, warnten die Robotik-Forscher. Roboter, die nach bestimmten Kriterien Menschen zur Tötung aussuchen könnten, eigneten sich für gezielte Mordanschläge und sogenannte ethnische Säuberungen.

Mit künstlicher Intelligenz ausgestattete Waffensysteme sollten deshalb verboten werden, hiess es in dem von fast 2000 Experten unterzeichneten Brief. Als Wissenschaftler wollten sie sich nicht an der Entwicklung solcher Systeme beteiligen, heisst es in dem Appell.

Die Forscher veröffentlichten ihre Warnung anlässlich der International Joint Conferences on Artificial Intelligence (IJCAI) in Buenos Aires. Ein Wettrüsten bei künstlicher Intelligenz zu militärischen Zwecken sei eine schlechte Idee und müsse verhindert werden, forderten sie. (whr/sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
4 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
4
Iran stimmt strengerer Überwachung von Uran-Anlage zu

Der Iran erlaubt die engmaschigere Überwachung einer umstrittenen Uran-Anlage. Teheran habe zugestimmt, dass die Internationale Atomenergiebehörde (IAEA) häufigere und intensivere Kontrollmassnahmen durchführe, hiess es in einem Bericht von IAEA-Chef Rafael Grossi in Wien. Grossi hatte dies gefordert, nachdem Teheran Anfang Dezember damit begonnen hatte, die Produktionskapazität für fast atomwaffentaugliches Uran in der unterirdischen Anlage in Fordow deutlich zu steigern.

Zur Story