Donald Trump will die Rüstungsausgaben massiv
erhöhen und wieder atomar aufrüsten. Gleichzeitig hat die Forschung auf dem
Gebiet der künstlichen Intelligenz (KI) grosse Fortschritte gemacht. Wird die
Kombination von Atomwaffen und KI zur ultimativen Bedrohung der Menschheit?
Seit 60 Jahren gibt es
Wasserstoffbomben samt den Raketen, die sie transportieren können. Eine grosse Wasserstoffbombe
hat mehr Zerstörungskraft als alle Waffen des Zweiten Weltkrieges
zusammengenommen. Ein Militär, das so was hat, braucht keine KI.
Könnte aber die KI dafür sorgen, dass diese
Waffen nie zum Einsatz kommen?
Natürlich ist es die
Hoffnung vieler KI-Forscher, dass KI dazu beträgt, das Leben der Menschen zu
verbessern. Dabei sind sie aber derzeit vor allem von kommerziellen Erwägungen
getrieben. Es geht darum, die Menschen glücklicher oder langlebiger zu machen –
oder abhängiger von ihren Smartphones.
Sie selbst haben einst erklärt, Ihr Ziel sei
es, bevor Sie in Rente gehen, eine Maschine konstruiert zu haben, die intelligenter
ist als Sie selbst. In gut zehn Jahren werden Sie das Pensionsalter erreichen.
Werden Sie auch Ihr Ziel verwirklicht haben?
In der Tat habe ich mir
dieses Ziel als Bub in den 70er Jahren gesetzt. Seither ist es immer
realistischer geworden, denn alle fünf Jahre werden Rechner zehnmal
billiger. Bald werden sie mehr Kapazität
aufweisen als das menschliche Gehirn. Ich denke, dass unsere sich selbst verbessernde
Software damit Schritt halten wird.
Sie sind ein Spezialist auf diesem Gebiet.
Können Sie kurz erläutern, was Sie genau forschen?
Ich baue Maschinen, die aus Erfahrung klüger werden. Unter anderem habe ich in den
späten 80ern begonnen, mich mit rückgekoppelten lernenden neuronalen
Netzwerken (RNN) zu beschäftigen. Damals waren die Rechner sehr langsam, und unsere
RNN konnten nur Spielzeug-Probleme lösen. Heute ist Rechenzeit fast eine
Million mal billiger, das ermöglichte jüngst den kommerziellen Durchbruch. 2009
hat unser «Long Short Term Memory»-Netzwerk (LSTM) erste Wettbewerbe gewonnen,
da ging es um das Erkennen von Handschriften in Sprachen wie Französisch oder Arabisch.
Seit einigen Jahren ist LSTM auf Ihrem Smartphone. Es kann gesprochene Sprache
besser erkennen als andere Programme, oder Sprachen besser übersetzen, oder
Bilder besser beschriften, oder Ausfälle in Fabriken besser vorhersagen, usw., usw. Vier der fünf wertvollsten börsennotierten Firmen der Welt
(Apple, Google, Microsoft, Amazon) stützen sich nun massiv auf unsere Erfindungen.
So gesehen sind
Sie auf gutem Weg, Ihr selbst gesetztes Ziel zu erreichen.
Ich denke schon, zumal wir immer älter werden und das Rentenalter erhöht
werden wird. Schauen wir also, wann es bei mir soweit sein wird. Dass es
dereinst Wesen geben wird, die klüger sind als die Menschen, ist übrigens schon
lange ein Science Fiction Thema. Nur wird es nun langsam realistisch.
Und was bedeutet
das für uns Menschen?
KI und smarte Maschinen werden das Leben der Menschen weiter erleichtern.
Dabei werden wie schon seit vielen Jahrzehnten weiterhin Arbeitsplätze verschwinden
und neue entstehen. Wer hätte noch vor 20 Jahren vorausgesehen, dass viele Menschen ihr Geld in sozialen Netzwerken
verdienen werden, z.B. als Videoblogger? Interessant: Gerade in Ländern, in denen es viele Industrieroboter gibt –
Japan, Südkorea, Deutschland, Schweiz – herrscht weitgehend Vollbeschäftigung.
Bill Gates
plädiert für eine Steuer auf Robotern. Brauchen wir auch eine andere
Wirtschaftsordnung, um zu verhindern, dass die soziale Ordnung der Gesellschaft
aus dem Gleichgewicht gerät?
Ich befürworte seit vielen Jahren das Konzept einer Steuer für Roboter. Ich
habe auch die Abstimmung über das bedingungslose Grundeinkommen in der Schweiz
mit Interesse verfolgt. Gesellschaften, die keine Revolution wollen, werden
wohl nicht darum herumkommen, irgendwann mal eine Form von Grundeinkommen einzuführen.
Wir leben im
postfaktischen Zeitalter mit den «alternativen Fakten» und den Fake News.
Teilen Sie die Befürchtung, dass uns die KI immer häufiger manipuliert, nicht
nur bei unserem Konsum, sondern auch bei unserem politischen Verhalten?
Ich habe ja das «Long Short Term Memory» (LSTM) schon erwähnt. Diese Form
von Deep Learning wurde seit den 90er Jahren in meinen Labors in München
und der Schweiz entwickelt. LSTM tut uns heute viel Gutes. Man kann es allerdings
auch dazu verwenden, automatisch Twitter-Nachrichten zu beantworten, und Fake
News zu verbreiten.
Diese
selbstlernenden Chatbots werden sogar rassistisch und frauenfeindlich, wie die
Ingenieure von Microsoft zu ihrem Entsetzen feststellen mussten.
Zunächst wurden diese Chatbots in China getestet, wo sie von Menschen
freundlich behandelt wurden. In Amerika hingegen wurden sie von bestimmten
Nutzern allerdings gezielt mit Nazi-Sprüchen gefüttert. Dadurch haben sie sich zu Nazi-Bots entwickelt. Leider kann man LSTM
nicht nur zum Wohl der Menschheit einsetzen, sondern auch für solche Dinge,
oder zum Steuern militärischer Drohnen. Die meisten Anwendungen sind allerdings
für viele Millionen Menschen sehr hilfreich.
Sie haben auch
die Gödelmaschine entworfen, eine Maschine, die nicht nur lernen, sondern auch
ihren Lernmechanismus verändern kann.
Die Gödelmaschine kann auf theoretisch optimale Weise lernen, einen besseren
Lernalgorithmus zu lernen. Das geht über das hinaus, was das LSTM kann, und ist
sehr aufregend. Derzeit befindet sich dies aber noch in der Phase der
Grundlagenforschung.
Könnte eine
Gödelmaschine auch so etwas wie ein Bewusstsein entwickeln?
Bewusstsein wird überschätzt. Ich sah es immer als Nebenprodukt der
Datenkompression beim Problemlösen. Schon seit 1991 haben wir im Labor lernende
Agenten mit rudimentären Formen der Selbstrepräsentation und des
Bewusstseins.
Es geht auch um Gefühle. Warum müssen
Maschinen Hunger und Schmerzen haben?
Mein Roboter soll sich nicht verletzen und kaputt gehen. Deswegen baue ich ihm
Schmerz- und Hungersensoren ein. Signale
dieser Sensoren will er vermeiden. Hat die Batterie bald keinen Strom mehr, wächst
der Hunger, und motiviert ihn, die Ladestation zu finden, ohne schmerzhaft an
Hindernissen anzuecken.
Was ist mit
Empathie, Liebe und Hass?
Viele Probleme lassen sich gemeinsam besser lösen. KIs können daher im
Prinzip lernen, zusammenzuarbeiten, und sich Prinzipien wie
«Wie-du-mir-so-ich-dir» anzueignen. Eine KI-Gesellschaft, deren Mitglieder sich
darauf verständigen, sich gegenseitig zu helfen, wird oft erfolgreicher sein
als eine andere. Sich den Regeln eines
geordneten Zusammenlebens zu unterwerfen, ist ein Evolutionsvorteil. Die
Evolution von Empathie ergibt sich hieraus als Nebenprodukt.
Was unterscheidet
diese Roboter dann noch vom Menschen?
Natürlich sind die heutigen doofen kleinen Roboter dem Menschen in vieler
Hinsicht noch weit unterlegen. Die Hirnrinde eines Menschen hat heute noch etwa
hunderttausend Mal mehr Verbindungen als das derzeit grösste LSTM-Netzwerk.
Falls der gegenwärtige Beschleunigungstrend anhält, werden wir jedoch in etwa
25 Jahren Gleichstand haben. Und elektronische LSTM-Verbindungen sind viel
schneller als die biologischen des menschlichen Gehirns. In den nächsten 25
Jahren werden wohl ganz viele und ganz erstaunliche Dinge passieren.
Woran denken Sie?
Meinem Team ist es 2011 erstmals gelungen, visuelle Muster mit KI besser zu
erkennen als Menschen. Das war vor fünf Jahren. Inzwischen haben wir schon wieder
einen Faktor zehn gewonnen. In 25 Jahren sind wir wohl nochmals hunderttausend
Mal besser. Sehr viele Aufgaben, die Menschen heute noch besser erledigen,
werden LSTM-Netzwerke und verwandte KIs übernehmen. Das gilt für das
Gesundheitswesen bis hin zu vielfältigsten Tätigkeiten in der Industrie.
Wenn die
Maschinen klüger als Menschen sind, wollen sie sich dann auch fortpflanzen?
Künstliche Genome verwenden wir bereits seit Jahrzehnten im Labor.
Netzwerke tun sich zusammen und gebären Kinder, sozusagen. Das Beste der DNA
eines Netzes wird kombiniert mit dem Besten eines anderen. Diese Evolution gibt es längst.
Führt das nicht
dazu, dass sich der Mensch selbst abschafft?
Nein.
Rotten dann die
KIs die Menschen aus?
Davor brauchen wir keine Angst zu haben. Es ist ja nicht so, dass der
Klügere stets das Bedürfnis hat, den Dümmeren auszurotten. Wir Menschen wollen
ja auch nicht die Kängurus ausrotten.
Für die klügeren
Roboter werden die Menschen aber mehr oder weniger uninteressant?
Wenn diese Maschinen klug sind – und die werden sehr klug –, dann werden
sie auch merken, dass die meisten Ressourcen sich nicht in unserer Biosphäre befinden,
sondern im Weltraum. Weniger als ein Milliardstel der Sonnenenergie trifft die
Erde, beispielsweise. Das heisst: Ganz viele KIs werden auswandern, selbstreplizierende
Roboterfabriken im All bauen und sich weiter in die Milchstrasse ausbreiten.
Der grösste Teil der KIs wird weit weg sein von allem Menschlichen.
Das tönt wie der
fantastische Roman «The Hitchhiker’s Guide to the Galaxy» von Douglas Adams.
Nicht ganz, denn das ist einer von vielen Sci-Fi-Romanen, in denen Dinge
vorkommen, die physikalisch gar nicht möglich sind. Zeitlöcher, Hypersprünge,
etc. Das ist natürlich alles Unsinn. Das mussten sich diese Autoren einfallen
lassen, um die riesigen Distanzen in der Galaxis mit in den kurzen Lebenszeiten
der Menschen zu vereinbaren. Doch nicht die Menschen werden das Weltall
kolonialisieren, sondern die Roboter. Der Weltraum ist dem Menschen feindlich
gesinnt. Wir brauchen sechs Meter Blei, um uns vor den Strahlen zu schützen.
Einen Roboter hingegen kann ich so bauen, dass er sich dort ganz glücklich
fühlt.
Nicht Elon Musk
wird also den Mars kolonialisieren, sondern eine KI-Gemeinschaft.
Ich habe ihn darauf hingewiesen, dass es uneffizient ist und wenig Sinn
macht, Planeten im Sonnensystem durch Menschen zu kolonialisieren. Es ist für
Menschen tausend Mal attraktiver, in der Wüste Namib zu leben, als auf dem
Mars. Aber geeignet konstruierte Roboter werden auf dem Mars ihre Erfüllung
finden.