Digital
Wissen

Interview zu künstlicher Intelligenz: «Der Nebeneffekt wäre, dass die Menschheit dabei ausgerottet würde»

Denkt und forscht an der Schwelle zwischen Gegenwart und Zukunft: der Philosoph und Autor Nick Bostrom.
Denkt und forscht an der Schwelle zwischen Gegenwart und Zukunft: der Philosoph und Autor Nick Bostrom.bild: wikimedia
Interview

Interview zu künstlicher Intelligenz: «Der Nebeneffekt wäre, dass die Menschheit dabei ausgerottet würde»

Der Philosoph und Autor Nick Bostrom spricht im Montagsinterview über künstliche Intelligenz, welche die menschliche schon in (fast) allen Spielen schlägt. Und er prophezeit, dass es nicht dabei bleibt
11.05.2015, 14:4511.05.2015, 17:03
Raffael Schuppisser, Christoph Bopp / Nordwestschweiz
Mehr «Digital»
Ein Artikel von
Aargauer Zeitung

Wir treffen den Philosophen Nick Bostrom am Digital Economic Forum in Zürich. Er ist als Keynote Speaker engagiert. Wir hören, wie er dem Auditorium aufzeigt, wie es zu einer Superintelligenz kommen kann. Im anschliessenden Interview fragen wir ihn, was superintelligente Maschinen für eine Auswirkung auf unsere Gesellschaft haben werden. Und warum er glaubt, dass sich der Mensch durch Technik optimieren soll.

Herr Bostrom, als Philosoph beschäftigen Sie sich damit, welche Katastrophe die Menschheit einmal ausrotten könnte. Sie sagen, das grösste Risiko stellt nicht ein Atomkrieg oder die Klimaerwärmung dar, sondern die Entwicklung einer superintelligenten Maschine. Wie kommen Sie darauf?
Nick Bostrom: Klar, es gibt viele Dinge, bei denen es wahrscheinlicher ist, dass sie schiefgehen, als dass wir eine Superintelligenz programmieren, die uns vernichtet. Aber diese Dinge werden nicht dazu führen, dass die ganze Menschheit untergeht. Jedes Jahr gibt es schlimme Erdbeben und Kriege. Auch bei einem Atomkrieg würde die Menschheit wohl nicht ausgerottet werden. Und bis die Erde wegen der Klimaerwärmung einmal unbewohnbar ist, geht es noch enorm lange. Zugegeben, das Risiko, dass die Menschheit wegen einer superintelligenten Maschine untergeht, ist in den nächsten Jahren sehr klein, doch es wird immer grösser, je besser wir in der Entwicklung von künstlicher Intelligenz werden.

Nick Bostrom
Geboren 1973 in Schweden. Studium der Physik, der Mathematik, der Neurowissenschaften und der Philosophie unter anderem am King’s College in London und an der London School of Economics. Dort erwarb er einen Doktortitel. Er ist Professor am St. Cross College der Universität Oxford und Direktor des Future of Humanity Institute und des Programme for the Impact of Future Technology.
In seinem Bestseller «Superintelligenz. Szenarien einer kommenden Revolution» (auf Deutsch bei Suhrkamp 2014) denkt er darüber nach, was passiert, wenn eine von Menschen entwickelte Maschine zu einer mächtigeren Intelligenz wird als die unsere. Dies ist keine leere Spekulation, meint Bostrom, sondern eine reale Möglichkeit. Und unser Schicksal würde dann von den Handlungen dieser maschinellen Superintelligenz abhängen. Es stellen sich vor allem zwei Probleme: Wann wird es so weit sein? Und wie behalten wir die Kontrolle? Die Mutation einer künstlichen Intelligenz zu einer Superintelligenz wird eine Art Explosion sein und wahrscheinlich nicht beobachtbar. Und die Superintelligenz zu kontrollieren ist ziemlich schwierig, denn eine Superintelligenz würde ziemlich genau voraussehen, was wir mit ihr vorhaben. Also besteht Handlungsbedarf. Und es sieht so aus, meint Bostrom, «als hätten wir nur einen Schuss frei.»

Was ist denn so gefährlich an dieser Superintelligenz?
Intelligenz kann sehr mächtig sein. Der Mensch ist nicht besonders stark und hat keine scharfen Krallen, dennoch hat er auf der Erde gegenüber den anderen Tieren eine dominante Position, weil sein Gehirn etwas anders ist. Heute hängt das Schicksal der Gorillas mehr davon ab, was wir Menschen tun, als davon, was die Gorillas selber tun. Wenn wir Maschinen entwickeln, die intelligenter sind als wir, dann besteht das Risiko, dass unsere Zukunft mehr davon abhängt, was diese Maschinen tun werden als davon, was wir selber tun werden.

Muss eine Superintelligenz zwingend böse sein? 
Nein. Ich sehe das Risiko weniger darin, dass uns eine künstliche Intelligenz hassen könnte, sondern vielmehr darin, dass sie andere Ziele haben könnte als wir. Und diese würde sie dann ohne Rücksicht auf Verluste verfolgen. Wenn wir ihr etwa die Aufgabe geben würden, ein kompliziertes mathematisches Rätsel zu lösen, so könnte die künstliche Intelligenz auf die Idee kommen, dass das Ziel am schnellsten erreicht wird, wenn die ganze Erde in einen riesigen Computer umgewandelt wird. Der Nebeneffekt wäre, dass die Menschheit dabei ausgerottet würde.

Wenn wir schon schlau genug sind, eine Superintelligenz zu schaffen, dann sollten wir doch auch schlau genug sein, sie so zu konstruieren, dass sie uns nicht gefährlich wird. 
Wir können das hoffen. Unsere Erfahrung zeigt aber, dass von Menschen entwickelte Technologien unbeabsichtigte und unkontrollierbare Effekte haben können. Als die Menschen das Auto erfanden, sahen sie die Konsequenzen für die Klimaerwärmung nicht voraus. Bei der Entwicklung einer Superintelligenz kommt noch etwas hinzu: Wir würden etwas entwickeln, das intelligenter ist als wir und sich selber Ziele setzen kann.

«Wenn wir Maschinen entwickeln, die intelligenter sind als wir, dann besteht das Risiko, dass unsere Zukunft mehr davon abhängt, was diese Maschinen tun werden als davon, was wir selber tun werden.»

Wir haben es also mit einem alten Problem zu tun: Mehr Intelligenz bedeutet nicht automatisch mehr Moral. 
Genau, wenn wir etwas entwickeln, das viel schlauer ist als wir, bedeutet das nicht, dass es auch moralisch besser ist. Die intelligentesten Menschen sind auch nicht immer gut, sondern manchmal auch sehr böse. Das trifft auch auf die Superintelligenz zu.

In den «Terminator»-Filmen haben die Maschinen die Herrschaft übernommen. 
In den «Terminator»-Filmen haben die Maschinen die Herrschaft übernommen. bild: thedissolve

Könnten wir das Problem lösen, indem wir die Superintelligenz in eine Box einschliessen und sie unter keinen Umständen ans Internet anschliessen? 
Das ist eine Möglichkeit – zumindest am Anfang während der Konstruktion. Doch ich denke, man kann einen mächtigen Geist nicht ewig in einer Flasche einsperren. Wenn wir eine Superintelligenz haben, wird diese früher oder später einen Weg finden, um sich zu befreien.

Was sollen wir also tun? 
Wir müssen eine Lösung finden, der künstlichen Intelligenz menschliche Werte einzuprogrammieren.

Und wie kann das gehen? 
Das wissen wir derzeit noch nicht genau. Es ist ein neues Forschungsfeld. Bis vor einem halben Jahr gab es neben meiner Gruppe in Oxford nur noch ein anderes Team, das daran forschte. Unter anderem dank meinem Buch «Superintelligenz» ist nun das Interesse grösser geworden. So hat beispielsweise der Technik-Unternehmer Elon Musk (Gründer von Tesla und SpaceX, Anm. d. Red.) 10 Millionen Dollar für die Erforschung dieses Problems gespendet. Nun werden verschiedene Ansätze entwickelt.

Wissen
AbonnierenAbonnieren

Worin zeigt sich eine Superintelligenz? Ist sie schneller im Rechnen oder auch weiser als wir? 
Ich unterscheide zwischen drei Formen von Superintelligenz. Die erste: Sie ist einfach viel schneller als die menschliche Intelligenz und kann mehr Informationen verarbeiten. Die zweite: Sie ist viel grösser als die menschliche Intelligenz und kann so mehr Probleme parallel lösen. Eine dritte Form wäre eine qualitativ bessere Intelligenz. Sie wäre dann einfach schlauer als wir, so wie wir schlauer sind als Gorillas, auch wenn unsere Gehirne sich sehr ähnlich sind.

Und welche Form wird sich durchsetzen? 
Alle drei. Sobald wir eine dieser drei Formen entwickelt haben, werden wir die anderen auch bald zur Verfügung haben. Denn die von uns entwickelte Superintelligenz wird einen Weg finden, die anderen Formen zu entwickeln und so alle drei Dimensionen der Superintelligenz zu erreichen.

Steven Spielbergs Film «A.I.» kombiniert Roboter mit künstlicher Intelligenz und die Pinocchio-Geschichte.
Steven Spielbergs Film «A.I.» kombiniert Roboter mit künstlicher Intelligenz und die Pinocchio-Geschichte.bild: hdmovietrailers

Wie lange dauert es noch, bis wir eine Superintelligenz haben? 
Das weiss ich nicht. Und niemand sonst.

Noch in diesem Jahrhundert? 
Ich denke, es gibt eine grosse Chance dafür. Aber keine Garantie.

Dann wird das 21. Jahrhundert ein Schicksalsjahrhundert für die Menschheit. 
Ja, und nicht nur wegen der wahrscheinlichen Entwicklung einer Superintelligenz. Es sieht so aus, dass wir noch mit anderen existenziellen Risiken konfrontiert werden.

Mit welchen? 
Der synthetischen Biologie, Bio-Engineering, vielleicht auch Nanotechnologie. Und wahrscheinlich auch anderen Technologien, die wir jetzt noch nicht kennen – so wie die Menschen vor 100 Jahren noch nicht an Nuklearwaffen als grosse Bedrohung gedacht haben.

«Ich bin nicht wirklich kompetent zu analysieren, was Gott wollen würde»

Sie haben 1998 die World Transhumanist Association gegründet, eine Vereinigung, welche die Grenzen menschlicher Möglichkeiten durch Einsatz von Technik erweitern will. Was ist ein Transhumanist genau? 
Das hängt davon ab, wen Sie fragen. Transhumanismus ist ein schwammiger Begriff, der für viele verschiedene Menschen Verschiedenes meint.

Wir fragen Sie. 
Ein Transhumanist vertritt die Idee, dass der derzeitige menschliche Zustand nicht der bestmögliche ist. Und dass es möglich ist, durch technische Entwicklungen einen post-humanen Zustand zu erreichen, der wünschenswerter ist.

Heisst das, Sie sind mit Ihrem momentanen Zustand als Mensch nicht zufrieden? 
Nein, das heisst es nicht. Aber ich bin der Ansicht, dass technische Erweiterungen durchaus zu einem erfüllteren Leben führen können. Doch man muss aufpassen: Wer der Ansicht ist, dass die Erfüllung des Lebens immer einen technischen Entwicklungsschritt entfernt liegt, der wird nie glücklich sein.

Im Game «Portal» muss sich der Spieler mit der künstlichen Intelligenz Glados herumschlagen. Mit unendlichen Tests versucht sie den Spieler zu zermürben. 
Im Game «Portal» muss sich der Spieler mit der künstlichen Intelligenz Glados herumschlagen. Mit unendlichen Tests versucht sie den Spieler zu zermürben. bild: valve

Welche Ihrer Fähigkeiten möchten Sie durch Technik verbessern, wenn das jetzt möglich wäre? 
Den Alterungsprozess zu verlangsamen, wäre sehr cool. Mehr Intelligenz, bessere Konzentrationsfähigkeit und längere Ausdauer wären natürlich begrüssenswert.

Sollen wir den Menschen wirklich optimieren? Es liesse sich ja auch argumentieren: Wenn die Natur es gewollt hätte, dass wir diese erweiterten Fähigkeiten haben, dann wären wir damit ausgestattet worden. 
Die Natur will nichts. Und selbst wenn sie etwas wollen könnte, dann glaube ich nicht, dass wir einen Grund hätten, uns darum zu kümmern.

Und Gott? 
Ich bin nicht wirklich kompetent zu analysieren, was Gott wollen würde. Aber ich denke, dass die meisten Leute sich einig sind, dass es einen Grund gibt, natürliche Krankheiten wie Krebs zu bekämpfen. Und dass wir durch Bildung die kognitiven Fähigkeiten von Kindern entwickeln sollen. Aus demselben Grund bin ich der Auffassung, dass wir auch unsere Fähigkeiten durch Biotechnologie erweitern sollen, wenn diese verfügbar sind. Wer nun argumentiert, dass wir das nicht tun sollten, weil wir nicht in die Natur eingreifen dürften, der müsste gegen viele andere, völlig unproblematische Dinge, zum Beispiel auch gegen die medikamentöse Behandlung von Krankheiten argumentieren.

Aber die Optimierung des Menschen kann weitreichendere Effekte haben. Durch Gentechnik lassen sich in der Zukunft vielleicht einmal Babys mit besseren Fähigkeiten designen. Diese Fähigkeiten würden dann weiter vererbt und hätten einen Einfluss auf künftige Generationen. 
Das trifft aber auch für andere Entwicklungen zu. Wenn Kinder gute Bildung erhalten, dann ist es viel wahrscheinlicher, dass diese sich auch um Bildung für ihre Kinder kümmern werden. Radioaktive Verschmutzung hat einen negativen Effekt auf die kommende Generation, bessere Infrastruktur einen positiven.

Sehen Sie eine Gefahr, dass diese Optimierungs-Technologien nur den Reichen zur Verfügung stehen werden? 
Dieser Frage widmen Transhumanisten grosse Aufmerksamkeit. Die Frage lässt sich so angehen: Heute haben viele Menschen auf der Welt keinen Zugang zur modernen Medizin wie Medikamente gegen Krebs oder Organtransfer. Es besteht heute diesbezüglich schon eine grosse Ungleichheit. Natürlich wäre es besser, wenn alle Menschen Zugang zu neuen Technologien hätten. Doch bis es soweit ist, erachte ich es als besser, wenn wenigstens einige Menschen Zugang haben. Das gilt auch für Optimierungs-Technologien.

In «iRobot» kämpft Will Smith gegen aufmüpfige Roboter. 
In «iRobot» kämpft Will Smith gegen aufmüpfige Roboter. bild: imglisting

Auch wenn dann eine kleine Gruppe der Menschheit noch überlegener werden würde? 
Es besteht ein grosser Unterschied zwischen verschiedenen Optimierungs-Technologien. Wenn eine Technologie einen Menschen auf die Kosten anderer besser macht, ist das nicht wünschenswert. Doping wäre ein Beispiel. Wenn eine Technologie aber bloss das Glück eines Einzelnen optimiert, ohne dass andere dadurch herabgestuft werden, sehe ich nichts Schlechtes daran. Wenn ich durch Technologie verhindern kann, krank zu werden, schadet das niemandem. Das Gleiche gilt für kognitive Optimierungen.

Wirklich? Wenn ich aufgrund einer Technologie intelligenter werde, dann habe ich gegenüber anderen bessere Chancen im Leben, insbesondere auf dem Arbeitsmarkt. 
Ja, es besteht auch hier ein gewisser Aspekt der Bevorzugung gegenüber anderer. Doch nicht nur. Es hat auch einen intrinsischen Nutzen. Wenn ich zur Schule gehe, tue ich das nicht nur, weil ich einen besseren Job will, sondern auch, weil mein Leben dadurch reicher wird. Dasselbe gilt für kognitive Optimierungs-Technologien. Aus dem gleichen Grund wie wir versuchen, Kinder von Substanzen fernzuhalten, die ihrer Intelligenz schaden – zum Beispiel verseuchtes Trinkwasser –, so sollten wir auch versuchen, ihre Intelligenz zu optimieren. Denn es deutet nichts darauf hin, dass der momentane Level an Intelligenz der beste ist und folglich mehr Intelligenz schlecht wäre.

Digital
AbonnierenAbonnieren

Vor einigen Wochen wurde die wissenschaftliche Welt aufgerüttelt von einer Studie aus China. Forscher haben zum ersten Mal Embryos genetisch manipuliert. Auch wenn diese nicht eingesetzt wurden, führte das zu einem Aufschrei. Was denken Sie darüber? 
Es zeigte sich, dass die Manipulationen ungewollte Nebeneffekte haben. Es braucht also noch mehr Forschung. Denn bevor die Technologie medizinisch nicht sicher ist, sollte man sie bei Menschen nicht nutzen. Die genutzte Technologie namens Crisper ist noch ziemlich jung. Das Experiment deutet an, welche Entwicklung in den nächsten zehn Jahren möglich sein könnte.

Was ist mit anderen Optimierungs-Technologien zum Beispiel mit der Implementierung eines Computerchips ins Hirn. 
Hier bin ich skeptisch. Limitierte Dinge werden bald möglich, aber sie sind nicht attraktiv für gesunde Menschen.

Aber es wäre doch denkbar, dass man sein Erinnerungsvermögen durch einen Chip erweitern kann? 
In einem gewissen Sinne kann man das ja schon mit einem Smartphone.

Was ist mit wirklich verrückt klingenden Technologien wie etwa der Möglichkeit, sein Gehirn auf einen Computer zu laden, wenn der Körper stirbt? 
Wenn wir eine Superintelligenz haben, wäre das sicher eine Anwendung, die diese schnell entwickeln könnte. Die Frage ist, ob wir das wirklich wollen, ob das wirklich die bestmögliche Entwicklung ist, um dem Alterungsprozess zu entgehen. Oder ob es nicht bessere Möglichkeiten gibt, als das Hirn auf einen Chip zu laden.

Jetzt auf

Aber würde das denn wirklich funktionieren? Man müsste ja Bewusstsein auf einem Computerchip ermöglichen können.
Ich bin der Auffassung, dass es keine biologischen Bedingungen – wie auf Kohlenstoff basierende Neuronen – braucht, um Bewusstsein zu erzeugen. Bewusstsein entsteht durch einen bestimmten Prozess der Informationsverarbeitung und lässt sich folglich künftig auch einmal auf einem Computer erzeugen. Das führt zu einer wichtigen Frage über den moralischen Status eines Computers mit Bewusstsein.

Im Film «Blade Runner» sind sogenannte Androiden so menschlich, dass sie nicht mal wissen, dass sie Roboter sind.
Im Film «Blade Runner» sind sogenannte Androiden so menschlich, dass sie nicht mal wissen, dass sie Roboter sind.bild: facultyimuedu

Und die wäre? 
Wir sprechen etwa einer Maus einen gewissen moralischen Status zu. Dieser verbietet uns, das Tier bloss aus Spass zu quälen. Wenn nun ein Computer ein ähnliches Bewusstsein hat wie eine Maus, müssen wir ihm diesen moralischen Status auch zusprechen. Wenn wir also auf Basis dessen einen Computerspiel-Charakter kreieren würden, wäre es falsch, diesen schlecht zu behandeln.

Klingt irgendwie beängstigend. 
Mir macht es auch etwas Angst. Denn oft fällt es uns schwer, Tiere gut zu behandeln, obwohl diese ein Gesicht haben, das den Schmerz ausdrücken kann. Computer haben das nicht. Es wird uns also noch schwerer fallen, sie gut zu behandeln. Übrigens könnten diese Fragen schon ziemlich bald relevant werden, da eine künstliche Intelligenz schon Bewusstsein erlangen wird, ehe sie zur Superintelligenz wird.

Das könnte dich auch interessieren

Digitale Revolution: Fünf Technologien, die unseren Alltag verändern werden

1 / 7
Digitale Revolution: Fünf Technologien, die unseren Alltag verändern werden
Mehrzweckroboter Baxter: Lernt Bewegungen durch handgreifliche Anleitung.
Auf Facebook teilenAuf X teilen
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
8 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
8
Microsoft holt sich einen der bekanntesten KI-Experten

Microsoft verstärkt den Fokus auf Künstliche Intelligenz mit der Verpflichtung eines der renommiertesten Experten in dem Bereich. Mustafa Suleyman gibt den Chefposten beim KI-Start-up Inflection AI auf und übernimmt die Führung eines neuen Microsoft-Bereichs, wie der Software-Konzern am Dienstag mitteilte.

Zur Story