Die erste Partie entschied Garri Kasparow souverän für sich. Die zweite verlor er – und mit ihr sein Selbstvertrauen. Am Ende stand es 3,5:2,5 für Deep Blue. Zum ersten Mal hatte ein Supercomputer einen amtierenden Schachweltmeister unter Turnierbedingungen geschlagen.
Die berühmte Begegnung fand im Mai 1997 in New York statt. Heute können Schachprogramme, die auf handelsüblichen Computern laufen, auch die stärksten menschlichen Spieler schlagen. Gerade eben wurde ein georgischer Grossmeister an einem Schach-Turnier disqualifiziert, weil er sich von seinem Smartphone helfen liess.
Diese rasante Entwicklung erstaunt niemanden, der schon einmal vom Mooreschen Gesetz gehört hat. Die Faustregel, die der spätere Intel-Mitgründer Gordon Moore vor exakt 50 Jahren aufstellte, besagt im Kern, dass sich die für 1000 Dollar erhältliche Prozessorleistung etwa alle zwei Jahre verdoppelt. Moore sprach ursprünglich von der Anzahl der Komponenten auf einem integrierten Schaltkreis, doch inzwischen gibt es auch andere Definitionen.
Mit bisher beeindruckender Präzision ist die Entwicklung den Mooreschen Voraussagen gefolgt. Als er sein Gesetz formulierte, bestanden die auf dem Markt erhältlichen Schaltkreise aus 30 Transistoren. 1971 hatte der erste 1-Chip-Mikroprozessor von Intel bereits 2300 Transistoren, der 1993 entwickelte Intel Pentium kam auf 3,1 Millionen und aktuelle Prozessoren verfügen über 3 Milliarden.
Ökonomische und technische Grenzen könnten das Mooresche Gesetz allerdings bald widerlegen: Je kleiner die Komponenten werden, desto aufwendiger wird ihre Herstellung. Mittlerweile sind sie schon kleiner als ein Grippevirus. Sobald ein Transistor nur noch wenige Atome gross ist – die magische Schwelle liegt bei etwa 5 Nanometern –, stösst die Verkleinerung an eine physikalische Grenze. Diese dürfte etwa 2020 erreicht werden. Freilich wurde dem Mooreschen Gesetz schon früher das Ende vorausgesagt – zu Unrecht, wie sich dann jeweils erwies.
Sicher ist indessen, dass die Rasanz der Entwicklung, wie sie das Mooresche Gesetz beschreibt, oft massiv unterschätzt wird. Menschliche Gehirne neigen dazu, Prozesse intuitiv als linear verlaufend zu interpretieren – das Wachstum der Prozessorleistung verläuft jedoch exponentiell. Diese animierte Grafik mag das veranschaulichen:
Und nicht nur bei den Computern steigt die Leistung exponentiell: Die Gesamtheit der technischen Errungenschaften und des menschlichen Wissens wächst ebenfalls in schwindelerregendem Tempo. So ist das Mooresche Gesetz für Futurologen wie Hans Moravec oder Ray Kurzweil nur ein Teil einer grösseren Entwicklung. Kurzweil, ein amerikanischer Autor und Erfinder, derzeit Google-Sonderberater, spricht vom Gesetz des sich beschleunigenden Nutzens (Law of Accelerating Returns).
Kurzweils Gesetz besagt, dass eine Reihe von evolutionären Prozessen – nicht nur im Bereich der Technologie – exponentiell ablaufen. Dies postulierte einige Jahre zuvor schon der Mathematiker und Schriftsteller Vernor Vinge: Er stellt fest, dass fortgeschrittene Gesellschaften sich in einem höheren Tempo als weniger fortgeschrittene entwickeln können.
Wir sehen das, wenn wir zum Beispiel den technologischen Wandel im 20. Jahrhundert mit jenem vergleichen, der sich in den 100 Jahren zuvor vollzogen hat: Die Welt um 1800 ähnelt jener um 1900 weit mehr als diese der Welt um das Jahr 2000.
Wie aber wird die Welt um 2100 aussehen? Wenn Kurzweil Recht behält, wird sie sich derart stark verändert haben, dass wir heutigen Menschen in ihr rettungslos verloren wären. Maschinen, die sich mittels künstlicher Intelligenz immer schneller selbst verbessern können, haben dann möglicherweise den Menschen überflügelt und sich zu Superintelligenzen entwickelt. «Wenn Fortschritt von übermenschlicher Intelligenz vorangetrieben wird», stellte Vinge fest, «wird dieser Fortschritt deutlich schneller ablaufen.»
Mit hoher Wahrscheinlichkeit ist dannzumal die sogenannte technologische Singularität bereits eingetreten – der sperrige, von Vinge geprägte Begriff bezeichnet den Moment, von dem an herkömmliche Begriffe nicht mehr ausreichen, um die sich explosionsartig beschleunigende technologische Entwicklung zu beschreiben. Dies erinnert an die Astrophysik, wo Zustände wie der Urknall oder Schwarze Löcher, unter denen physikalische Gesetze nicht definiert sind, ebenfalls als Singularität bezeichnet werden.
In einer solchen Welt existiert vielleicht selbst die Menschheit in ihrer herkömmlichen Form nicht mehr – Mensch und Maschine könnten zum Cyborg verschmolzen sein; die Evolution könnte sich von der Biologie in den Bereich der Technik verlagert haben. Die Maschine könnte den Menschen sogar ersetzt haben. Oder ihn sich als «Haustier» halten. Tatsächlich wäre es für Menschen ebenso wenig möglich, Handlungen und Beweggründe einer Superintelligenz zu verstehen, wie ein Hamster jene eines Menschen versteht.
Die einen erfüllt diese Aussicht mit Hoffnung, andere mit Grausen. Der Informatiker und Autor Anthony Berglas zum Beispiel fürchtet die Auslöschung der Menschheit durch eine solche unkontrollierbare künstliche Superintelligenz. Er ruft die berühmte Szene aus Stanley Kubricks Film «2001: A Space Odyssey» (1968) in Erinnerung, in welcher der Bordcomputer HAL 9000 fast die gesamte Besatzung des Raumschiffs eliminiert.
Auch dystopische Science-Fiction-Filme wie Blade Runner (1982), die Terminator-Reihe (ab 1984) oder die M-Trilogie (1999-2003) befassen sich kritisch mit der Mensch-Maschine-Problematik. Kurzweil dagegen verspricht sich von wohlwollenden superintelligenten Maschinen die Lösung all der Probleme, mit denen die Menschheit bisher nicht fertig geworden ist: Krieg, Krebs, Klimawandel. Letztlich erhofft er sich gar atr ixdie Unsterblichkeit des Menschen.
Auch der deutsche Informatiker und Künstler Jürgen Schmidhuber, Kodirektor des Schweizer Forschungsinstituts für Künstliche Intelligenz IDSIA in Lugano, gehört zu den Optimisten. Die Menschheit, sagt Schmidhuber zu watson auf Anfrage, werde schon in naher Zukunft stark von künstlicher Intelligenz profitieren, zum Beispiel in der Medizin.
Vor superklugen künstlichen Intelligenzen fürchtet er sich nicht: «Zwar wird der Mensch kaum künstliche Intelligenzen kontrollieren können, die viel klüger sind als Menschen, ihre eigenen Ziele verfolgen, neugierig und kreativ sind wie Menschen und andere Säugetiere – doch in weit grösserem Massstab. Aber wir dürfen hoffen, dass es kaum Zielkonflikte geben wird zwischen ‹uns› und ‹ihnen›».
Menschen und andere Lebewesen würden sich nämlich vor allem für jene interessieren, mit denen sie zusammenarbeiten oder in Wettbewerb treten können. «Politiker interessieren sich für andere Politiker. Geschäftsleute interessieren sich für andere Geschäftsleute. Kinder interessieren sich für andere Kinder gleichen Alters. Superkluge künstliche Intelligenzen werden sich vor allem für andere superkluge künstliche Intelligenzen interessieren», erklärt Schmidhuber.
Genau so, fährt er fort, wie Menschen eben vornehmlich an anderen Menschen interessiert seien, nicht an Ameisen. «Sind wir nicht schlauer als Ameisen? Aber wir wollen sie deswegen doch nicht ausrotten, bis auf die wenigen, die in unsere Häuser eindringen.» Und tatsächlich sei das Gewicht aller Ameisen immer noch vergleichbar mit dem Gewicht aller Menschen.
Noch ist es aber nicht soweit, dass irgendein Computer das menschliche Gehirn in seiner Vielseitigkeit übertrifft. Computer brillieren auf Gebieten, in denen ihre enorme Rechenleistung zum Tragen kommt – beispielweise Schach. Dagegen überfordert sie schon die Interpretation einer einfachen Kinderzeichnung; wo das menschliche Gehirn Muster sieht, erkennt die Maschine nur Chaos.
Die Steigerung der Rechenleistung ist daher nur eine – allerdings wichtige – Sache. Ebenso wichtig ist auch die Architektur der Software. Wissenschaftler versuchen die Funktionsweise des Hirns nachzuahmen, zum Beispiel am IDSIA. Das wohl ehrgeizigste Unterfangen in dieser Hinsicht ist das Human Brain Project an der Ecole Polytechnique Fédérale in Lausanne (EPFL), das von der Europäischen Kommission mit einer Milliarde Euro finanziert wird.
Nach einer Flaute in den 80er Jahren ist die Künstliche-Intelligenz-Forschung wieder im Aufwind: Während die sogenannte «starke künstliche Intelligenz» – künstliche Intelligenz auf menschlichem Niveau – noch auf sich warten lässt, ist die «schwache künstliche Intelligenz» – die auf einen eingeschränkten Bereich spezialisiert ist – schon längst Teil unseres Alltags. Bekanntestes Beispiel dürfte die Sprachverarbeitungssoftware Siri sein, aber aus Erfahrung lernende neuronale Netze (NN) fahnden auch nach Tumorzellen in menschlichem Gewebe oder sagen Aktienkurse vorher.
Mittlerweile stehen wir an der Schwelle zur übermenschlichen Mustererkennung. Laut Schmidhuber haben am IDSIA entwickelte neuronale Netze schon 2011 erstmals die menschliche Performanz in bestimmten Bereichen wie Verkehrszeichenerkennung übertroffen – dies ist entscheidend für die Entwicklung selbstfahrender Autos. Firmen wie Google, Baidu oder Microsoft verwenden die NN aus Lugano für Anwendungen wie automatisches Bildverstehen oder Sprachverarbeitung.
Noch gilt das Mooresche Gesetz, noch steigt die Rechenleistung exponentiell und wachsen die künstlichen neuronalen Netze – doch niemand weiss, ob der Moment wirklich kommt, da die Maschine erwacht. Und falls ja, wann es geschehen wird. Sicher ist nur, dass sich dann das Leben, wie wir es kennen, fundamental verändern wird. Falls ein anderes berühmtes Gesetz eines amerikanischen Ingenieurs zutrifft, sollten wir uns Sorgen machen – Murphys Gesetz lautet: «Alles, was schiefgehen kann, wird auch schiefgehen.»
Wir werden, wenn das Mooresche Gesetz anhält, in ca. 10 Jahren die ersten Supercomputer sehen, die die Rechenleistungen eines menschlichen Gehirns erreichen. Das bedeutet aber noch lange nicht, dass diese dann automatisch dieselben kognitiven Fähigkeiten wie wir Menschen haben. Exponentielle Rechenleistung hilft einem wenig beim Lösen von gegebenenfalls exponentiell schwierigen Problemen. Als Beispiel die Computerlinguistik: Ich kann einen Text auf meinem Laptop oder auf dem schnellsten Supercomputer in seine Bestandteile zerlegen und analysieren lassen. Es ändert sich lediglich die Verarbeitungsgeschwindigkeit. Ironie verstehen beide nicht. Solange wir nicht bessere Software, Modelle, Algorithmen haben, können wir unendlich viele Prozessoren gegen ein Problem werfen, ohne es zu lösen.
Dennoch sind übermenschliche künstliche Intelligenzen ala Hollywood und Asimov – die wirtschaftliche Grundlage vorausgesetzt – nur eine Frage der Zeit denke ich. Ich frage mich aber, ob wir solche schaffen können, bevor wir «Intelligenz» ansatzweise verstehen.
Ich könnte mir auch vorstellen, dass sich die Geschichte der Luftfahrt wiederholt. Am Anfang versuchte man noch Vögel zu imitieren, aber irgendwann sagte man sich, «hey, scheiss' auf die Natur – lass uns Jumbojets bauen»