Ein Chip in meinem Schuh ist intelligenter als ich selbst – willkommen in der Welt der superintelligenten Maschinen. Der drastische und für unsere Spezies wenig schmeichelhafte Vergleich stammt von Masayoshi Son. Der japanische Milliardär machte damit auf dem Mobile World Congress in Barcelona deutlich, dass Computer schon bald schlauer als wir sein werden.
«Das wird in den nächsten 30 Jahren zur Realität», sagte der Gründer und Chef des japanischen Mobilfunk-Anbieters Softbank. «Alles, was wir jetzt sehen, ist erst der Anfang», sekundierte ihm der Technikchef des IBM-Supercomputers Watson, Rob High. Während man heute bei einem IQ von 200 von einem Genie spreche, würden Computer damit vergleichbar einen IQ von 10'000 erreichen, prognostizierte Son. Das sei Super-Intelligenz.
Super-Intelligenz klingt gut – aber was soll man sich darunter vorstellen? Wenn wir ehrlich sind: Wir können uns gar keinen adäquaten Begriff davon machen. Es ist etwa, als sollte ein Hund sich Gedanken über das Konzept der Jungfrauengeburt machen. Eine Intelligenz, die derart höher entwickelt ist, ist für uns schlicht nicht zu fassen.
Super-Intelligenz – die Extremform der künstlichen Intelligenz (KI) – gibt es noch nicht. Was es allerdings sehr wohl gibt, ist sogenannte «schwache künstliche Intelligenz». Diese wird für spezielle Anwendungen entwickelt und genutzt.
Ein Beispiel für schwache KI ist ein Schachprogramm: Es beherrscht nur Schach, aber das besser als jeder Mensch. Schwache KI ist schon überall im Einsatz: in unseren Handys und Autos, in Flugzeugen und Flughäfen, bei der Sprach- und Zeichenerkennung, in Navigationssystemen oder an der Börse. Und sie erobert ständig neues Terrain: Erst vor knapp einem Jahr besiegte die Deepmind-Software AlphaGo den weltbesten Go-Spieler sang- und klanglos. Damit fiel eine weitere Bastion der menschlichen Überlegenheit.
Starke künstliche Intelligenz – also eine Intelligenz, die der des Menschen gleichkommt – ist dagegen nach wie vor Zukunftsmusik. Ein Computer, der in allen möglichen intellektuellen Bereichen dem Menschen das Wasser reichen kann, existiert bisher nicht. Der anfängliche Optimismus in der KI-Gemeinde ist angesichts der Schwierigkeiten mittlerweile nahezu verflogen.
Dazu kommt, dass ein wichtiger Motor des Fortschritts hin zur starken KI zu stottern beginnt: die stürmische Entwicklung der Rechenleistung, die sich zum Beispiel daran ablesen lässt, dass ein ordinäres heutiges Smartphone 120 Millionen Mal die Rechenleistung des Steuercomputers des Apollo-Mondprogramms der Nasa besitzt.
Alle zwei Jahre verdoppelte sich bisher die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis – so, wie es das 1965 formulierte Mooresche Gesetz vorhersah. Doch allmählich nähern sich die Chip-Hersteller einer physikalischen Grenze: Mit der aktuellen Siliziumtechnologie ist bei sieben oder fünf Nanometer Schluss; kleiner können die Leiterbahnen nicht mehr werden.
Die Rechenleistung allein genügt ohnehin nicht, um Maschinen so smart wie Menschen zu machen. Schnelle Computer brillieren darin, horrende Zahlenmengen in Sekundenbruchteilen abzuarbeiten, doch wenn es beispielsweise darum geht, eine Katze in einer Kinderzeichnung zu erkennen, ist die Qualität der Software entscheidend.
Beim Versuch, Rechner so intelligent wie das menschliche Hirn zu machen, setzen manche Wissenschaftler darauf, ebendieses Gehirn als Blaupause für die Maschine zu benutzen. Aus Erfahrung lernende neuronale Netzwerke sollen die Funktionsweise unseres Denkorgans nachahmen. Das derzeit ambitionierteste Projekt in dieser Hinsicht ist das Human Brain Project an der Ecole Polytechnique Fédérale in Lausanne (EPFL).
Ein anderer Ansatz verspricht möglicherweise mehr Erfolg: Software programmiert Software – und verbessert sich dabei ständig selber. Dies tut beispielsweise DeepCoder, eine von Microsoft Research und der University of Cambridge entwickelte Software. Diese künstliche Intelligenz baut Software, indem sie bereits bestehende Programme scannt und zweckdienliche Code-Zeilen für ihre Problemlösung wiederverwendet – und dies in Sekundenbruchteilen. Nicht genug damit: DeepCoder bringt sich auch selber bei, welche Programmcodes funktionieren und welche nicht. Damit steigert der Algorithmus seine Leistungsfähigkeit mit jeder neuen Aufgabe.
Noch hat kein Programmierer wegen DeepCoder seinen Job verloren. Doch sollten diese und ähnliche Projekte zur Reife gelangen, könnte bald ein spezifischer Moment näherrücken, der von manchen ersehnt, von anderen gefürchtet wird: die technologische Singularität. Der Mathematiker und Schriftsteller Vernor Vinge prägte diesen sperrigen Begriff im Jahr 1993. Er bezeichnet den Moment, in dem die technologische Entwicklung sich explosionsartig beschleunigt und nicht mehr mit herkömmlichen Begriffen zu fassen ist.
Falls nämlich sich selbst verbessernde Software das Niveau der menschlichen Intelligenz – und damit der starken KI – erreicht, wird sie dort aller Aussicht nach nicht stehenbleiben. Die Entwicklung verläuft nicht linear, sondern exponentiell. Während es womöglich Jahrzehnte dauert, bis ein Computer die intellektuellen Fähigkeiten eines Vierjährigen erreicht, benötigt er von da an vielleicht nur noch Stunden, um klüger als jeder lebende Mensch zu werden.
Kurz darauf würde dann die technologische Singularität eintreten, wenn die künstliche Intelligenz das Niveau der Super-Intelligenz erreicht. Was dann mit der Menschheit und dem Planeten geschieht, ist unmöglich vorauszusehen. Die Herrschaft des Menschen wäre jedenfalls in Frage gestellt:
Manche Wissenschaftler, wie zum Beispiel der Futurologe und Google-Berater Ray Kurzweil, sind optimistisch: Sie erhoffen sich von einer wohlwollenden Superintelligenz die Lösung all jener Probleme, mit denen die Menschheit bisher nicht fertig geworden ist: Krieg, Krebs, Klimawandel. Selbst die Unsterblichkeit des Menschen läge dann plötzlich im Bereich des Möglichen. Für eine Intelligenz, die so weit über unserem intellektuellen Niveau steht wie wir über dem eines Hamsters, müsste dies ein Leichtes sein.
Andere warnen vor der Macht einer solchen Superintelligenz. Der Informatiker und Autor Anthony Berglas fürchtet sogar die Auslöschung der Menschheit durch superintelligente Maschinen. Auch der in Oxford lehrende Philosoph Nick Bostrom weist in seinem Buch «Superintelligenz: Szenarien einer kommenden Revolution» auf die Risiken einer Superintelligenz hin. So wie heute das Schicksal der Gorillas in den Händen der Menschen liege, würde unsere Zukunft von den Entscheidungen dieser Superintelligenz abhängen, warnt Bostrom.
Sicher ist nur – da sind sich Optimisten und Pessimisten einig –, dass eine künstliche Intelligenz dieses Formats nicht kontrollierbar ist. Sie wäre für uns wie ein Gott, den wir uns selbst erschaffen haben – zu unserem Wohl, oder zu unserem Verderben.
(Mit Material der Nachrichtenagentur sda)