Künstliche Intelligenz und Machine Learning werden derzeit als Wunderwaffen gegen alle möglichen Probleme angepriesen. Zu Recht?
Es gibt Bereiche, in denen tatsächlich spektakuläre Fortschritte zu verzeichnen sind. Das betrifft vor allem die Bereiche, in denen wir Normalitäten anstreben.
Woran denken Sie konkret?
An die Gesundheit oder die natürliche Balance des Klimas, beispielsweise. In Bereichen, in denen lebende Systeme von der Normalität abweichen, gibt es einen akuten Bedarf, Dinge zu messen und zu korrigieren. Dazu eignen sich künstliche Intelligenz und Machine Learning hervorragend.
Sie sagen, künstliche Intelligenz eigne sich dazu, einen Normalzustand herzustellen. Nur: Wer definiert diesen Normalzustand?
In den letzten Jahren diskutieren wir immer häufiger darüber, was normal ist. Denken Sie bloss an die sozialen Überwachungssysteme in China. Doch das ist ein Missbrauch durch die Politik. Bei Gesundheit stellt sich diese Frage nicht. Jeder Mensch merkt, wenn es ihm nicht gut geht oder nicht. Deshalb ist die Gesundheit auch der Sektor, in dem künstliche Intelligenz am meisten boomen wird.
Kann künstliche Intelligenz helfen, die wachsenden ökologischen Probleme zu bewältigen?
Nachhaltigkeit ist zu einem guten Teil messbar. Daher wird die künstliche Intelligenz in der Ökologie sicherlich eine bedeutende Rolle spielen.
In Ian McEwans jüngstem Roman «Maschinen wie ich» entwickelt ein selbstlernender Roboter seine eigene, sehr rigide Moral. Ist das eine reale oder eine fiktive Gefahr?
Die künstliche Intelligenz per se setzt keine Moral durch. Aber es gibt Menschen, die sie dazu benutzen, ihre eigenen moralischen Standards durchzusetzen. Auch im Kultroman «I, Robot» von Isaac Asimov, geht es darum, dass sich eine autonome künstliche Intelligenz entwickelt.
Wie realistisch ist dies?
Ich sehe diese Gefahr nicht. Software-Programme sind stets formalisierte Rationalität. Ethik jedoch lässt sich nicht rationalisieren. Daher wird ein Roboter niemals aus sich selbst eine ethische Entscheidung treffen können.
Was ist mit dem berühmte Dilemma der selbstfahrenden Autos, die im Notfall entscheiden müssen, ob sie ein Kind oder ein Ehepaar überfahren sollen?
Das sind keine ethischen Entscheidungen, da widersprechen sich zwei verschiedene Programmanforderungen. Nochmals: Von künstlicher Intelligenz Ethik zu verlangen, ist Science Fiction.
Was ist mit den Expertensystemen, die zunehmend Ärzte, Richter und andere bei ihren Entscheidungen unterstützen?
Diese Expertensystem sind nichts anderes als gesammelte Erfahrungen. Ein Anwalt beispielsweise muss sich nicht mehr nächtelang durch eine Unzahl von Fällen kämpfen, um einen Entscheid des Bundesgerichts zu finden. Er schafft dies heute in kürzester Zeit per Knopfdruck. Doch hinter den Expertensystemen steckt kein autonomer Entscheidungsprozess.
Das sehen namhafte Experten anders. Im Silicon Valley heisst es heute, die ganze Welt wird zu einem Problem von Voraussagen, und genau das können künstliche Intelligenz und Machine Learning am besten.
Damit bin ich überhaupt nicht einverstanden. Wenn Computer entscheiden, dann ziehen sie logische Konsequenzen aus vorgegebenen Sachverhalten.
Aber sie fällen, so sagt man, über 90 Prozent aller militärischen Entscheidungen und bestimmen bald sämtliche Börsentransaktionen.
Das mag eindrucksvoll klingen, doch es handelt sich hier um Entscheidungen, die gar keine Entscheidungen sind.
Was sind sie dann?
Rechnungen. Menschliche Entscheidungen sind ethisch. Sie müssen sich entscheiden. Sie gehen eine eigene, selbstständige Wertbindung ein. Niemand kann ihnen das abnehmen. Das können Computer nicht – und das sollen sie auch gar nicht können.
Was aber ist mit Drohnen, die selbst entscheiden, wann sie schiessen und wann nicht?
Das sind Optimierungsstrategien. Der Computer rechnet die verschiedenen Szenarien aus und wählt dann beste aus. Aber nochmals: Das sind keine Entscheidungen, sondern Rechnungen. Die menschliche Entscheidung ist ethisch und damit nicht formalisierbar. Es geht daher immer mehr darum, künstliche und menschliche Intelligenz zu kombinieren.
Wie soll das konkret aussehen?
So wie Unternehmen Dinge, die nicht zu ihrer Kernkompetenz gehören, outsourcen, können Menschen Aufgaben outsourcen, die Maschinen besser erledigen können. Dazu gehören alle formalisierbaren Leistungen.
Machen wir uns so nicht selbst dumm? Wir können nicht mehr rechnen, bald nicht mehr lesen, schon gar keine Karten.
Dafür könnten wir dann im Gegenzug eine neue Form von «Geist» kultivieren.
Das tönt doch eher esoterisch.
Mag sein. Doch wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.
Wir lassen also die Maschinen mit ihrer künstlichen Intelligenz unseren Alltag regeln und heben in neue Sphären ab?
Genau. Ich finde das keine uninteressante Perspektive. Wenn die Maschinen die lästigen logischen Probleme besser bewältigen können, dann lasst sie doch machen. Das könnte doch für uns Menschen neue intellektuelle Potentiale freisetzen.
Das Unvorhergesehene, die «schwarzen Schwäne», kriegen wir jedoch auch so nicht in den Griff, sagen Sie. Weshalb?
Weil sie schlicht und ergreifend zu komplex sind. Unsere Welt und unsere System werden immer komplexer. Das bedeutet, dass die Abhängigkeiten in diesen Systemen so vieldimensional sind, dass es unmöglich ist, sie in irgendeiner Weise nachzurechnen oder gar zu antizipieren.
Woran denken Sie konkret?
An 9/11, die Atomkatastrophe von Fukushima, den Untergang der Titanic, den Fall der Berliner Mauer, um nur ein paar Beispiele zu nennen. Sie alle gehören in den Bereich, den die Amerikaner «the unknown unknown» nennen, Dinge, von denen wir nicht wissen, dass wir sie nicht wissen. Wir haben nach wir vor viele blinde Flecken in unserer Weltsicht, und das kann auch gar nicht anders sein.
Zusammenfassend können wir sagen: Künstliche Intelligenz wird dafür sorgen, dass wir länger und gesünder leben, sie wird uns helfen, unsere Verkehrsprobleme zu lösen. Aber sie wird niemals die blinden Flecken in unserem Denken beseitigen können.
So kann man es sagen. Die künstliche Intelligenz wird uns entlasten und uns vielleicht ermöglichen, neue Formen des Denkens zu entwickeln. Und was ist mit dem politischen Missbrauch? Die Gefahr lässt sich nur bewältigen, wenn wir zunehmend selbst zu kompetenten Mitspielern werden. Wir müssen nicht zu programmierten Menschen werden, sondern zu Menschen, die selbst programmieren.