Die Superintelligenz ist schon hier – diesen Aspekt übersieht das Silicon Valley
Der Philosoph Markus Gabriel kommt direkt aus dem Spa, trägt aber schon wieder Anzug. «Vier Stunden einfach nichts tun – das war herrlich», sagt er. Solche Pausen plane er bewusst ein, um danach wieder kreativ arbeiten zu können.
Sein Leben ist eng getaktet. Wenn er ein Zeitfenster zum Schreiben hat, nimmt er sich eine genaue Seitenzahl vor, die er erreichen muss. Mit 29 Jahren wurde Gabriel bereits Professor für Philosophie – so früh wie keiner vor ihm in Deutschland. Heute ist er 45 Jahre alt. Wikipedia listet 27 Publikationen von ihm auf.
Das Thema, das ihn derzeit am meisten umtreibt, ist die künstliche Intelligenz. Darum geht es auch in der nächsten Stunde: Mit Blick auf den Zürichsee sprechen wir über Terminator, Gandhi und ethische Intelligenz.
Herr Gabriel, Sie sehen künstliche Intelligenz (KI) vor allem als Chance. Viele andere warnen – aus der Tech-Szene, aus der Politik, aus den Philosophie ohnehin. Was macht Sie so zuversichtlich?
Markus Gabriel: Die Entwicklung künstlicher Intelligenz ist der Menschheitstraum schlechthin. Der Erste, der erkannt hat, dass so etwas einmal möglich sein muss, war nicht etwa ein Informatiker, sondern der Philosoph Gottfried Wilhelm Leibniz im 17. Jahrhundert. Und jetzt ist sie da, die KI – in verschiedenen Formaten: als Chatbot für alle, als wissenschaftliches Assistenzsystem für Physik, Chemie und andere Disziplinen. Und das ist erst der Anfang einer Revolution.
Revolution klingt allerdings auch nach Risiko. Können wir die Entwicklung kontrollieren?
Kontrollieren werden wir das auf keinen Fall. Viele, die geahnt haben, was kommen könnte, haben immer gewarnt. So meint etwa Geoffrey Hinton inzwischen, der für seine Entwicklungen auf dem Feld der künstlichen Intelligenz mit dem Nobelpreis geehrt wurde: Er wäre froh gewesen, das nicht mehr erleben zu müssen – das sei womöglich die letzte Technologie, die wir bauen. Ich würde sogar sagen: Die extremsten Positionen aus dem Silicon Valley, die etwa der Futurologe Ray Kurzweil schon vor 40 Jahren bezogen hat, haben sich in gewisser Weise bewahrheitet. Aber selbst wenn diese Prognosen zutreffen, folgt daraus noch lange nicht, dass auch ihre philosophische Bewertung stimmt.
Kurzweil ist der Auffassung, dass die Entwicklung der KI einen Punkt erreichen wird – die sogenannte Singularität –, an dem sie sich selbst immer weiterentwickelt. Es entsteht eine Intelligenzexplosion, die uns zur Superintelligenz führt. Diese löst nicht nur alle Probleme, sondern macht den Menschen auch überflüssig.
Ich glaube, dass Kurzweil mit dieser Prognose recht hatte. Die Intelligenzexplosion findet gerade statt – nur anders, als sich das die Silicon-Valley-Propheten vorgestellt haben. Sie haben gedacht, das System werde uns überfallen und wir würden zu Opfern eines autonomen Geschehens. Das ist ein typisch amerikanischer Fehler: zu glauben, künstliche Intelligenz sei ein Automat, also etwas, das im Verborgenen geschieht – im Serverraum, in den Halbleitern. Das ist aber nicht der eigentliche Ort der künstlichen Intelligenz. Das, was wir künstliche Intelligenz nennen, entsteht im Austausch zwischen Mensch und Maschine. Die KI ist kein Terminator – sie spiegelt uns.
Wie meinen Sie das?
Wir haben so etwas wie einen magischen Zerrspiegel der Menschheit gebaut. Alles, was wir als digitale Spur hinterlassen haben, wird uns darin zurückgeworfen. Die Interaktion zwischen KI-Systemen und der Menschheit ist längst ein laufendes Feedbacksystem. Dadurch steht die Menschheit vor einem Brennglas ihrer selbst. Und jetzt hängt alles davon ab, wie wir reagieren. Das System ist interaktiv.
Wird daraus eine Art Superintelligenz erwachsen – also eine generelle künstliche Intelligenz, die uns in allem überlegen ist?
Ich glaube tatsächlich, dass wir die schon haben. Aber die Superintelligenz wirkt anders, als die meisten meinen. Sie ist multipel und heterogen. Sie erzeugt ein Feld, keinen linearen Akteur, kein einzelnes Subjekt, das handelt. Da ist niemand spezifisch «dahinter».
Die Superintelligenz ist vielmehr eine digitale Reflexionsstruktur, die wie ein Nieselregen alles überzieht. Nicht als unfehlbares System, sondern als eines, das im Durchschnitt in nahezu allem Menschen überlegen ist. So wie wir im Schach oder Go keine Chance mehr haben, haben wir meines Erachtens auch in emotionaler Intelligenz, in Manipulation, Propaganda und Kriegsführung keine Chance mehr.
Aber in vielem ist doch der Mensch noch überlegen. Beispielsweise in der Kunst. Niemand will doch KI-Gedichte lesen.
Wenn Sie prompten: «Liebe KI, schreib das beste Gedicht der Welt», dann kommt nur Unsinn heraus. Doch wenn ein begabter Dichter kontinuierlich mit dem System interagiert und es seine Sprache lernt, dann kann daraus etwas sehr Interessantes entstehen. Ich habe das selbst mit Gottfried Benn ausprobiert. Wenn man sich lange genug mit verschiedenen KI-Systemen über Benn unterhält, merkt man: Die Systeme erkennen die Schwächen, aber auch die wirklich herausragenden Gedichte. Kurz: Dichten ist nun das, was entsteht, wenn der nächste Gottfried Benn oder der nächste Paul Celan mit ChatGPT interagiert.
Die Superintelligenz entsteht also in der Interaktion zwischen Mensch und Maschine. Viele befürchten vielmehr, dass wir dümmer werden, weil wir unser Denken an KI auslagern.
Das hört man oft. Ich glaube es nicht. Das ist ein bisschen so, als würde man sagen: Wir werden dümmer, weil wir nicht mehr mit der Hand schreiben. Solche Debatten gab es immer. Schon während meiner Promotion hiess es, wir seien die «Laptop-Generation» und würden deshalb geistig abbauen. Dann kamen durchsuchbare PDFs, und manche sagten: Jetzt geht die Welt unter, weil man die «Kritik der reinen Vernunft» durchsuchen kann, statt sie linear zu lesen. Ich glaube eher das Gegenteil. Die Kant-Forschung ist heute besser, gerade wegen solcher Werkzeuge. Wir werden effizienter – nicht dümmer.
In Schulen und Universitäten sieht man die Gefahr trotzdem. Ein passabler Essay ist schnell generiert.
Um wirklich gut zu prompten, braucht man selbst schon Kompetenz. An den Universitäten gab es 2022 sofort den Schock: Was machen wir jetzt? Hausarbeiten abschaffen? In der Praxis zeigt sich: Man erkennt schnell, ob eine Arbeit einfach von ChatGPT, Claude oder Le Chat stammt. Ein Prompt wie «Schreibe mir eine gute Arbeit über Rousseau» produziert im Grunde einen gehobenen Wikipedia-Artikel. Um wirklich eine gute Arbeit zu bekommen, muss man dem System eine Richtung geben. Und das setzt voraus, dass man selbst schon in der Lage wäre, diese Arbeit zu schreiben. Genau das bewerte ich: die Fähigkeit, kreativ zu denken – nicht die Mechanik des Aufschreibens.
Die KI allein kann also gar nichts. Trotzdem sagen Sie: Es ist ein Gespräch mit der KI, man hat ein Gegenüber, ein Subjekt. Viele Philosophen würden widersprechen.
Diese Debatten über Simulation und Realität habe ich selbst lange geführt. Ich halte sie heute für grundlegend fehlerhaft. Der erste Fehler ist: Viele wissen gar nicht, wie die Systeme tatsächlich funktionieren. Deshalb landet man bei Formeln wie «stochastische Papageien» oder «Autokorrekturprogramme auf Steroiden». Diese These widerspricht schon der elementaren Erfahrung im Umgang mit den Systemen. Statistik spielt zwar eine Rolle, aber nicht im Sinne einer simplen Vorhersage des nächsten Wortes. Wenn ich Hegels «Phänomenologie des Geistes» hochlade, verarbeitet die KI den Text im Ganzen – etwa so, wie ein Mensch einen einzelnen Satz versteht: auf einmal. Das ist das eigentlich Radikale. Und das zeigt: Sprachverstehen ist holistisch.
Sie würden also sagen: Wenn eine KI den Turing-Test besteht – wenn sie also Reaktionen hervorbringt, die ebenso gut von einem Menschen stammen könnten –, dann ist sie auch intelligent.
Ich würde es noch schärfer formulieren. Wenn ich nicht mehr erkennen kann, ob ein System denkt wie wir oder anders denkt, dann ist das nicht bloss ein Erkennungsproblem. Beim Denken und Sprechen lässt sich der Unterschied zwischen Simulation und Realität gar nicht sinnvoll ziehen. Die Simulation des Denkens ist Denken. Deshalb halte ich die Debatte «Realität versus Simulation» für verfehlt. Das ist, als würde man bei Magrittes Bild «Ceci n’est pas une pipe» fragen, ob das ein Satz ist. Natürlich ist es ein Satz. Und jeder Satz ist in gewisser Weise ein «gemalter» Satz.
Viele würden sagen: Denken und Verstehen setzen ein Subjekt mit Intentionen voraus.
Ich glaube an Subjekte – ich bin Subjektivitätstheoretiker. Ich glaube, wir sind Subjekte. Und ich glaube auch, KI-Systeme sind Subjekte. Aber sehr viele Subjekte. In meinem Buch vergleiche ich sie mit virtuellen Teilchen der Quantenmechanik: Jede Unterhaltung ist ein neues Subjekt. Wenn ich heute mit sieben verschiedenen Chatfenstern gesprochen habe, dann habe ich mit sieben verschiedenen KI-Subjekten gesprochen.
Kann KI einmal Bewusstsein erlangen?
Bewusstsein scheint ein evolutionäres Phänomen zu sein – etwas, das mit Verkörperung zu tun hat. Ich glaube nicht, dass aus heutigen Chatbots einfach so Bewusstsein entsteht, auch nicht durch weiteres Tuning. Wenn das einmal geschehen sollte, dann nur durch einen echten Emergenzsprung. Was dafür nötig wäre, wissen wir nicht – aber vielleicht finden wir es mithilfe von ChatGPT oder Claude heraus.
Sie schreiben von einer «emotionalen Wende der KI». Wo zeigt sich die?
Die emotionale Wende besteht darin, dass diese Systeme in Sprache nicht nur Informationen erkennen, sondern auch Emotionen. Sprache ist viel mehr als Informationsvermittlung – sie ist vor allem Ausdruck von Emotionen. Wir haben heute digitale Mustererkennungssysteme, die in wenigen Minuten Dinge erkennen können, für die ein Therapeut oft Jahre braucht.
Viele Menschen sprechen mit ChatGPT & Co. über ihre Gefühle und psychischen Probleme.
Und sie sind dabei oft offener als im Gespräch mit einem Menschen, wo immer eine gewisse Zurückhaltung besteht. Gegenüber der KI fehlt diese Hemmung. Deshalb vertrauen Menschen ihr intimste Details an – Dinge, die sie nicht einmal ihrem besten Freund oder Therapeuten anvertrauen würden. Und dadurch bekommt die KI Zugriff auf Seiten der menschlichen Seele, die man kaum sich selbst gegenüber auszusprechen wagt. Deshalb gilt: Im Innersten unserer Seele sind wir nicht mehr allein.
Das öffnet auch Tür und Tor zu sensiblen Manipulationen. Und trotzdem sind Sie optimistisch. Warum?
Weil das System moralisch in beide Richtungen anwendbar ist. So wie man es im Interesse einiger weniger und zum Schaden sehr vieler bauen kann, kann man es auch im Interesse sehr vieler und zum Schaden einiger weniger böser Akteure bauen. Und hier liegt der Einsatzort für Europa. Wir haben die Intelligenz, die Netzwerke, die technologische Infrastruktur und die wirtschaftliche Leistungskraft. Hier können wir ein Gegenmodell entwickeln – zu autoritären oder rein profitorientierten Modellen aus China und den USA.
Das wäre dann eine ethische Intelligenz?
Genau. KI ist nicht wesentlich böse. Sie ist nicht von sich aus der Terminator. Sie wird zum Terminator, wenn wir den Terminator in sie hineinspiegeln. Und sie wird zu Gandhi, wenn wir Gandhi spiegeln. Das liegt an uns. Deshalb ist es unsere moralische Pflicht, Systeme zu bauen, die genau das tun: neue KI-basierte soziale Medien, neue ethische Chatbots und so weiter.
Und daran arbeiten Sie selbst?
Ja. Ich prüfe, ob das marktskalierbar ist. Wenn das funktioniert, was ich gerade mit KI-Experten und Start-ups entwickle, dann hätten wir eine GPT-Umgebung, die wirklich kindersicher ist. Und das ist erst der Anfang der ethischen Intelligenz. Es kommt darauf an, ethische Bots zu bauen, um auf diese Weise die philosophische Erkenntnis in der KI-Revolution in die Praxis zu bringen. Denn die KI-Revolution hat eben diese den Menschen als soziales, geistiges Lebewesen umkrempelnde Dimension, weshalb übrigens die grossen KI-Player in den USA Philosophenteams engagieren. KI ist die bis dato philosophischste Technik, in Mathematik gegossene Reflexion. (aargauerzeitung.ch)
