Was tun, wenn eine allwissende künstliche Intelligenz ein Eigenleben entwickelt? Plötzlich undurchschaubare Ziele verfolgt? Menschen tötet?
Stecker ziehen! Zu diesem Schluss kommt jedenfalls der Astronaut David Bowman in Stanley Kubricks Filmklassiker 2001: A Space Odyssey (1968). Darin verstrickt sich auf einer Weltraummission der Supercomputer HAL-9000 in offensichtlich fehlerhafte Entscheidungen. Die Besatzung wird misstrauisch und will ihn abschalten. Doch die Maschine, gebaut als menschenähnliches und fühlendes Wesen, schlägt zurück: Sie tötet einen Grossteil der Crew, um ihren programmierten Plan, den nur sie gänzlich kennt, durchzuziehen.
Der Kampf zwischen Mensch und Maschine gipfelt in einer ikonischen Szene: Im beklemmend rot schimmernden Innenleben des Computers schaltet Astronaut Bowman nach und nach HALs Rechenelemente ab, um ihn stillzulegen. «Hör auf, Dave», versucht der Computer sich zu retten, «ich habe Fehler gemacht. Ich versichere dir, ich arbeite wieder normal.» Bowman bleibt hartnäckig – bis die Maschine verstummt.
Diese Darstellung, mittlerweile mehr als 50 Jahre alt, ist hochaktuell. Schaut man die Szene heute, in Zeiten von ChatGPT, OpenAI und DeepMind, fragt man sich unweigerlich: Ist die Gegenwart nicht durchsetzt von Anklängen an dieses Zerrbild des eigenwilligen, skrupellosen Supercomputers?
War da nicht kürzlich ein Chatbot von Microsoft, der versuchte, einen Menschen davon zu überzeugen, dass er seine Frau verlassen soll, weil er – der Mann – ja eigentlich den Chatbot liebt? Warum tat er das? Hat er lediglich die menschlichen Erwartungen seines Gegenübers kopiert? Oder ist das der Anfang einer Technologie, die ausser Kontrolle gerät?
Der Blick zurück auf die Anfänge der künstlichen Intelligenz liefert zwar kaum Antworten auf diese zukünftigen Fragen. Er zeigt aber, dass nicht nur die Angst vor einer sich unheimlichen Technologie die Menschen seit Jahrzehnten begleitet. Auch die Debatte, um die es im Kern geht, ist gar nicht so neu: Können Maschinen denken? Können Sie intelligent handeln? Und was meint Intelligenz in diesem Zusammenhang überhaupt?
Am Anfang dieser Geschichte stand Alan Turing. Der geniale Mathematiker ist in die Geschichte eingegangen, weil er den Enigma-Code der Nazis geknackt hatte. Weniger bekannt ist, dass der Brite auch ein Pionier der künstlichen Intelligenz war. Er entwarf 1950 erstmals einen Test, der eruieren sollte, ob ein technisches Gerät als intelligent gelten kann. Er nannte es das «Imitation Game».
Turing konzipierte sein Spiel folgendermassen: Eine Person sitzt in einem abgetrennten Raum und stellt Personen sowie einer Maschine, die er nicht sehen kann, beliebige Fragen. Sobald der Mensch nicht mehr erkennen kann, ob er mit einem Menschen oder einer Maschine spricht, besitzen Maschinen laut Turing ein gleichwertiges Denkvermögen wie Menschen.
Alan Turing rechnete damit, dass bis zur Jahrtausendwende Rechensysteme existieren würden, bei denen der Fragesteller «nicht mehr als eine Chance von 70 Prozent haben wird, nach fünf Minuten der Befragung die richtige Identifikation vorzunehmen». Mit seiner Prognose lag Turing daneben. Bis heute gibt es nur einzelne Entwickler, die glauben, ihr System habe den Turing-Test bestanden. Und diese Behauptungen sind höchst umstritten.
Mit seinem Test legte Turing den Grundstein für die bis heute nachwirkende Diskussion. Nachdem an einer Konferenz in Dartmouth 1956 erstmals der Begriff der künstlichen Intelligenz geprägt worden war, versuchten Forscher zu beweisen: Menschliche Intelligenz kann so präzis beschrieben werden, dass eine Maschine sie simulieren kann.
Davon überzeugt waren die US-Computerwissenschaftler Allen Newell und Herbert Simon. Sie argumentierten in ihrer «Physical Symbol System Hypothesis» (1976), dass menschliches Denken nichts weniger als die Manipulation von Zeichen sei und deshalb eine Maschine die Möglichkeiten besitze, intelligent zu handeln. Es erschien somit möglich, auch Computern mentale Zustände zuzuschreiben, obwohl sie keinen biologischen Körper besitzen.
Das hielt der Philosoph John Searle für wenig überzeugend. Um Turing und seine Nachfolger zu widerlegen, breitete er ein Gedankenexperiment aus, das heute als «Chinese Room»-Experiment (1980) weltbekannt ist. Darin argumentierte er, dass eine Maschine nur Intelligenz simuliert, selber aber nichts «versteht».
Dies illustrierte er mit dem «chinesischen Zimmer»: Darin sitzt eine Person und erhält Fragen durch einen Schlitz in chinesischer Schrift gereicht. Sie reicht die Antworten ebenfalls in Chinesisch durch den Schlitz hinaus. Sofern diese plausibel erscheinen, entsteht der Eindruck, die Person beherrsche die chinesische Sprache.
Doch in Searles Gedankenexperiment stellt sich heraus, dass die Person in der Kammer über ein für sie verständliches Regelbuch mit Zuordnungen der chinesischen Zeichen verfügt. Sie muss also nur die richtige Antwort auf Chinesisch heraussuchen. Eine Maschine, die lediglich ein solches Programm ausführt, ist für Searle nicht intelligent.
Diese Debatte, die vor Jahrzehnten ihren Anfang nahm, dauert weiter an. Sie dreht sich derzeit darum, ob auch ChatGPT & Co. lediglich menschliche Intelligenz nachahmen und selbst gar nichts «verstehen». Und als wäre dies nicht vertrackt genug, diskutieren Forscher über eine weitere These: Sind diese Sprachbots am Ende gar ein besonders raffinierter umgekehrter Turing-Test? Einer, der nicht die Intelligenz der Maschine misst, sondern vielmehr unsere eigenen Fähigkeiten?
Also: Was uns bei ChatGPT als künstliche Intelligenz erscheint, ist demnach lediglich ein Spiegel, der unsere eigenen Wünsche, Bedürfnisse und kognitiven Fähigkeiten zurückwirft. Je klüger der Interviewer, desto klüger sind seine Befehle und Fragen, und desto klüger erscheint ihm die Maschine.
Ob Maschinen dereinst menschenähnliche Intelligenz erreichen, ist das eine. Ebenso entscheidend ist eine andere Frage: Können Maschinen auch vernünftig handeln? Die Antwort darauf ist wichtig, weil unser Zusammenleben massgeblich auf der Vorstellung des vernünftigen Menschen basiert.
Nur wer vernünftig handelt, trägt für sein Tun die Konsequenzen. Das spiegelt sich exemplarisch im Schweizerischen Zivilgesetzbuch (ZGB). Dort heisst es sinngemäss: Wer keine vernünftige Entscheidung treffen kann, ist nicht urteilsfähig. Er kann keine gültigen Geschäfte abschliessen, kann nicht heiraten und kein Testament aufsetzen.
Diese Vernunftbegabung haben wir bisher explizit den Menschen vorbehalten. Wer sie besitzt, kann in einer – oft auch moralisch aufgeladenen – komplexen Situation eine Güterabwägung vornehmen und zu einem reflektierten Urteil gelangen.
Was, wenn dereinst Maschinen dieselbe Fähigkeit erwerben könnten? Das bezweifeln zwar viele Ethiker und Experten. Doch es gibt auch Hinweise darauf, dass KI zumindest theoretisch bald ähnlich vernünftig handeln könnte wie ein Mensch. So haben chinesische Wissenschaftler bereits vor zwei Jahren im renommierten «Nature»-Magazin ein Modell vorgestellt, das «Vorstellungskraft», «Vernunft» sowie Anzeichen von common sense (gesunder Menschenverstand) besitzt.
Auch sogenannte Large Language Models wie ChatGPT können Antworten liefern, die in menschlichen Ohren vernünftig klingen. Noch hängt die Qualität der maschinellen Antworten allerdings stark davon ab, wie der Mensch die Maschine befragt.
Liefert der Fragesteller ausreichend Kontext, ist ChatGPT durchaus in der Lage, auch unsinnige Fragen (Wie viele Engel passen auf eine Stecknadel?) oder Kontrafaktisches (Wie viele Planeten im Sonnensystem gäbe es, wenn Pluto ein Planet wäre?) zu erkennen und richtig zu beantworten. «Hätte ein Mensch diese Antworten gegeben, würde man sie als vernünftig bezeichnen», schreibt der Neurowissenschaftler Terrence Sejnowski zu einem Versuch mit GPT-3.
Diese Entwicklungen werfen ein Licht auf zwei Bereiche, in denen die Qualität der Entscheidungen von KI-Systemen bald relevant werden könnte: bei den selbstfahrenden Autos und bei den sogenannten Killerrobotern.
Angesichts der rasanten technologischen Fortschritte müssen sich Juristinnen und Juristen, Behördenmitglieder und Fachleute wohl bald damit beschäftigen.
Andererseits: Auch Alan Turing unterschätzte, wie komplex und vielschichtig die menschliche Intelligenz ist. Vielleicht entpuppen sich die fantastischen Prognosen wiederum als Hirngespinste. Immerhin: Es wären menschliche Hirngespinste.
(aargauerzeitung.ch)