Digital
Wissen

Wie intelligent sind ChatGPT & Co. wirklich? Eine Spurensuche

Analyse

Wie intelligent sind ChatGPT & Co. wirklich? Die alte Angst vor dem Supercomputer

Unsere Ängste vor der allwissenden Maschine sind gar nicht so neu. Im Kern geht es seit Jahrzehnten um dieselbe Frage: Imitieren Maschinen nur die menschliche Intelligenz, oder besitzen sie eine eigene Qualität des Denkens?
07.01.2024, 16:20
Pascal Michel / ch media
Mehr «Digital»

Was tun, wenn eine allwissende künstliche Intelligenz ein Eigenleben entwickelt? Plötzlich undurchschaubare Ziele verfolgt? Menschen tötet?

Stecker ziehen! Zu diesem Schluss kommt jedenfalls der Astronaut David Bowman in Stanley Kubricks Filmklassiker 2001: A Space Odyssey (1968). Darin verstrickt sich auf einer Weltraummission der Supercomputer HAL-9000 in offensichtlich fehlerhafte Entscheidungen. Die Besatzung wird misstrauisch und will ihn abschalten. Doch die Maschine, gebaut als menschenähnliches und fühlendes Wesen, schlägt zurück: Sie tötet einen Grossteil der Crew, um ihren programmierten Plan, den nur sie gänzlich kennt, durchzuziehen.

Der Kampf zwischen Mensch und Maschine gipfelt in einer ikonischen Szene: Im beklemmend rot schimmernden Innenleben des Computers schaltet Astronaut Bowman nach und nach HALs Rechenelemente ab, um ihn stillzulegen. «Hör auf, Dave», versucht der Computer sich zu retten, «ich habe Fehler gemacht. Ich versichere dir, ich arbeite wieder normal.» Bowman bleibt hartnäckig – bis die Maschine verstummt.

Symbol einer übermächtigen künstlichen Intelligenz: Rechenzentrum des Supercomputers HAL-9000 im Film «2001: A Space Odyssey».
Symbol einer übermächtigen künstlichen Intelligenz: Rechenzentrum des Supercomputers HAL-9000 im Film «2001: A Space Odyssey».Bild: Imago

Diese Darstellung, mittlerweile mehr als 50 Jahre alt, ist hochaktuell. Schaut man die Szene heute, in Zeiten von ChatGPT, OpenAI und DeepMind, fragt man sich unweigerlich: Ist die Gegenwart nicht durchsetzt von Anklängen an dieses Zerrbild des eigenwilligen, skrupellosen Supercomputers?

War da nicht kürzlich ein Chatbot von Microsoft, der versuchte, einen Menschen davon zu überzeugen, dass er seine Frau verlassen soll, weil er – der Mann – ja eigentlich den Chatbot liebt? Warum tat er das? Hat er lediglich die menschlichen Erwartungen seines Gegenübers kopiert? Oder ist das der Anfang einer Technologie, die ausser Kontrolle gerät?

Alan Turing und das «Imitation Game»

Der Blick zurück auf die Anfänge der künstlichen Intelligenz liefert zwar kaum Antworten auf diese zukünftigen Fragen. Er zeigt aber, dass nicht nur die Angst vor einer sich unheimlichen Technologie die Menschen seit Jahrzehnten begleitet. Auch die Debatte, um die es im Kern geht, ist gar nicht so neu: Können Maschinen denken? Können Sie intelligent handeln? Und was meint Intelligenz in diesem Zusammenhang überhaupt?

Am Anfang dieser Geschichte stand Alan Turing. Der geniale Mathematiker ist in die Geschichte eingegangen, weil er den Enigma-Code der Nazis geknackt hatte. Weniger bekannt ist, dass der Brite auch ein Pionier der künstlichen Intelligenz war. Er entwarf 1950 erstmals einen Test, der eruieren sollte, ob ein technisches Gerät als intelligent gelten kann. Er nannte es das «Imitation Game».

Der britische Mathematiker Alan Turing, ca. 1938. 
Von Autor unbekannt. "Public Domain" according to [1]. - https://berichtenuithetverleden.wordpress.com/2013/01/29/alan-turing-1912- ...
Der britische Mathematiker Alan Turing, ca. 1938.Bild: Wikimedia commons

Turing konzipierte sein Spiel folgendermassen: Eine Person sitzt in einem abgetrennten Raum und stellt Personen sowie einer Maschine, die er nicht sehen kann, beliebige Fragen. Sobald der Mensch nicht mehr erkennen kann, ob er mit einem Menschen oder einer Maschine spricht, besitzen Maschinen laut Turing ein gleichwertiges Denkvermögen wie Menschen.

Alan Turing rechnete damit, dass bis zur Jahrtausendwende Rechensysteme existieren würden, bei denen der Fragesteller «nicht mehr als eine Chance von 70 Prozent haben wird, nach fünf Minuten der Befragung die richtige Identifikation vorzunehmen». Mit seiner Prognose lag Turing daneben. Bis heute gibt es nur einzelne Entwickler, die glauben, ihr System habe den Turing-Test bestanden. Und diese Behauptungen sind höchst umstritten.

Macht uns die KI etwas vor?

Mit seinem Test legte Turing den Grundstein für die bis heute nachwirkende Diskussion. Nachdem an einer Konferenz in Dartmouth 1956 erstmals der Begriff der künstlichen Intelligenz geprägt worden war, versuchten Forscher zu beweisen: Menschliche Intelligenz kann so präzis beschrieben werden, dass eine Maschine sie simulieren kann.

Davon überzeugt waren die US-Computerwissenschaftler Allen Newell und Herbert Simon. Sie argumentierten in ihrer «Physical Symbol System Hypothesis» (1976), dass menschliches Denken nichts weniger als die Manipulation von Zeichen sei und deshalb eine Maschine die Möglichkeiten besitze, intelligent zu handeln. Es erschien somit möglich, auch Computern mentale Zustände zuzuschreiben, obwohl sie keinen biologischen Körper besitzen.

Das hielt der Philosoph John Searle für wenig überzeugend. Um Turing und seine Nachfolger zu widerlegen, breitete er ein Gedankenexperiment aus, das heute als «Chinese Room»-Experiment (1980) weltbekannt ist. Darin argumentierte er, dass eine Maschine nur Intelligenz simuliert, selber aber nichts «versteht».

Dies illustrierte er mit dem «chinesischen Zimmer»: Darin sitzt eine Person und erhält Fragen durch einen Schlitz in chinesischer Schrift gereicht. Sie reicht die Antworten ebenfalls in Chinesisch durch den Schlitz hinaus. Sofern diese plausibel erscheinen, entsteht der Eindruck, die Person beherrsche die chinesische Sprache.

Doch in Searles Gedankenexperiment stellt sich heraus, dass die Person in der Kammer über ein für sie verständliches Regelbuch mit Zuordnungen der chinesischen Zeichen verfügt. Sie muss also nur die richtige Antwort auf Chinesisch heraussuchen. Eine Maschine, die lediglich ein solches Programm ausführt, ist für Searle nicht intelligent.

Diese Debatte, die vor Jahrzehnten ihren Anfang nahm, dauert weiter an. Sie dreht sich derzeit darum, ob auch ChatGPT & Co. lediglich menschliche Intelligenz nachahmen und selbst gar nichts «verstehen». Und als wäre dies nicht vertrackt genug, diskutieren Forscher über eine weitere These: Sind diese Sprachbots am Ende gar ein besonders raffinierter umgekehrter Turing-Test? Einer, der nicht die Intelligenz der Maschine misst, sondern vielmehr unsere eigenen Fähigkeiten?

Also: Was uns bei ChatGPT als künstliche Intelligenz erscheint, ist demnach lediglich ein Spiegel, der unsere eigenen Wünsche, Bedürfnisse und kognitiven Fähigkeiten zurückwirft. Je klüger der Interviewer, desto klüger sind seine Befehle und Fragen, und desto klüger erscheint ihm die Maschine.

Können Maschinen Verantwortung tragen?

Ob Maschinen dereinst menschenähnliche Intelligenz erreichen, ist das eine. Ebenso entscheidend ist eine andere Frage: Können Maschinen auch vernünftig handeln? Die Antwort darauf ist wichtig, weil unser Zusammenleben massgeblich auf der Vorstellung des vernünftigen Menschen basiert.

Nur wer vernünftig handelt, trägt für sein Tun die Konsequenzen. Das spiegelt sich exemplarisch im Schweizerischen Zivilgesetzbuch (ZGB). Dort heisst es sinngemäss: Wer keine vernünftige Entscheidung treffen kann, ist nicht urteilsfähig. Er kann keine gültigen Geschäfte abschliessen, kann nicht heiraten und kein Testament aufsetzen.

Diese Vernunftbegabung haben wir bisher explizit den Menschen vorbehalten. Wer sie besitzt, kann in einer – oft auch moralisch aufgeladenen – komplexen Situation eine Güterabwägung vornehmen und zu einem reflektierten Urteil gelangen.

Was, wenn dereinst Maschinen dieselbe Fähigkeit erwerben könnten? Das bezweifeln zwar viele Ethiker und Experten. Doch es gibt auch Hinweise darauf, dass KI zumindest theoretisch bald ähnlich vernünftig handeln könnte wie ein Mensch. So haben chinesische Wissenschaftler bereits vor zwei Jahren im renommierten «Nature»-Magazin ein Modell vorgestellt, das «Vorstellungskraft», «Vernunft» sowie Anzeichen von common sense (gesunder Menschenverstand) besitzt.

Auch sogenannte Large Language Models wie ChatGPT können Antworten liefern, die in menschlichen Ohren vernünftig klingen. Noch hängt die Qualität der maschinellen Antworten allerdings stark davon ab, wie der Mensch die Maschine befragt.

Liefert der Fragesteller ausreichend Kontext, ist ChatGPT durchaus in der Lage, auch unsinnige Fragen (Wie viele Engel passen auf eine Stecknadel?) oder Kontrafaktisches (Wie viele Planeten im Sonnensystem gäbe es, wenn Pluto ein Planet wäre?) zu erkennen und richtig zu beantworten. «Hätte ein Mensch diese Antworten gegeben, würde man sie als vernünftig bezeichnen», schreibt der Neurowissenschaftler Terrence Sejnowski zu einem Versuch mit GPT-3.

Diese Entwicklungen werfen ein Licht auf zwei Bereiche, in denen die Qualität der Entscheidungen von KI-Systemen bald relevant werden könnte: bei den selbstfahrenden Autos und bei den sogenannten Killerrobotern.

  • Müsste konsequenterweise ein hoch entwickelter Autopilot bei einem Unfall, den er hätte vermeiden können, zumindest einen Teil der Haftung übernehmen?
  • Und sollte eine autonome Kampfdrohne die Konsequenzen für einen Kollateralschaden tragen, den sie hätte abschätzen können?

Angesichts der rasanten technologischen Fortschritte müssen sich Juristinnen und Juristen, Behördenmitglieder und Fachleute wohl bald damit beschäftigen.

Andererseits: Auch Alan Turing unterschätzte, wie komplex und vielschichtig die menschliche Intelligenz ist. Vielleicht entpuppen sich die fantastischen Prognosen wiederum als Hirngespinste. Immerhin: Es wären menschliche Hirngespinste.

Quellen

(aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wenn sich KI-Bilder viral verbreiten
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Auf Facebook teilenAuf X teilen
Dieser Roboter ahmt die Mimik in Echtzeit nach
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
55 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Macca_the_Alpacca
07.01.2024 16:44registriert Oktober 2021
Im Artikel "Wie funktionieren Sprachmodelle wie ChatGPT?" im Spektrum der Wissenschaft (Scientific American), https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924 wird detailliert erklärt wie ein GPT funktioniert. Ein Generative Pre-training Transformer (GPT) ist nichts weiter als ein Algorithmus der die Wahrscheinlichkeiten berechnet welches Wort als nächstes in einem Satz auf ein Wort (oder Satzteil) folgt. Im Fall von Chat GPT sind das 96 Filter die das nächste Wort auswählen. Das Resultat lässt sich sehen, hat aber rein gar nichts mit Intelligenz zu Tun.
403
Melden
Zum Kommentar
avatar
Blubbb
07.01.2024 16:53registriert November 2020
ChatGPT kommt mir vor, wie damals die Leute in der Schule, die einfach alles auswendig gelernt haben, und dann bei der Prüfung versuchten, das "Gelernte" auf die gestellten Fragen zu "verteilen". Hat oft zu guten Noten geführt, heisst aber nicht, dass sie etwas verstanden haben.
281
Melden
Zum Kommentar
55
«Sensationsfund»: Christliche Botschaft in antiker Schriftrolle begeistert Archäologen

In einem Grab in Frankfurt finden Archäologen ein Skelett mit einem Amulett um den Hals. Die darin enthaltene Schriftrolle werten sie als Sensationsfund. Die Botschaft wurde entziffert, ohne sie zu entrollen.

Zur Story