Wirtschaft
Digital

«Von künstlicher Intelligenz Ethik zu verlangen, ist Science Fiction»

Medienprofessor Norbert Bolz bei seinem Auftritt am GDI in Rüschlikon.
Medienprofessor Norbert Bolz bei seinem Auftritt am GDI in Rüschlikon.Bild: AP/PA
Interview

«Wenn wir uns von der Logik befreien, haben wir Raum für eine neue Mystik»

Roboter treffen militärische Entscheidungen, künstliche Intelligenz bestimmt zunehmend unser Gesundheitssystem. Steuern wir auf eine «schöne, neue Welt» zu? Nein, sagt der Medienprofessor Norbert Bolz. Maschinen können zwar besser rechnen als wir, aber sie können keine ethischen Entscheidungen treffen.
10.06.2019, 14:3110.06.2019, 16:20
Mehr «Wirtschaft»

Künstliche Intelligenz und Machine Learning werden derzeit als Wunderwaffen gegen alle möglichen Probleme angepriesen. Zu Recht?
Es gibt Bereiche, in denen tatsächlich spektakuläre Fortschritte zu verzeichnen sind. Das betrifft vor allem die Bereiche, in denen wir Normalitäten anstreben.

Woran denken Sie konkret?
An die Gesundheit oder die natürliche Balance des Klimas, beispielsweise. In Bereichen, in denen lebende Systeme von der Normalität abweichen, gibt es einen akuten Bedarf, Dinge zu messen und zu korrigieren. Dazu eignen sich künstliche Intelligenz und Machine Learning hervorragend.

Sie sagen, künstliche Intelligenz eigne sich dazu, einen Normalzustand herzustellen. Nur: Wer definiert diesen Normalzustand?
In den letzten Jahren diskutieren wir immer häufiger darüber, was normal ist. Denken Sie bloss an die sozialen Überwachungssysteme in China. Doch das ist ein Missbrauch durch die Politik. Bei Gesundheit stellt sich diese Frage nicht. Jeder Mensch merkt, wenn es ihm nicht gut geht oder nicht. Deshalb ist die Gesundheit auch der Sektor, in dem künstliche Intelligenz am meisten boomen wird.

«Ethik lässt sich nicht rationalisieren.»

Kann künstliche Intelligenz helfen, die wachsenden ökologischen Probleme zu bewältigen?
Nachhaltigkeit ist zu einem guten Teil messbar. Daher wird die künstliche Intelligenz in der Ökologie sicherlich eine bedeutende Rolle spielen.

In Ian McEwans jüngstem Roman «Maschinen wie ich» entwickelt ein selbstlernender Roboter seine eigene, sehr rigide Moral. Ist das eine reale oder eine fiktive Gefahr?
Die künstliche Intelligenz per se setzt keine Moral durch. Aber es gibt Menschen, die sie dazu benutzen, ihre eigenen moralischen Standards durchzusetzen. Auch im Kultroman «I, Robot» von Isaac Asimov, geht es darum, dass sich eine autonome künstliche Intelligenz entwickelt.

Wie realistisch ist dies?
Ich sehe diese Gefahr nicht. Software-Programme sind stets formalisierte Rationalität. Ethik jedoch lässt sich nicht rationalisieren. Daher wird ein Roboter niemals aus sich selbst eine ethische Entscheidung treffen können.

Roboter werden Menschen immer ähnlicher.
Roboter werden Menschen immer ähnlicher.

Was ist mit dem berühmte Dilemma der selbstfahrenden Autos, die im Notfall entscheiden müssen, ob sie ein Kind oder ein Ehepaar überfahren sollen?
Das sind keine ethischen Entscheidungen, da widersprechen sich zwei verschiedene Programmanforderungen. Nochmals: Von künstlicher Intelligenz Ethik zu verlangen, ist Science Fiction.

Was ist mit den Expertensystemen, die zunehmend Ärzte, Richter und andere bei ihren Entscheidungen unterstützen?
Diese Expertensystem sind nichts anderes als gesammelte Erfahrungen. Ein Anwalt beispielsweise muss sich nicht mehr nächtelang durch eine Unzahl von Fällen kämpfen, um einen Entscheid des Bundesgerichts zu finden. Er schafft dies heute in kürzester Zeit per Knopfdruck. Doch hinter den Expertensystemen steckt kein autonomer Entscheidungsprozess.

Das sehen namhafte Experten anders. Im Silicon Valley heisst es heute, die ganze Welt wird zu einem Problem von Voraussagen, und genau das können künstliche Intelligenz und Machine Learning am besten.
Damit bin ich überhaupt nicht einverstanden. Wenn Computer entscheiden, dann ziehen sie logische Konsequenzen aus vorgegebenen Sachverhalten.

«Wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.»

Aber sie fällen, so sagt man, über 90 Prozent aller militärischen Entscheidungen und bestimmen bald sämtliche Börsentransaktionen.
Das mag eindrucksvoll klingen, doch es handelt sich hier um Entscheidungen, die gar keine Entscheidungen sind.

Was sind sie dann?
Rechnungen. Menschliche Entscheidungen sind ethisch. Sie müssen sich entscheiden. Sie gehen eine eigene, selbstständige Wertbindung ein. Niemand kann ihnen das abnehmen. Das können Computer nicht – und das sollen sie auch gar nicht können.

Was aber ist mit Drohnen, die selbst entscheiden, wann sie schiessen und wann nicht?
Das sind Optimierungsstrategien. Der Computer rechnet die verschiedenen Szenarien aus und wählt dann beste aus. Aber nochmals: Das sind keine Entscheidungen, sondern Rechnungen. Die menschliche Entscheidung ist ethisch und damit nicht formalisierbar. Es geht daher immer mehr darum, künstliche und menschliche Intelligenz zu kombinieren.

Wie soll das konkret aussehen?
So wie Unternehmen Dinge, die nicht zu ihrer Kernkompetenz gehören, outsourcen, können Menschen Aufgaben outsourcen, die Maschinen besser erledigen können. Dazu gehören alle formalisierbaren Leistungen.

Klavierspielen können Roboter bereits.
Klavierspielen können Roboter bereits.

Machen wir uns so nicht selbst dumm? Wir können nicht mehr rechnen, bald nicht mehr lesen, schon gar keine Karten.
Dafür könnten wir dann im Gegenzug eine neue Form von «Geist» kultivieren.

Das tönt doch eher esoterisch.
Mag sein. Doch wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.

Wir lassen also die Maschinen mit ihrer künstlichen Intelligenz unseren Alltag regeln und heben in neue Sphären ab?
Genau. Ich finde das keine uninteressante Perspektive. Wenn die Maschinen die lästigen logischen Probleme besser bewältigen können, dann lasst sie doch machen. Das könnte doch für uns Menschen neue intellektuelle Potentiale freisetzen.

Das Unvorhergesehene, die «schwarzen Schwäne», kriegen wir jedoch auch so nicht in den Griff, sagen Sie. Weshalb?
Weil sie schlicht und ergreifend zu komplex sind. Unsere Welt und unsere System werden immer komplexer. Das bedeutet, dass die Abhängigkeiten in diesen Systemen so vieldimensional sind, dass es unmöglich ist, sie in irgendeiner Weise nachzurechnen oder gar zu antizipieren.

Woran denken Sie konkret?
An 9/11, die Atomkatastrophe von Fukushima, den Untergang der Titanic, den Fall der Berliner Mauer, um nur ein paar Beispiele zu nennen. Sie alle gehören in den Bereich, den die Amerikaner «the unknown unknown» nennen, Dinge, von denen wir nicht wissen, dass wir sie nicht wissen. Wir haben nach wir vor viele blinde Flecken in unserer Weltsicht, und das kann auch gar nicht anders sein.

Zusammenfassend können wir sagen: Künstliche Intelligenz wird dafür sorgen, dass wir länger und gesünder leben, sie wird uns helfen, unsere Verkehrsprobleme zu lösen. Aber sie wird niemals die blinden Flecken in unserem Denken beseitigen können.
So kann man es sagen. Die künstliche Intelligenz wird uns entlasten und uns vielleicht ermöglichen, neue Formen des Denkens zu entwickeln. Und was ist mit dem politischen Missbrauch? Die Gefahr lässt sich nur bewältigen, wenn wir zunehmend selbst zu kompetenten Mitspielern werden. Wir müssen nicht zu programmierten Menschen werden, sondern zu Menschen, die selbst programmieren.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Diese selbst-steuernde Drohne lernt durch Algorithmen
Video: srf
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
48 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Lienat
10.06.2019 16:00registriert November 2017
Solange niemand erklären kann, wie in unserem Hirn durch blosse Verschaltung von ein paar Dutzend Milliarden Neuronen ein selbstbewusster Geist entsteht, ist die Diskussion um die Entscheidungsfindung von Maschinen zielich müssig. Auch wenn der Begriff "künstliche Intelligenz" etwas anderes sugeriert, sind selbst die komplexesten Computer nichts anderes als dumme Maschinen, welche mit sturen Algorithmen mehr oder weniger nützliche Informationen aus grossen Datenbeständen ableiten.
00
Melden
Zum Kommentar
avatar
Linus Luchs
10.06.2019 15:25registriert Juli 2014
Eigenartig, wie Professor Bolz die Ethik von künstlicher Intelligenz trennen kann. Mit Verlaub, mir erscheint das naiv. Entscheidungen werden immer häufiger mit dem Verweis auf Daten gerechtfertigt. Ich denke an Angestellte, die den Job verlieren, weil "das System" angebliche Ineffizienz aufgezeigt hat. Oder betreffend Gesundheit: Die Krankenkasse sieht im persönlichen Datenprofil des Versicherten X ein genetisch bedingtes Herzinfarktrisiko, gleichzeitig hat er zehn Kilogramm Übergewicht. Darf ihn die Kasse unter Druck setzen? Die Prämie erhöhen? Schon stecken wir mitten in ethischen Fragen.
00
Melden
Zum Kommentar
avatar
Triple A
10.06.2019 14:58registriert November 2018
Gerade wenn man die Werke vom zitierten Isaac Asimov und vom anderen SF-Autoren liest, wird eines klar. Hr. Bolz lässt sich von Wunschvorstellungen leiten. Es gibt keinen logischen Grund weshalb komplexe neuronale Netzwerke z.B. kein Selbstbewusstsein entwickeln können. -Ausser man man ist äusserst arrogant oder man glaubt (!) der Mensch sei einzigartig. Aber das hat beides wenig mit Wissenschaft zu tun!
00
Melden
Zum Kommentar
48
T-Mobile USA bestätigt Hackerangriffe – mutmasslich aus China
Einer der grössten Mobilfunkanbieter in den Vereinigten Staaten meldet Hackerangriffe auf Systeme des Konzerns in den vergangenen Wochen. Kundendaten seien nicht gestohlen worden.

Der US-Telekommunikationskonzern T-Mobile hat mehrere Hackerangriffe auf seine Systeme in den vergangenen Wochen bestätigt.

Zur Story