Wirtschaft
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Medienprofessor Norbert Bolz bei seinem Auftritt am GDI in Rüschlikon. Bild: AP/PA

Interview

«Wenn wir uns von der Logik befreien, haben wir Raum für eine neue Mystik»

Roboter treffen militärische Entscheidungen, künstliche Intelligenz bestimmt zunehmend unser Gesundheitssystem. Steuern wir auf eine «schöne, neue Welt» zu? Nein, sagt der Medienprofessor Norbert Bolz. Maschinen können zwar besser rechnen als wir, aber sie können keine ethischen Entscheidungen treffen.



Künstliche Intelligenz und Machine Learning werden derzeit als Wunderwaffen gegen alle möglichen Probleme angepriesen. Zu Recht?
Es gibt Bereiche, in denen tatsächlich spektakuläre Fortschritte zu verzeichnen sind. Das betrifft vor allem die Bereiche, in denen wir Normalitäten anstreben.

Woran denken Sie konkret?
An die Gesundheit oder die natürliche Balance des Klimas, beispielsweise. In Bereichen, in denen lebende Systeme von der Normalität abweichen, gibt es einen akuten Bedarf, Dinge zu messen und zu korrigieren. Dazu eignen sich künstliche Intelligenz und Machine Learning hervorragend.

Sie sagen, künstliche Intelligenz eigne sich dazu, einen Normalzustand herzustellen. Nur: Wer definiert diesen Normalzustand?
In den letzten Jahren diskutieren wir immer häufiger darüber, was normal ist. Denken Sie bloss an die sozialen Überwachungssysteme in China. Doch das ist ein Missbrauch durch die Politik. Bei Gesundheit stellt sich diese Frage nicht. Jeder Mensch merkt, wenn es ihm nicht gut geht oder nicht. Deshalb ist die Gesundheit auch der Sektor, in dem künstliche Intelligenz am meisten boomen wird.

«Ethik lässt sich nicht rationalisieren.»

Kann künstliche Intelligenz helfen, die wachsenden ökologischen Probleme zu bewältigen?
Nachhaltigkeit ist zu einem guten Teil messbar. Daher wird die künstliche Intelligenz in der Ökologie sicherlich eine bedeutende Rolle spielen.

In Ian McEwans jüngstem Roman «Maschinen wie ich» entwickelt ein selbstlernender Roboter seine eigene, sehr rigide Moral. Ist das eine reale oder eine fiktive Gefahr?
Die künstliche Intelligenz per se setzt keine Moral durch. Aber es gibt Menschen, die sie dazu benutzen, ihre eigenen moralischen Standards durchzusetzen. Auch im Kultroman «I, Robot» von Isaac Asimov, geht es darum, dass sich eine autonome künstliche Intelligenz entwickelt.

Wie realistisch ist dies?
Ich sehe diese Gefahr nicht. Software-Programme sind stets formalisierte Rationalität. Ethik jedoch lässt sich nicht rationalisieren. Daher wird ein Roboter niemals aus sich selbst eine ethische Entscheidung treffen können.

Bild

Roboter werden Menschen immer ähnlicher.

Was ist mit dem berühmte Dilemma der selbstfahrenden Autos, die im Notfall entscheiden müssen, ob sie ein Kind oder ein Ehepaar überfahren sollen?
Das sind keine ethischen Entscheidungen, da widersprechen sich zwei verschiedene Programmanforderungen. Nochmals: Von künstlicher Intelligenz Ethik zu verlangen, ist Science Fiction.

Was ist mit den Expertensystemen, die zunehmend Ärzte, Richter und andere bei ihren Entscheidungen unterstützen?
Diese Expertensystem sind nichts anderes als gesammelte Erfahrungen. Ein Anwalt beispielsweise muss sich nicht mehr nächtelang durch eine Unzahl von Fällen kämpfen, um einen Entscheid des Bundesgerichts zu finden. Er schafft dies heute in kürzester Zeit per Knopfdruck. Doch hinter den Expertensystemen steckt kein autonomer Entscheidungsprozess.

Das sehen namhafte Experten anders. Im Silicon Valley heisst es heute, die ganze Welt wird zu einem Problem von Voraussagen, und genau das können künstliche Intelligenz und Machine Learning am besten.
Damit bin ich überhaupt nicht einverstanden. Wenn Computer entscheiden, dann ziehen sie logische Konsequenzen aus vorgegebenen Sachverhalten.

«Wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.»

Aber sie fällen, so sagt man, über 90 Prozent aller militärischen Entscheidungen und bestimmen bald sämtliche Börsentransaktionen.
Das mag eindrucksvoll klingen, doch es handelt sich hier um Entscheidungen, die gar keine Entscheidungen sind.

Was sind sie dann?
Rechnungen. Menschliche Entscheidungen sind ethisch. Sie müssen sich entscheiden. Sie gehen eine eigene, selbstständige Wertbindung ein. Niemand kann ihnen das abnehmen. Das können Computer nicht – und das sollen sie auch gar nicht können.

Was aber ist mit Drohnen, die selbst entscheiden, wann sie schiessen und wann nicht?
Das sind Optimierungsstrategien. Der Computer rechnet die verschiedenen Szenarien aus und wählt dann beste aus. Aber nochmals: Das sind keine Entscheidungen, sondern Rechnungen. Die menschliche Entscheidung ist ethisch und damit nicht formalisierbar. Es geht daher immer mehr darum, künstliche und menschliche Intelligenz zu kombinieren.

Wie soll das konkret aussehen?
So wie Unternehmen Dinge, die nicht zu ihrer Kernkompetenz gehören, outsourcen, können Menschen Aufgaben outsourcen, die Maschinen besser erledigen können. Dazu gehören alle formalisierbaren Leistungen.

Bild

Klavierspielen können Roboter bereits.

Machen wir uns so nicht selbst dumm? Wir können nicht mehr rechnen, bald nicht mehr lesen, schon gar keine Karten.
Dafür könnten wir dann im Gegenzug eine neue Form von «Geist» kultivieren.

Das tönt doch eher esoterisch.
Mag sein. Doch wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.

Wir lassen also die Maschinen mit ihrer künstlichen Intelligenz unseren Alltag regeln und heben in neue Sphären ab?
Genau. Ich finde das keine uninteressante Perspektive. Wenn die Maschinen die lästigen logischen Probleme besser bewältigen können, dann lasst sie doch machen. Das könnte doch für uns Menschen neue intellektuelle Potentiale freisetzen.

Das Unvorhergesehene, die «schwarzen Schwäne», kriegen wir jedoch auch so nicht in den Griff, sagen Sie. Weshalb?
Weil sie schlicht und ergreifend zu komplex sind. Unsere Welt und unsere System werden immer komplexer. Das bedeutet, dass die Abhängigkeiten in diesen Systemen so vieldimensional sind, dass es unmöglich ist, sie in irgendeiner Weise nachzurechnen oder gar zu antizipieren.

Woran denken Sie konkret?
An 9/11, die Atomkatastrophe von Fukushima, den Untergang der Titanic, den Fall der Berliner Mauer, um nur ein paar Beispiele zu nennen. Sie alle gehören in den Bereich, den die Amerikaner «the unknown unknown» nennen, Dinge, von denen wir nicht wissen, dass wir sie nicht wissen. Wir haben nach wir vor viele blinde Flecken in unserer Weltsicht, und das kann auch gar nicht anders sein.

Zusammenfassend können wir sagen: Künstliche Intelligenz wird dafür sorgen, dass wir länger und gesünder leben, sie wird uns helfen, unsere Verkehrsprobleme zu lösen. Aber sie wird niemals die blinden Flecken in unserem Denken beseitigen können.
So kann man es sagen. Die künstliche Intelligenz wird uns entlasten und uns vielleicht ermöglichen, neue Formen des Denkens zu entwickeln. Und was ist mit dem politischen Missbrauch? Die Gefahr lässt sich nur bewältigen, wenn wir zunehmend selbst zu kompetenten Mitspielern werden. Wir müssen nicht zu programmierten Menschen werden, sondern zu Menschen, die selbst programmieren.

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com (umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Diese selbst-steuernde Drohne lernt durch Algorithmen

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

47 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
Lienat
10.06.2019 16:00registriert November 2017
Solange niemand erklären kann, wie in unserem Hirn durch blosse Verschaltung von ein paar Dutzend Milliarden Neuronen ein selbstbewusster Geist entsteht, ist die Diskussion um die Entscheidungsfindung von Maschinen zielich müssig. Auch wenn der Begriff "künstliche Intelligenz" etwas anderes sugeriert, sind selbst die komplexesten Computer nichts anderes als dumme Maschinen, welche mit sturen Algorithmen mehr oder weniger nützliche Informationen aus grossen Datenbeständen ableiten.
579
Melden
Zum Kommentar
Linus Luchs
10.06.2019 15:25registriert July 2014
Eigenartig, wie Professor Bolz die Ethik von künstlicher Intelligenz trennen kann. Mit Verlaub, mir erscheint das naiv. Entscheidungen werden immer häufiger mit dem Verweis auf Daten gerechtfertigt. Ich denke an Angestellte, die den Job verlieren, weil "das System" angebliche Ineffizienz aufgezeigt hat. Oder betreffend Gesundheit: Die Krankenkasse sieht im persönlichen Datenprofil des Versicherten X ein genetisch bedingtes Herzinfarktrisiko, gleichzeitig hat er zehn Kilogramm Übergewicht. Darf ihn die Kasse unter Druck setzen? Die Prämie erhöhen? Schon stecken wir mitten in ethischen Fragen.
6521
Melden
Zum Kommentar
Triple A
10.06.2019 14:58registriert November 2018
Gerade wenn man die Werke vom zitierten Isaac Asimov und vom anderen SF-Autoren liest, wird eines klar. Hr. Bolz lässt sich von Wunschvorstellungen leiten. Es gibt keinen logischen Grund weshalb komplexe neuronale Netzwerke z.B. kein Selbstbewusstsein entwickeln können. -Ausser man man ist äusserst arrogant oder man glaubt (!) der Mensch sei einzigartig. Aber das hat beides wenig mit Wissenschaft zu tun!
2118
Melden
Zum Kommentar
47

Vergiftete Böden und Kinderarbeit – was sich Schweizer Firmen im Ausland alles erlauben

Am 29. November stimmt die Schweiz über die Konzern-Initiative ab. Sie soll Schweizer Unternehmen bei Rechtsverstössen im Ausland stärker haftbar machen. Höchste Zeit also, um sich ein paar Beispiele von bis jetzt ungeahndeten Menschenrechts- und Umweltvergehen anzusehen.

Nach der Abstimmung ist vor der Abstimmung: Bereits am 29. November kann das Schweizer Stimmvolk erneut wählen gehen. Zum Beispiel über die Konzernverantwortungsintiative. Diese fordert, dass globale Konzerne mit Sitz in der Schweiz einem zwingenden Regelwerk unterstellt sind, wenn es um die Beachtung von Menschenrechten und Umweltschutz bei ihren weltweiten Tätigkeiten geht.

Oder einfach gesagt: Schweizer Unternehmen und ihre Tochterfirmen könnten für ihre Tätigkeiten im Ausland rechtlich …

Artikel lesen
Link zum Artikel