Hol dir jetzt die beste News-App der Schweiz!
- watson: 4,5 von 5 Sternchen im App-Store ☺
- Tages-Anzeiger: 3,5 von 5 Sternchen
- Blick: 3 von 5 Sternchen
- 20 Minuten: 3 von 5 Sternchen
Du willst nur das Beste? Voilà:
Wir schreiben eine nicht allzu ferne Zukunft: Eine Gruppe von Kindern überquert unerwartet die Strasse. Ein selbstfahrendes Auto rast auf sie zu und kann nicht mehr rechtzeitig bremsen. Was soll das Auto tun? Links aufs Trottoir ausweichen, wo gerade ein Rentner steht? Oder rechts in die Wand fahren und den Tod der Insassen in Kauf nehmen?
Mit diesen Fragen beschäftigen sich die Forschungsabteilungen der Autohersteller schon länger. Forscher der Ecole d'économie de Toulouse haben nun mit einer Umfrage versucht, den Puls des Volkes zu fühlen.
Das Team unter dem Psychologen Jean-François Bonnefon konfrontierte 900 mit ethischen Fragen, die sich am altbekannten Trolley-Problem (siehe Infobox) orientieren. Das Resultat: 75 Prozent der Leute sprechen sich dafür aus, dass das Auto den Insassen tötet, sogar um nur einen Fussgänger zu retten.
Viel zögerlicher reagierten die Teilnehmer, als es darum ging, ob sie ein Auto mit einer solchen Programmierung kaufen würden – denn das würde ja bedeuten, dass das Fahrzeug sie im Falle eines Unfalls «opfern» könnte.
Maschinen-Ethiker Oliver Bendel erläutert im Gespräch, wo die Tücken einer solchen Programmierung liegen und warum die Debatte darüber unbedingt in der Öffentlichkeit stattfinden muss.
Herr Bendel, kann eine Maschine ethische Entscheidungen treffen?
Oliver Bendel: Auf jeden Fall. Man kann einer Maschine moralische Regeln beibringen, die sie sklavisch anwendet. Oder man kann sie lernen lassen und ihr die Möglichkeit geben, eigene Entscheidungen zu treffen.
Die Maschine kann aber nicht intuitiv handeln wie der Mensch. Da fehlt doch etwas.
Die Moral des Menschen setzt sich aus verschiedenen Komponenten zusammen: Ein Teil ist angeboren, einen Teil erwirbt man durchs Umfeld, ein Teil entsteht aus rationalem Denken. Und dort kann die Maschine durchaus mithalten.
Soll also ein Auto bei einem Unfall über Leben und Tod der Beteiligten entscheiden?
Ich halte das für keine gute Idee. Das würde auch unser Wertesystem durcheinanderbringen. Wenn ein autonomes Auto entscheidet, den Lenker zugunsten zweier Fussgänger oder einen Rentner zugunsten eines Kindes zu «opfern», sprechen wir von der Anwendung bestimmter utilitaristischer Prinzipien. In unserer Kultur hat jedoch das individuelle Leben einen sehr hohen Stellenwert.
Das Auto soll also in die Menschengruppe rasen.
Es gibt Leute die sagen, das Auto soll in eine Wand fahren, weil der Besitzer des Autos die Verantwortung trägt. Aber was, wenn mehrere Personen im Fahrzeug sind? Darunter Kinder? Sind sie auch mitverantwortlich? Und kann man wirklich noch von Verantwortung sprechen, wenn man dem Fahrer das Fahrzeug aufgedrängt hat?
Gute Frage ...
Ausserdem tauchen bei der Verarbeitung des Unfalls neue Probleme auf. Auf wen sollen die Eltern ihre Wut richten, wenn ein Auto entschieden hat, ihr Kind umzufahren? Es mag sich bequem anhören, als Autofahrer die Verantwortung aus der Hand zu geben. Aber ich glaube nicht, dass man in einem solchen Fall besser schläft.
Selbstfahrende Autos gelten als Hoffnung, Unfälle drastisch zu reduzieren. Wenn sie alle heiklen Situationen dem Menschen überlassen, dann bleibt aber alles beim Alten.
Es gibt weltweit jedes Jahr eine Million Verkehrstote. Das sind viel zu viele. Ich bin dafür, dass wir die Fahrerassistenzsysteme, die wir jetzt schon haben, weiter ausbauen. Bevor ich in ein Stauende rase, darf mein Fahrzeug eine Vollbremsung machen, ohne mich zu fragen. Der Fahrer soll aber eine gewisse Kontrolle über sein Fahrzeug behalten dürfen.
Nicht so wie bei den Google-Autos, die weder Pedale noch Lenkrad haben.
Wo bleibt da der Spass? Vielleicht will ich mich von meinem Auto von Genua nach Mailand fahren lassen, auf der Alpenstrasse aber das Steuer übernehmen. Einfach, weil es mir Freude bereitet und weil ich meine Fähigkeiten einsetzen kann. Maschinen können uns das Leben erleichtern, aber wenn sie alles machen, wird es irgendwann todlangweilig.
So oder so, die selbstfahrenden Autos kommen. Wer entscheidet über ihre Moral?
Mit diesen Fragen beschäftigt sich unter anderem die Maschinenethik, eine Disziplin, in der Philosophen, Experten für Künstliche Intelligenz und Informatiker zusammenarbeiten. Wir brauchen zudem eine breite öffentliche Debatte.
Könnte man den Besitzer des Autos bestimmen lassen, welches Moralprogramm er will?
Das ist eine interessante Idee, aber das würde kaum akzeptiert. Kann sich dann jemand, der es sich leisten kann, die Vorfahrt kaufen? Oder den Überlebensbonus im Falle eines Crashs? Ich glaube, es funktioniert nur, wenn alle autonomen Fahrzeuge mit einem ähnlichen System ausgerüstet sind.
Da ist die Autoindustrie gefragt. Was sagt sie dazu?
Was in den Forschungsabteilungen der Autohersteller passiert, ist leider topsecret. Das ist gefährlich. Solche Entscheidungen dürfen nicht von oben herab gefällt werden. In Deutschland droht dies, weil autonome Fahrzeuge ein enormes Prestigeprojekt sind. Dank der grossen Unterstützung der Politik sind in Deutschland seit einem Monat autonome LKWs unterwegs. Wenn die Gesellschaft bei dem Thema nicht mitreden kann, wird es Widerstand geben.
Das heisst?
Als Folge der industriellen Revolution gab es die Maschinenstürmer, die Maschinen zerstört haben, weil sie sich in ihrer Existenz bedroht fühlten. Es könnte zu einer ähnlichen Protestbewegung kommen. Nur würden in diesem Fall Autos brennen.
Wie können wir das verhindern?
Ich sehe hier nur eine Lösung: Man muss den normalen Verkehr von den autonomen Autos trennen. Das könnte man mit eigenen Strassen oder Fahrspuren, ähnlich den Velowegen, machen. Oder man könnte selbstfahrende Autos nur zu bestimmten Zeiten fahren lassen. Nur wenn ein Technologieskeptiker weiss, dass keine Roboterautos unvermittelt um die nächste Ecke kommen, wird er sich mit deren Existenz anfreunden.
Die Technik schreitet schnell voran. Hinkt die ethische Debatte hinterher?
Nein, im Gegenteil. Für Technikphilosophen, die sich damit beschäftigen, ist dies eine sehr spannende Zeit. Erstmals in ihrer über 2000-jährigen Geschichte ist die Ethik eine Gestaltungsdisziplin. Wir können die Realität mitprägen, statt sie nur zu beschreiben und zu hinterfragen.
Das beschränkt sich nicht nur auf Autos.
Richtig. Das Pentagon investiert beispielsweise viel Geld in die Maschinenethik. Auch bei Kriegsrobotern und -drohnen stellen sich ethische Fragen. Nehmen wir an, ein Roboter spürt einen Top-Terroristen auf, den er töten soll – im Haus sind aber auch 30 Kinder. Was tut er?
Ethik für Killerroboter. Das hört sich zynisch an.
Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Kampfroboter nicht, sie brandschatzen nicht, sie plündern nicht. Obwohl ich zugeben muss, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint, sind sie mir deswegen doch nicht sympathisch.