DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Selbstfahrende Autos gehören bald zum Strassenbild. Es gibt aber ethische Herausforderungen, über die wir uns jetzt schon unterhalten sollten.<br data-editable="remove">
Selbstfahrende Autos gehören bald zum Strassenbild. Es gibt aber ethische Herausforderungen, über die wir uns jetzt schon unterhalten sollten.
bild: GraphicaArtis/Getty Images

Nehmen wir ein paar tausend Tote durch selbstfahrende Autos in Kauf, um eine Million Menschenleben zu retten?

Der weltgrösste Autobauer Toyota will schon bald selbstfahrende Autos entwickeln. Bevor aber der Weg für autonome Autos frei ist, muss ein unlösbares moralisches Dilemma geklärt werden.
11.01.2016, 10:2905.02.2016, 14:15
Raffael Schuppisser / Aargauer Zeitung
1 / 28
Das sind die ersten selbstfahrenden Autos
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Dieses Versprechen wird Toyota nicht halten können: Der weltgrösste Autobauer will mithilfe künstlicher Intelligenz selbstfahrende Autos entwickeln, «die unfähig sind, einen Unfall zu verursachen». Das liess der japanische Konzern diese Woche an der Consumer Electronic Show in Las Vegas verlauten.

Keine Software ist ohne Fehler. Das gilt erst recht für die künstliche Intelligenz (KI), welche die Toyota-Fahrzeuge in Zukunft sicher über Autobahnen und durch Städte steuern soll.

Irgendwann wird sich die KI in einer unerwarteten und besonders verworrenen Verkehrssituation falsch «entscheiden» und es wird zu einem Zusammenstoss kommen. In einigen Fällen lässt sich ein Unfall auch gar nicht vermeiden, weil sich andere Verkehrsteilnehmer falsch verhalten.

Was macht das autonome Auto, wenn plötzlich ein Kind auf die Strasse rennt? Für eine Vollbremse reicht die Zeit nicht aus. Ein Ausweichmanöver ist möglich, doch das würde zu einer Frontalkollision mit einem anderen Auto führen. Die KI ist nun geradezu gezwungen, einen Unfall zu verursachen. Die Frage ist nur welchen.

Darf der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

An diesem Beispiel zeigt sich ein grundlegendes moralisches Dilemma, das in der Philosophie als sogenanntes Trolly-Problem breit diskutiert worden ist. Das Gedankenexperiment geht auf die Philosophin Philippa Foot zurück und lautet folgendermassen: Eine Tram («Trolly») ist ausser Kontrolle geraten und droht, fünf Personen zu überrollen.

Durch Umstellen einer Weiche kann das Tram auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Die zentrale Frage lautet nun: Darf durch Umlegen der Weiche der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

Eine knifflige Frage, die aber bisher ziemlich realitätsfremd war. Doch das könnte sich nun ändern. «Das Trolly-Problem könnte in der realen Welt auftreten, wenn autonome Fahrzeuge zum Einsatz kommen», schreibt der Philosoph Patrick Lin in einer kürzlich veröffentlichten Fachpublikation. Deshalb, so meint der Forscher der California Polytechnic State University, müsse die Entwicklung von selbstfahrenden Autos von einer breiten öffentlichen Diskussion begleitet werden.

Natürlich können auch menschliche Autofahrer in Situationen geraten, in denen sie zwischen zwei verschiedenen Übeln entscheiden müssen. Etwa einem Lastwagen nach links ausweichen, wo fünf Fussgänger stehen, oder nach rechts, wo sich ein Velofahrer befindet. Wie auch immer der Fahrer reagieren wird, unter dem Zeitdruck ist keine rationale Abwägung möglich, sondern bloss eine intuitive Entscheidung.

Anders ist das bei autonomen Fahrzeugen. Sie werden sich in dieser und ähnlichen Situationen so verhalten, wie sie programmiert wurden. Doch nach welchen Prinzipien sollen sie programmiert werden?

Googles selbstfahrende Autos

1 / 7
Googles selbstfahrende Autos
quelle: ap/ap / paul sancya
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Für Ethiker, die eine sogenannte utilitaristische Position vertreten, ist die Situation klar. Sie entscheiden sich in obigem Beispiel für jene Variante, die das «kleinste Leid» verursacht und weichen also nach rechts aus, da so nur ein Mensch (der Velofahrer) stirbt.

Doch darf man Menschenleben miteinander aufrechnen? Sogenannte deontologische Ethiker sagen Nein. Für sie hat jedes Leben einen absoluten Wert. Deshalb kann nicht eines geopfert werden, um fünf zu retten, und deshalb bleibt das Problem unlösbar. Ein moralisches Dilemma eben.

1,2 Millionen Verkehrstote

Psychologen um Jean-François Bonnefon von der französischen Toulouse School of Economcis wollten wissen, wie sich die Menschen in solchen Dilemmata entscheiden würden. Dafür konfrontierten sie über 300 Menschen mit verschiedenen Szenarien, in denen einer oder mehrere Fussgänger gerettet werden können, wenn ein selbstfahrendes Auto ausweicht und in eine Wand kracht, wobei dann der Fahrer oder ein anderer Passant getötet wird.

Die Resultate der kürzlich veröffentlichten Studie zeigen, dass die Teilnehmer mehrheitlich utilitaristische Entscheidungen fällen – sich also für jene Variante entscheiden, bei der am meisten Menschen gerettet werden können. Das gilt zumindest für Gedankenexperimente, die nicht so konstruiert sind, dass sich der Proband selber in einem selbstfahrenden Auto befindet und getötet wird. Ist dies der Fall, steigt die Anzahl jener, die sich dafür aussprechen, dass das autonome Auto eine Zufallsentscheidung trifft.

Dieses selbstfahrende Konzeptauto könnte direkt aus einem Sci-Fi-Film stammen

1 / 13
Dieses selbstfahrende Konzeptauto könnte direkt aus einem Sci-Fi-Film stammen
quelle: ap/ap / ng han guan
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Doch auch hier stellt sich natürlich die Frage, ist es ethisch gerechtfertigt, eine solche schwierige Frage über den Tod von Menschen einfach dem Zufall zu überlassen? Man könnte daraus folgern, wenn wir nicht fähig sind, eine Entscheidung zu treffen, die von der breiten Gesellschaft gestützt wird, sollten wir autonome Autos vielleicht einfach nicht zulassen. Doch dies führt unweigerlich in ein anderes ethisches Dilemma.

Experten sind sich weitgehend einig, dass selbstfahrende Autos den Verkehr sicherer machen. So haben etwa die Google-Autos über 1,6 Millionen Kilometer zurückgelegt, ohne selber einen Unfall zu verursachen.

Im Jahr 2014 gab es in der Schweiz 243 Verkehrstote; weltweit kommen jährlich 1,2 Millionen Menschen bei einem Autounfall ums Leben. Diese Zahl könnte vielleicht auf einen Zehntel gesenkt werden, wenn man in Zukunft nur noch selbstfahrende Autos auf die Strasse liesse.

Dürfen wir autonomen Autos wirklich die Zulassung verweigern, obwohl wir damit jährlich über eine Million Menschenleben retten können? Wäre es unter diesem Gesichtspunkt nicht eher gefordert, nicht-autonome Autos zu verbieten?

Wir müssen uns also fragen, ob wir ein paar Tausend durch autonome Autos getötete Menschen in Kauf nehmen wollen, um eine Million Menschenleben zu retten. Entscheiden wir uns für die autonomen Autos, kommen wir wohl nicht darum herum, sie aufgrund von utilitaristischen Kriterien zu programmieren.

«Wir müssen zu einer Quantifizierung von Menschenleben kommen», forderte jüngst Eric Hilgendorf, Leiter derForschungsstelle Robot-Recht an der Universität Würzburg, in der Zeitschrift «Technology Review». Denn nach heutiger Rechtslage wäre es verboten, Menschenleben miteinander aufzurechnen.

Die Moral der Algorithmen

Doch wenn wir umdenken, und unsere deontologischen Prinzipien über Bord werfen, so könnte das Folgen haben, die nicht nur auf den Strassenverkehr beschränkt wären. «Wenn wir versuchen, Ethik logisch abzubilden, was ja wohl nötig wäre, um sie einer KI beizubringen, könnte das auch einen Effekt auf unsere Moralvorstellung haben», sagt Philipp Theisohn, Science-Fiction-Experte an der Universität Zürich, diese Woche im Interview mit der Nordwestschweiz.

Jetzt auf

Die rationalisierte, utilitaristische Ethik, die wir unseren Autos einimpfen, könnte also auch auf den Menschen selber überschwappen. Wir würden uns, so kann vermutet werden, bei moralischen Entscheidungen weniger von Empathie und Intuition leiten lassen und stattdessen die Konsequenzen unseres Handelns vermehrt rational gegeneinander abwägen.

So würden wir unser Denken den Algorithmen der Maschinen anpassen. Ausgerechnet in einer Welt, in der Computer und Roboter unsere Jobs streitig machen, würden wir auf Merkmale verzichten, die uns von Maschinen unterscheiden – Merkmale, die in einer automatisierten Welt umso wichtiger werden, weil sie nicht programmiert werden können. Und wiederum stellt sich die Frage: Wollen wir das wirklich?

Würdest du ein selbstfahrendes Auto kaufen?

Mehr zu Tesla und Elon Musk

Alle Storys anzeigen

Mehr zu Tesla und Elon Musk

Alle Storys anzeigen

So futuristisch sieht der erste selbstfahrende Lastwagen aus

1 / 14
So futuristisch sieht der erste selbstfahrende Lastwagen aus
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

(aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Themen

Abonniere unseren Newsletter

67 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Donald
11.01.2016 12:04registriert Januar 2014
Ganz einfach: Das Auto bleibt im Zweifelsfall auf der Strasse und auch auf seiner Spur. Nur wenn es ganz sicher ist, darf ausgewichen werden.
In der Realität ist die Frage nämlich noch einiges komplizierter. Woher will das Auto denn Wissen wer und wieviele genau sterben? Oder wie die Personen im letzten Moment reagieren. Evtl. springt ja das Kind noch rechtszeitig zur Seite oder hat sonst Glück.
Weiter gibt es noch den Aspekt der Manipulation. Man könnte also mit 3 Menschen auf die Strasse springen und somit den einen Fussgänger auf dem Trottoir töten.
701
Melden
Zum Kommentar
avatar
Ruffy
11.01.2016 11:32registriert Januar 2015
Nehmen wir das Beispiel mit dem Kind das auf die Strasse rennt. Das Auto soll einfach eine Vollbremsung versuchen, reicht diese nicht so stirbt das Kind.

Es ist weder die Schuld des Autofahrers noch die der Oma welche alternativ getötet werden könnte.

Dem Lastwagen wird nicht ausgewichen, auch hier, gibt es eine Kollision trifft es die Schuldigen, nämlich den Lastwagen und den Autofahrer (welcher als Autofahrer sich des Risikos bewusst sein muss und ja ich fahre Auto)

Aber klar jeder hat da seine eigene Sichtweise.
663
Melden
Zum Kommentar
avatar
emc2
11.01.2016 11:02registriert September 2015
"Nehmen wir ein paar tausend Tote durch selbstfahrende Autos in Kauf, ..."

Und wie sieht es heute aus? Es ist ja nicht so, dass es in den beschriebenen Situationen keine Toten geben würde. Es wird suggeriert, dass man Opfer bringen müsse.
352
Melden
Zum Kommentar
67
Zuckerberg zeigt peinliches Bild aus dem Metaversum
Die Neunziger haben angerufen und wollen ihr Bild zurück: Meta-Chef Zuckerberg hat eine Aufnahme aus seinem «Metaverse» veröffentlicht. Im Netz gibt es Häme.

Mark Zuckerberg hat zum Start seiner 3D-Welt «Horizon Worlds» in Frankreich und Spanien einen Bildausschnitt veröffentlicht, der so gar nicht zu dem passt, was er damit verkaufen will: die nächste Stufe des Internets oder das Web 3.0.

Zur Story