DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Selbstfahrende Autos gehören bald zum Strassenbild. Es gibt aber ethische Herausforderungen, über die wir uns jetzt schon unterhalten sollten.<br data-editable="remove">
Selbstfahrende Autos gehören bald zum Strassenbild. Es gibt aber ethische Herausforderungen, über die wir uns jetzt schon unterhalten sollten.
bild: GraphicaArtis/Getty Images

Nehmen wir ein paar tausend Tote durch selbstfahrende Autos in Kauf, um eine Million Menschenleben zu retten?

Der weltgrösste Autobauer Toyota will schon bald selbstfahrende Autos entwickeln. Bevor aber der Weg für autonome Autos frei ist, muss ein unlösbares moralisches Dilemma geklärt werden.
11.01.2016, 10:2905.02.2016, 14:15
Raffael Schuppisser / Aargauer Zeitung
1 / 28
Das sind die ersten selbstfahrenden Autos
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Dieses Versprechen wird Toyota nicht halten können: Der weltgrösste Autobauer will mithilfe künstlicher Intelligenz selbstfahrende Autos entwickeln, «die unfähig sind, einen Unfall zu verursachen». Das liess der japanische Konzern diese Woche an der Consumer Electronic Show in Las Vegas verlauten.

Den Spass mit deinen Freunden teilen?
Zeig ihnen die watson-App.
Mit Whatsapp empfehlen

Keine Software ist ohne Fehler. Das gilt erst recht für die künstliche Intelligenz (KI), welche die Toyota-Fahrzeuge in Zukunft sicher über Autobahnen und durch Städte steuern soll.

Irgendwann wird sich die KI in einer unerwarteten und besonders verworrenen Verkehrssituation falsch «entscheiden» und es wird zu einem Zusammenstoss kommen. In einigen Fällen lässt sich ein Unfall auch gar nicht vermeiden, weil sich andere Verkehrsteilnehmer falsch verhalten.

Was macht das autonome Auto, wenn plötzlich ein Kind auf die Strasse rennt? Für eine Vollbremse reicht die Zeit nicht aus. Ein Ausweichmanöver ist möglich, doch das würde zu einer Frontalkollision mit einem anderen Auto führen. Die KI ist nun geradezu gezwungen, einen Unfall zu verursachen. Die Frage ist nur welchen.

Darf der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

An diesem Beispiel zeigt sich ein grundlegendes moralisches Dilemma, das in der Philosophie als sogenanntes Trolly-Problem breit diskutiert worden ist. Das Gedankenexperiment geht auf die Philosophin Philippa Foot zurück und lautet folgendermassen: Eine Tram («Trolly») ist ausser Kontrolle geraten und droht, fünf Personen zu überrollen.

Durch Umstellen einer Weiche kann das Tram auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Die zentrale Frage lautet nun: Darf durch Umlegen der Weiche der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

Eine knifflige Frage, die aber bisher ziemlich realitätsfremd war. Doch das könnte sich nun ändern. «Das Trolly-Problem könnte in der realen Welt auftreten, wenn autonome Fahrzeuge zum Einsatz kommen», schreibt der Philosoph Patrick Lin in einer kürzlich veröffentlichten Fachpublikation. Deshalb, so meint der Forscher der California Polytechnic State University, müsse die Entwicklung von selbstfahrenden Autos von einer breiten öffentlichen Diskussion begleitet werden.

Natürlich können auch menschliche Autofahrer in Situationen geraten, in denen sie zwischen zwei verschiedenen Übeln entscheiden müssen. Etwa einem Lastwagen nach links ausweichen, wo fünf Fussgänger stehen, oder nach rechts, wo sich ein Velofahrer befindet. Wie auch immer der Fahrer reagieren wird, unter dem Zeitdruck ist keine rationale Abwägung möglich, sondern bloss eine intuitive Entscheidung.

Anders ist das bei autonomen Fahrzeugen. Sie werden sich in dieser und ähnlichen Situationen so verhalten, wie sie programmiert wurden. Doch nach welchen Prinzipien sollen sie programmiert werden?

Googles selbstfahrende Autos

1 / 7
Googles selbstfahrende Autos
quelle: ap/ap / paul sancya
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Für Ethiker, die eine sogenannte utilitaristische Position vertreten, ist die Situation klar. Sie entscheiden sich in obigem Beispiel für jene Variante, die das «kleinste Leid» verursacht und weichen also nach rechts aus, da so nur ein Mensch (der Velofahrer) stirbt.

Doch darf man Menschenleben miteinander aufrechnen? Sogenannte deontologische Ethiker sagen Nein. Für sie hat jedes Leben einen absoluten Wert. Deshalb kann nicht eines geopfert werden, um fünf zu retten, und deshalb bleibt das Problem unlösbar. Ein moralisches Dilemma eben.

1,2 Millionen Verkehrstote

Psychologen um Jean-François Bonnefon von der französischen Toulouse School of Economcis wollten wissen, wie sich die Menschen in solchen Dilemmata entscheiden würden. Dafür konfrontierten sie über 300 Menschen mit verschiedenen Szenarien, in denen einer oder mehrere Fussgänger gerettet werden können, wenn ein selbstfahrendes Auto ausweicht und in eine Wand kracht, wobei dann der Fahrer oder ein anderer Passant getötet wird.

Die Resultate der kürzlich veröffentlichten Studie zeigen, dass die Teilnehmer mehrheitlich utilitaristische Entscheidungen fällen – sich also für jene Variante entscheiden, bei der am meisten Menschen gerettet werden können. Das gilt zumindest für Gedankenexperimente, die nicht so konstruiert sind, dass sich der Proband selber in einem selbstfahrenden Auto befindet und getötet wird. Ist dies der Fall, steigt die Anzahl jener, die sich dafür aussprechen, dass das autonome Auto eine Zufallsentscheidung trifft.

Dieses selbstfahrende Konzeptauto könnte direkt aus einem Sci-Fi-Film stammen

1 / 13
Dieses selbstfahrende Konzeptauto könnte direkt aus einem Sci-Fi-Film stammen
quelle: ap/ap / ng han guan
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Doch auch hier stellt sich natürlich die Frage, ist es ethisch gerechtfertigt, eine solche schwierige Frage über den Tod von Menschen einfach dem Zufall zu überlassen? Man könnte daraus folgern, wenn wir nicht fähig sind, eine Entscheidung zu treffen, die von der breiten Gesellschaft gestützt wird, sollten wir autonome Autos vielleicht einfach nicht zulassen. Doch dies führt unweigerlich in ein anderes ethisches Dilemma.

Experten sind sich weitgehend einig, dass selbstfahrende Autos den Verkehr sicherer machen. So haben etwa die Google-Autos über 1,6 Millionen Kilometer zurückgelegt, ohne selber einen Unfall zu verursachen.

Im Jahr 2014 gab es in der Schweiz 243 Verkehrstote; weltweit kommen jährlich 1,2 Millionen Menschen bei einem Autounfall ums Leben. Diese Zahl könnte vielleicht auf einen Zehntel gesenkt werden, wenn man in Zukunft nur noch selbstfahrende Autos auf die Strasse liesse.

Dürfen wir autonomen Autos wirklich die Zulassung verweigern, obwohl wir damit jährlich über eine Million Menschenleben retten können? Wäre es unter diesem Gesichtspunkt nicht eher gefordert, nicht-autonome Autos zu verbieten?

Wir müssen uns also fragen, ob wir ein paar Tausend durch autonome Autos getötete Menschen in Kauf nehmen wollen, um eine Million Menschenleben zu retten. Entscheiden wir uns für die autonomen Autos, kommen wir wohl nicht darum herum, sie aufgrund von utilitaristischen Kriterien zu programmieren.

«Wir müssen zu einer Quantifizierung von Menschenleben kommen», forderte jüngst Eric Hilgendorf, Leiter derForschungsstelle Robot-Recht an der Universität Würzburg, in der Zeitschrift «Technology Review». Denn nach heutiger Rechtslage wäre es verboten, Menschenleben miteinander aufzurechnen.

Die Moral der Algorithmen

Doch wenn wir umdenken, und unsere deontologischen Prinzipien über Bord werfen, so könnte das Folgen haben, die nicht nur auf den Strassenverkehr beschränkt wären. «Wenn wir versuchen, Ethik logisch abzubilden, was ja wohl nötig wäre, um sie einer KI beizubringen, könnte das auch einen Effekt auf unsere Moralvorstellung haben», sagt Philipp Theisohn, Science-Fiction-Experte an der Universität Zürich, diese Woche im Interview mit der Nordwestschweiz.

Jetzt auf

Die rationalisierte, utilitaristische Ethik, die wir unseren Autos einimpfen, könnte also auch auf den Menschen selber überschwappen. Wir würden uns, so kann vermutet werden, bei moralischen Entscheidungen weniger von Empathie und Intuition leiten lassen und stattdessen die Konsequenzen unseres Handelns vermehrt rational gegeneinander abwägen.

So würden wir unser Denken den Algorithmen der Maschinen anpassen. Ausgerechnet in einer Welt, in der Computer und Roboter unsere Jobs streitig machen, würden wir auf Merkmale verzichten, die uns von Maschinen unterscheiden – Merkmale, die in einer automatisierten Welt umso wichtiger werden, weil sie nicht programmiert werden können. Und wiederum stellt sich die Frage: Wollen wir das wirklich?

Würdest du ein selbstfahrendes Auto kaufen?

Mehr zu Tesla und Elon Musk

Alle Storys anzeigen

So futuristisch sieht der erste selbstfahrende Lastwagen aus

1 / 14
So futuristisch sieht der erste selbstfahrende Lastwagen aus
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

(aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Themen

Apple startet Kamerafahrten auf allen Schweizer Strassen – das musst du wissen

Viele Jahre nachdem Google mit «Street View» für Aufregung sorgte, schickt der grosse Konkurrent Apple für seinen eigenen Kartendienst dutzende Kamera-Autos los.

Am 21. Juli 2021.

Laut Apple werden mehrere dutzend Fahrzeuge in der ganzen Schweiz unterwegs sein.

Vorerst seien Fahrten bis mindestens Mitte September geplant. Alle öffentlich zugänglichen Strassen sollen abgefahren werden.

Informationen zu den Kamerafahrten werden laut Vorankündigung auf der Apple-Website unter maps.apple.com/imagecollection publiziert. (Aktuell fehlen die Infos noch.)

Über ein Online-Formular soll man dann auch Adressen eingeben können, die nicht gefilmt werden sollen.

Die mit …

Artikel lesen
Link zum Artikel