Kommt das automatische Fahren? Und wenn ja, wann? Wer so fragt, trifft das Problem nicht. Denn im Hinterkopf steckt die Antwort: Erst, wenn es sicher genug ist. Dies ist eine problematische Annahme. Denn vielleicht kommt es auf diese Weise gar nie.
Über eines muss man sich im Klaren sein: Auch autonom fahrende Autos produzieren Unfälle. Vielleicht weniger als solche mit Menschen hinter dem Steuer. Aber «sicher» im absoluten Sinn werden auch die Automaten nie sein.
Weil es auf den Strassen immer Unfälle geben wird, sollte man sich überlegen, wie solche Dinge künftig geregelt werden. Unser Strafrecht kennt bis jetzt nur Menschen als Täter. Im Strassenverkehr geht es darum, bei einem Unfall die Verantwortlichkeit (oder «Schuld») festzustellen. In der Regel redet man von «Fahrlässigkeit», denn man geht davon aus, dass Verkehrsteilnehmer die nötigen Vorsichtsmassnahmen treffen.
Gibt es einen Unfall, wird nach dem Grad der Fahrlässigkeiten bei Verursacher und Opfer gefragt. Die «Schuld» wird in der Regel aufgeteilt. Beiden Seiten wird der Wille und das primäre Interesse zugebilligt, Unfälle zu vermeiden.
Beim autonomen Fahren gibt es aber einen neuen Akteur mit einem anderen Primärinteresse: den Produzenten des Fahrzeugs. Und sein primäres Interesse ist nicht das Vermeiden von Unfällen, sondern der Profit.
Wir haben also eine neue Aufgabe für den Gesetzgeber: Er muss eine neue Regel definieren, wie die Fahrlässigkeit verteilt werden soll. Und wir müssen verstehen, wie der Autoproduzent ins Bild passt. Er beschäftigt sich natürlich auch mit Unfallvermeidung. Aber er kleidet sie in Technologie und versteht sie als ein Investment.
Diese Situation mit drei Playern auf drei Ebenen und verschiedenen Parametern (zum Beispiel die allmähliche Durchdringung des Verkehrs mit autonomen Fahrzeugen) haben Forscher der Columbia University (Ingenieur- und Juristische Abteilung) spieltheoretisch modelliert (siehe Grafik). Die Spieltheorie erlaubt es, Situationen zu modellieren, in denen verschiedene Strategien und Interessen miteinander agieren
Wir haben es im Strassenverkehr mit drei Konstellationen zu tun:
Der Gesetzgeber agiert auf dem obersten Level. Er kann die Parameter definieren und anpassen und so die Spielregeln auf der «Strasse» verändern. Er legt die Haftungsregeln fest für menschliche Lenker und legt dem Produzenten eine Produktehaftpflicht auf. Die beiden anderen Player «folgen» ihm. Sein Ziel ist die Minimierung der sozialen Kosten (Total der Unfallfolgen und die Kosten der Vorsicht beim Fahrstil).
Auch das autonom fahrende Auto agiert auf einem höheren Level als die menschlichen Lenker. Sein Verhalten ist durch das Programm festgelegt. Der menschliche Lenker ist auch hier ein Follower. Menschen untereinander interagieren als gleichwertige Player.
Einige Ergebnisse: Menschliche Lenker (HV), aber auch Fussgänger, gehen desto mehr Risiken ein, je mehr autonome Fahrzeuge (AVs) verkehren (moral hazard). Will der Gesetzgeber die Verkehrssicherheit verbessern, muss er dann den Autoproduzenten helfen (z.B. mit Steuererleichterungen für Halter von AVs). Je homogener der Markt wird (gegen 100 Prozent AVs), desto stärker müssen die Produzenten aber reguliert werden. Denn Vorsichtsmassnahmen kosten, und das schmälert den Profit.
Auch wenn es mit einigen vereinfachenden Annahmen operiert, erweist sich das Modell als geeignetes Tool, um eine optimale Verteilung der Fahrlässigkeit im Rahmen von Verkehrssicherheit und sozialen Kosten (Unfallfolgen, aber auch flüssiger Verkehr) zu errechnen.
Ganz anders sieht es hingegen juristisch aus. Hier droht dem Normalfahrer eine eklatante Benachteiligung, wenn er im Schadenfall einem mächtigen Konzern Fahrlässigkeit nachweisen muss. Die Konzerne werden schon auf Ebene der Gesetzgebung alles versuchen um ihr Haftungsrisiko so klein wie irgend möglich zu halten