Schweiz
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Image

Google brachte seinen autonomen Autos bei, Kinder an Halloween zu erkennen und vorsichtiger zu fahren.
Bild: Google

Selbstfahrende Autos finden wir toll – aber eines, das uns im Zweifelsfall tötet, wollen wir nicht

Man könnte autonomen Fahrzeugen beibringen, die Zahl der Toten bei Unfällen zu minimieren. Maschinen-Ethiker Oliver Bendel warnt: Wenn die Gesellschaft nicht mitreden darf, könnten bald Autos brennen.



Wir schreiben eine nicht allzu ferne Zukunft: Eine Gruppe von Kindern überquert unerwartet die Strasse. Ein selbstfahrendes Auto rast auf sie zu und kann nicht mehr rechtzeitig bremsen. Was soll das Auto tun? Links aufs Trottoir ausweichen, wo gerade ein Rentner steht? Oder rechts in die Wand fahren und den Tod der Insassen in Kauf nehmen?

Mit diesen Fragen beschäftigen sich die Forschungsabteilungen der Autohersteller schon länger. Forscher der Ecole d'économie de Toulouse haben nun mit einer Umfrage versucht, den Puls des Volkes zu fühlen.

Das Team unter dem Psychologen Jean-François Bonnefon konfrontierte 900 mit ethischen Fragen, die sich am altbekannten Trolley-Problem (siehe Infobox) orientieren. Das Resultat: 75 Prozent der Leute sprechen sich dafür aus, dass das Auto den Insassen tötet, sogar um nur einen Fussgänger zu retten.

Image

Wie soll das Auto reagieren?
Ecole d'économie de Toulouse

Viel zögerlicher reagierten die Teilnehmer, als es darum ging, ob sie ein Auto mit einer solchen Programmierung kaufen würden – denn das würde ja bedeuten, dass das Fahrzeug sie im Falle eines Unfalls «opfern» könnte.

Maschinen-Ethiker Oliver Bendel erläutert im Gespräch, wo die Tücken einer solchen Programmierung liegen und warum die Debatte darüber unbedingt in der Öffentlichkeit stattfinden muss.

Herr Bendel, kann eine Maschine ethische Entscheidungen treffen?
Oliver Bendel: Auf jeden Fall. Man kann einer Maschine moralische Regeln beibringen, die sie sklavisch anwendet. Oder man kann sie lernen lassen und ihr die Möglichkeit geben, eigene Entscheidungen zu treffen.

Die Maschine kann aber nicht intuitiv handeln wie der Mensch. Da fehlt doch etwas.
Die Moral des Menschen setzt sich aus verschiedenen Komponenten zusammen: Ein Teil ist angeboren, einen Teil erwirbt man durchs Umfeld, ein Teil entsteht aus rationalem Denken. Und dort kann die Maschine durchaus mithalten.

«Was, wenn Kinder im Auto sind? Sind sie auch mitverantwortlich?»

Oliver Bendel

Soll also ein Auto bei einem Unfall über Leben und Tod der Beteiligten entscheiden?
Ich halte das für keine gute Idee. Das würde auch unser Wertesystem durcheinanderbringen. Wenn ein autonomes Auto entscheidet, den Lenker zugunsten zweier Fussgänger oder einen Rentner zugunsten eines Kindes zu «opfern», sprechen wir von der Anwendung bestimmter utilitaristischer Prinzipien. In unserer Kultur hat jedoch das individuelle Leben einen sehr hohen Stellenwert.

Das Trolley-Problem

Das Trolley-Problem ist ein Gedankenexperiment zu einem moralischen Dilemma. Die Situation ist wie folgt:

​Eine Strassenbahn ist ausser Kontrolle und droht, fünf Menschen zu töten. Du sitzt an einer Weiche und kannst die Bahn auf ein anderes Gleis umleiten. Dort steht aber eine weitere Person. Darf man den Tod einer Person in Kauf nehmen, um fünf andere zu retten?

​Eine Variation ist das Fetter-Mann-Problem: In diesem Szenario fährt die Bahn auf eine Gruppe von Menschen zu. Man kann sie nur stoppen, indem man einen unbeteiligten fetten Mann von einer Brücke aufs Gleis stösst.

​Im Kern des Experiments steht der Utilitarismus: Er besagt, dass die gesamte Menge an Leid minimiert werden soll.

Obwohl das Trolley-Problem aus den Sechziger-Jahren stammt, gewinnt es heute wegen den fahrerlosen Autos wieder an Aktualität.​ (rey)

Das Auto soll also in die Menschengruppe rasen.
Es gibt Leute die sagen, das Auto soll in eine Wand fahren, weil der Besitzer des Autos die Verantwortung trägt. Aber was, wenn mehrere Personen im Fahrzeug sind? Darunter Kinder? Sind sie auch mitverantwortlich? Und kann man wirklich noch von Verantwortung sprechen, wenn man dem Fahrer das Fahrzeug aufgedrängt hat?

Gute Frage ...
Ausserdem tauchen bei der Verarbeitung des Unfalls neue Probleme auf. Auf wen sollen die Eltern ihre Wut richten, wenn ein Auto entschieden hat, ihr Kind umzufahren? Es mag sich bequem anhören, als Autofahrer die Verantwortung aus der Hand zu geben. Aber ich glaube nicht, dass man in einem solchen Fall besser schläft.

«Wenn die Maschinen alles übernehmen, wird das Leben irgendwann todlangweilig.»

Oliver Bendel

Selbstfahrende Autos gelten als Hoffnung, Unfälle drastisch zu reduzieren. Wenn sie alle heiklen Situationen dem Menschen überlassen, dann bleibt aber alles beim Alten.
Es gibt weltweit jedes Jahr eine Million Verkehrstote. Das sind viel zu viele. Ich bin dafür, dass wir die Fahrerassistenzsysteme, die wir jetzt schon haben, weiter ausbauen. Bevor ich in ein Stauende rase, darf mein Fahrzeug eine Vollbremsung machen, ohne mich zu fragen. Der Fahrer soll aber eine gewisse Kontrolle über sein Fahrzeug behalten dürfen.

Nicht so wie bei den Google-Autos, die weder Pedale noch Lenkrad haben.
Wo bleibt da der Spass? Vielleicht will ich mich von meinem Auto von Genua nach Mailand fahren lassen, auf der Alpenstrasse aber das Steuer übernehmen. Einfach, weil es mir Freude bereitet und weil ich meine Fähigkeiten einsetzen kann. Maschinen können uns das Leben erleichtern, aber wenn sie alles machen, wird es irgendwann todlangweilig.

So oder so, die selbstfahrenden Autos kommen. Wer entscheidet über ihre Moral?
Mit diesen Fragen beschäftigt sich unter anderem die Maschinenethik, eine Disziplin, in der Philosophen, Experten für Künstliche Intelligenz und Informatiker zusammenarbeiten. Wir brauchen zudem eine breite öffentliche Debatte.

«Wenn die Gesellschaft bei dem Thema nicht mitreden kann, wird es Widerstand geben.»

Oliver Bendel

Könnte man den Besitzer des Autos bestimmen lassen, welches Moralprogramm er will?
Das ist eine interessante Idee, aber das würde kaum akzeptiert. Kann sich dann jemand, der es sich leisten kann, die Vorfahrt kaufen? Oder den Überlebensbonus im Falle eines Crashs? Ich glaube, es funktioniert nur, wenn alle autonomen Fahrzeuge mit einem ähnlichen System ausgerüstet sind.

Da ist die Autoindustrie gefragt. Was sagt sie dazu?
Was in den Forschungsabteilungen der Autohersteller passiert, ist leider topsecret. Das ist gefährlich. Solche Entscheidungen dürfen nicht von oben herab gefällt werden. In Deutschland droht dies, weil autonome Fahrzeuge ein enormes Prestigeprojekt sind. Dank der grossen Unterstützung der Politik sind in Deutschland seit einem Monat autonome LKWs unterwegs. Wenn die Gesellschaft bei dem Thema nicht mitreden kann, wird es Widerstand geben.

Das heisst?
Als Folge der industriellen Revolution gab es die Maschinenstürmer, die Maschinen zerstört haben, weil sie sich in ihrer Existenz bedroht fühlten. Es könnte zu einer ähnlichen Protestbewegung kommen. Nur würden in diesem Fall Autos brennen.

«Erstmals in ihrer über 2000-jährigen Geschichte ist die Ethik eine Gestaltungsdisziplin.»

Oliver Bendel

Oliver Bendel

Zur Person

Oliver Bendel, 47 Jahre alt, ist Philosoph und Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik. Mehr auf www.oliverbendel.net.

Wie können wir das verhindern?
Ich sehe hier nur eine Lösung: Man muss den normalen Verkehr von den autonomen Autos trennen. Das könnte man mit eigenen Strassen oder Fahrspuren, ähnlich den Velowegen, machen. Oder man könnte selbstfahrende Autos nur zu bestimmten Zeiten fahren lassen. Nur wenn ein Technologieskeptiker weiss, dass keine Roboterautos unvermittelt um die nächste Ecke kommen, wird er sich mit deren Existenz anfreunden.

Die Technik schreitet schnell voran. Hinkt die ethische Debatte hinterher?
Nein, im Gegenteil. Für Technikphilosophen, die sich damit beschäftigen, ist dies eine sehr spannende Zeit. Erstmals in ihrer über 2000-jährigen Geschichte ist die Ethik eine Gestaltungsdisziplin. Wir können die Realität mitprägen, statt sie nur zu beschreiben und zu hinterfragen.

Das beschränkt sich nicht nur auf Autos.
Richtig. Das Pentagon investiert beispielsweise viel Geld in die Maschinenethik. Auch bei Kriegsrobotern und -drohnen stellen sich ethische Fragen. Nehmen wir an, ein Roboter spürt einen Top-Terroristen auf, den er töten soll – im Haus sind aber auch 30 Kinder. Was tut er?

Ethik für Killerroboter. Das hört sich zynisch an.
Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Kampfroboter nicht, sie brandschatzen nicht, sie plündern nicht. Obwohl ich zugeben muss, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint, sind sie mir deswegen doch nicht sympathisch. 

Googles selbstfahrende Autos

Abonniere unseren Newsletter

53
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
53Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • xHascox 16.07.2017 23:41
    Highlight Highlight Könnte man den Besitzer des Autos bestimmen lassen, welches Moralprogramm er will?
    Das ist eine interessante Idee, aber das würde kaum akzeptiert. Kann sich dann jemand, der es sich leisten kann, die Vorfahrt kaufen? Oder den Überlebensbonus im Falle eines Crashs?

    Man könnte doch das Moralprogramm auswählen und Offline und Open Sorce laufen lassen? Dann kann man keine Vorfahrt kaufen und auch kein Überlebensbonus? Es geht ja nur drum ob man lieber sich oder jmd anderes umbringt. Kann ja jeder selber entscheiden. (auch besser so find ich)
  • Charles-Louis Joris 07.11.2015 15:54
    Highlight Highlight Bevor so was überhaupt je zugelassen werden darf, muss unbedingt die Verantwortlichkeit bei einem Unfall legiferiert werden.
    Ein Insasse müsste meiner Meinung nach verantwortlich bleiben, auch wenn es ein reiner Softwarefehler war. Am liebsten wäre mir, dass derlei weit getriebene Robotik überhaupt nicht je auf die Strasse käme.
  • Likos 04.11.2015 21:14
    Highlight Highlight Diese Gedankenexperimente sind doch das selbe wie das Kinderporno Argument bei totaler Überwachung...
    Solche Situationen können niemals eintreten. Ich mein dazu müsste so ein Auto keine 5 Meter weit "sehen" können und dabei noch 50+ kmh fahren.
    Ein autonomes Auto braucht keine ethischen Richtlinien es wird nämlich immer rechtzeitig eine richtige und perfekte Notbremsung vollziehen können und mehr muss es auch nicht können um unschuldig zu sein.

    Damit will ich solche Autos nicht heilig sprechen, da gibt es sicher noch genug andere Probleme und Fragen, nur solche Experimente gehören nicht dazu.
    • Mafi 04.11.2015 22:21
      Highlight Highlight Einverstanden. Wenn es noch reagieren kann, dann kann es auch etwas anderes wie einen für die Insassen tödlichen Crash machen, wenigstens in 99,99% der Fälle.
    • zettie94 04.11.2015 22:29
      Highlight Highlight Wenn ein Kind hinter einem parkierten Lastwagen hervor auf die Strasse tritt, nützt es auch nichts, wenn das Auto 100m weit "sehen" kann - durch den Lastwagen durchsehen kann es deswegen trotzdem nicht. Und vielleicht ist ja dann noch die Strasse nass/glatt...
    • Hatzman 05.11.2015 09:11
      Highlight Highlight zettie94
      Sie können nicht durch einen Lastwagen sehen, aber 2 sachen dazu
      1. Dieses Szenario ist für die 'Ethikfrage' irrelevant, weil der Mensch da auch keine Möglichkeit hat zu reagieren
      2. Google hat schon bewiesen, dass ihre Sensoren mehr sehen als das menschliche Auge, an einer Kreuzung wurde von dem selbstfahrenden Auto auf einen Fahrradfahrer gewartet den beide insassen nicht gesehen haben.
      Wenn man das ausbaut, kann man auch sicher während des Fahrens erkennen ob da etwas auf die Fahrbahn gesprintet kommt
  • wasylon 04.11.2015 19:45
    Highlight Highlight Lesenswerter Blog von Harald Jenk zu dem Thema. http://www.jenk.ch/selbstfahrende-autos-swisscom-chancen/
  • censored 04.11.2015 13:41
    Highlight Highlight Das Auto hat sich zu jeder Zeit an die Verkehrsregeln zu halten. Es darf nicht von der Strasse abweichen. Wenn es nicht mehr reicht um zu Bremsen hat man Pech gehabt (Passanten und Autofahrer)
    • Hatzman 04.11.2015 14:36
      Highlight Highlight Jaaaa
      Noch jemand mit Verstand <3
  • atomschlaf 04.11.2015 13:21
    Highlight Highlight Als potentieller Autokäufer würde ich selbstverständlich erwarten, dass das Auto in meinem besten Interesse handelt, d.h. dass es Gesundheit und Leben der Insassen bestmöglich schützt.
    Sonst lieber mit einer alten Schwarte selbst fahren. ;)
    • Roman Rey 04.11.2015 13:23
      Highlight Highlight Und als Fussgänger?
    • Mafi 04.11.2015 22:22
      Highlight Highlight Da rennt man nicht auf die Strasse.
    • xHascox 16.07.2017 23:45
      Highlight Highlight @Roman Rey Ja, als Fussgänger willst du nicht, dass das Auto dich statt die Insassen tötet. Aber bei menschlichen Lenker(innen) hast du auch keine Garantie...
  • kEINKOmmEnTAR 04.11.2015 13:16
    Highlight Highlight Ich sehe nicht ein wieso wir zwei Strassensystem brauchen sollten.

    Wer mag fährt mit den neuen Autos, die anderen mit den Alten.
    • kEINKOmmEnTAR 04.11.2015 13:42
      Highlight Highlight Das ist doch ganz klar:
      Im obersten Beispiel der Renter (er hat am wenigsten lang zu leben und kann sich nicht fortpflanzen) und im nächsten Beispiel der Fahrer da das Kind wertvoller ist etc.

      Berechnungsgrundlage wäre z.B.:
      Renter - 0.2
      Erwachsene - 0.5
      Jugendlicher - 0.7
      Kind - 0.9
      Baby - 1.0

      Abzüge:
      Medizinisch krank - -0.5
      Geistig krank - -0.8
      Schlecht für die Umwelt - -0.3

      Und ja es wird wohl auch Zuzüge geben:
      ...


      Ich werde mich mit diesem Kommentar zwar nicht beliebt machen aber eine solche Aufstellung wir es sowieso irgendwann geben. Je eher man es akzeptiert, desto besser.
    • Roman Rey 04.11.2015 14:14
      Highlight Highlight Das ist jetzt aber vollgas utilitaristisch. Dann müsste man auch aufhören, ältere Menschen zu operieren, weil sie zu teuer sind. Ein ausser Kontrolle geratenes (oder von Terroristen gesteuertes) Passagierflugzeug abschiessen, weil es auf ein besiedeltes Gebiet zufliegt. Einen Menschen foltern, um möglicherweise andere zu retten.

      Das tun wir aber nicht. Weil wir andere Werte haben.
    • ovatta 04.11.2015 14:14
      Highlight Highlight Bei Wildunfällen sagt man ja: draufhalten ausser es ist ein Elch!
    Weitere Antworten anzeigen
  • Charlie Brown 04.11.2015 12:53
    Highlight Highlight Und mit dem "Ego-Security-Package" gegen Aufpreis reagiert die Karre dan anders.
    • Roman Rey 04.11.2015 13:09
      Highlight Highlight Ausser, sie trifft auf ein anderes Auto mit einem extrateuren "Priority-Extra-Security-Package" - dann hast du Pech gehabt :)
    • Charlie Brown 04.11.2015 16:13
      Highlight Highlight @Roman: Das erinnert mich an eine Folge Knightrider wo KITT auf seinen bösen Zwilling trifft und sie beide aufeinander zurasen. Die Frontalkollision scheint unvermeidlich doch....

      ...(clifhanger)...

      ...antizipiert KITT richtig, dass der böse KITT die Selbstehaltung höher gewichtet und im letzten Moment ausweicht.

      Was dieser Kommentar mit dem Thema zu tun hat? Hmmm... Eigentlich nichts. Ist mir halt in den Sinn gekommen :-)
    • Roman Rey 04.11.2015 16:29
      Highlight Highlight Doch, doch, Tell, dein Kommentar hat alles mit dem Thema zu tun.

      Wenn die Ethikprogramme der selbstfahrenden Autos tatsächlich modifizierbar sind, könnte das in eine Art Rüstungskrieg herauslaufen, wo der überlebt, der das bessere Programm hat. Das Programm, das die anderen austricksen kann, so wie das KITT mit dem bösen KITT gemacht hat.
  • sterpfi 04.11.2015 12:40
    Highlight Highlight In der Tat schwierige Fragen... ich tendiere in folgende Richtung:
    a) Hauptpriorität gehört den Insassen des Autos, denn so würde sich auch ein menschlicher Fahrer verhalten (ich glaube nicht dass jemand auf die Idee kommen könnte sein Auto in eine Mauer zu lenken wie in dem Beispiel)
    b) "Unschuldige" Opfer vermeiden: Wenn eine Menschengruppe unvorhersehbar auf eine Strasse rennt, tendiere ich eher dafür, sie für ihren Fehler zu "bestrafen", anstatt eine sich korrekt verhaltende Person auf dem Trottoir in den Unfall reinzuziehen.
    • Roman Rey 04.11.2015 13:06
      Highlight Highlight Zu a) Müsste nicht, wer in ein Auto einsteigt, mehr Verantwortung tragen und somit das Todesrisiko auf sich nehmen? Statt ein unschuldiger Fussgänger.

      b) Die Software müsste erkennen können, mit welcher Absicht und wie fahrlässig der Fussgänger handelt. Viel Spass beim Programmieren.
    • Charlie Brown 04.11.2015 18:18
      Highlight Highlight Es gibt so etwas wie einen Grundsatz, dass der Stärkere auf den Schwächeren Rücksicht nimmt. Auch wenn der Schwächere ein Fehlverhalten zeigt. Aber das gilt leider auch in den Köpfen von vielen non-selfdriving Fahrern nicht mehr.

      Und bevor das Gepolter losgeht: Ich bin auch Autofahrer. Ich ärgere mich auch über kopflose Fussgänger. Und auch über lebensmüde, egomane Velofahrer. Aber ich überfahre sie trotzdem nicht. Und ich sage auch nicht einfach selberschuld, wenn sie angefahren werden. Weil der Verkehr ein komplexes System ist, bei welchem alle Teilnehmer eine Mitverantwortung tragen.
  • Bastian Zuberbuehler 04.11.2015 11:21
    Highlight Highlight Hä?! Wir diskutieren hier also in einer Selbstverständlichkeit über selbst fahrende Fahrzeuge und die dafür benötigten Technologien, aber bei den Lösungen für das Trolley-Problem bleiben wir bei den scheinbar einzigen beiden (technologischen) Lösungsoptionen "Insassen opfern" vs. "Passanten opfern"? Nicht gerade "thinking big"...
    Klar, irgendwo am Ende aller Möglichkeiten bleibt das "ich oder du" aus der Optik des Insassen. Aber dies an diesem Fall aufhängen? Follow-up zum Tesla-Bashing?
    • Roman Rey 04.11.2015 11:27
      Highlight Highlight Es geht hier um Situationen, bei dem Tote nicht vermieden können. Die Autos müssen für solche Fälle programmiert werden. Und wie das gemacht wird, finde ich eine der drängendsten Fragen.
  • no0815girl 04.11.2015 11:05
    Highlight Highlight Selbstfahrende Autos heissen ja nicht, dass man nicht selbst fahren kann. Man muss es nur so bauen, dass man den Autopiloten auch ausschalten kann. Evt. geregelt, auf speziellen Autobahnen für selbstfahrende Autos kann mans nicht abschalten, nach der Ausfahrt dann jedoch schon. Möglichkeiten gäbe es genug. Nur die Entscheidung zwischen den vielen Möglichkeiten und die Umsetzung sind schwierig.
    • Roman Rey 04.11.2015 11:10
      Highlight Highlight «Selbstfahrende Autos heissen ja nicht, dass man nicht selbst fahren kann.»

      Jein. Die Google-Autos haben ja weder Lenkrad noch Pedale. Wir müssen uns tatsächlich die Frage stellen, welche Art von selbstfahrenden Autos wir wollen.
    • EvilBetty 04.11.2015 11:39
      Highlight Highlight Ein Computer entscheidet in solchen Fällen halt einfach viel schneller. Da hat der Mensch die Situation noch nicht mal erfasst. In der Tat eine spannende Frage die ich mir auch schon gestellt habe.
    • ovatta 04.11.2015 12:07
      Highlight Highlight in der Luftfahrt haben Autopiloten wohl zu massiv weniger Unfällen geführt. In manchen Situationen konnte allerdings nur menschliches handeln schlimmeres verhinder. Z.B. Die Notlandung im Hudson River.
    Weitere Antworten anzeigen
  • rstnpce 04.11.2015 11:01
    Highlight Highlight Was wäre wenn jemand absichtlich auf die Strasse rennt um den Insassen des Autos zu töten, da dieses in die Wand lenkt?
    • Roman Rey 04.11.2015 11:10
      Highlight Highlight Ich sehe da Hollywood-Potential :)
    • Charlie Brown 04.11.2015 12:52
      Highlight Highlight In der Hoffnung, dass die Software nicht von VW ist und anders reagiert, als man von ihr erwartet...
    • kEINKOmmEnTAR 04.11.2015 13:17
      Highlight Highlight Eine sehr gute und interessante Überlegung.
  • PadPalon 04.11.2015 10:52
    Highlight Highlight Hab das schon vor ein paar Wochen diskutiert als das Thema. Ist die ganze Diskussion nicht irgendwie ein Non-Issue? Menschliche Autofahrer sollten nur so schnell fahren dass sie in Sichtweite und den Verhältnissen angepasst anhalten können, wieso sollte sich ein autonomes Fahrzeug also anders verhalten?
    • no0815girl 04.11.2015 11:02
      Highlight Highlight Und wenn ein Kind aus einem Gebüsch direkt vors Auto springt? Darf das Auto dann nur Schritttempo fahren, weil die Strassenränder nicht einsehbar sind?
      Beim Mensch geht diese Taktik ja auch nicht auf, wie die vielen Unfälle zeigen.
    • Charlie Brown 04.11.2015 12:49
      Highlight Highlight Ist doch ganz einfach; Kinder mit GPS-Sender ausstatten und schon weiss google (eigentlich alphapet), wo die Gefahr lauert...
    • Roman Rey 04.11.2015 13:17
      Highlight Highlight Jeder bekommt einen Chip. Dann findet dich das selbstfahrende Uber-Taxi auch viel besser.
    Weitere Antworten anzeigen

Geräuschlose Zeiten für Elektroautos sind vorbei – Blindenverband will weitere Massnahmen

Ab dem 1. Juli 2019 müssen alle neuen Elektro-, Hybrid- und Brennstoffzellenfahrzeuge in der EU Geräusche von sich geben. Die Schweiz schliesst sich den europäischen Vorgaben an und arbeitet derzeit an deren Umsetzung, wie die NZZ am Sonntag berichtet. Damit soll zur Unfallverhütung beigetragen werden.

Künftig wird bei allen neuen Elektrofahrzeugen das Acoustic Vehicle Alerting System (AVAS) über Lautsprecher Lärm erzeugen – je nach Hersteller werden die imitierten …

Artikel lesen
Link to Article