Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Tödlicher Uber-Unfall: Das Notbremssystem war nicht aktiv



Bei dem in einen tödlichen Verkehrsunfall verwickelten selbstfahrenden Auto des Fahrdienstes Uber Mitte März in Arizona ist das Notbremssystem nicht aktiviert gewesen. Das teilte die US-Verkehrssicherheitsbehörde (NTSB) am Donnerstag in einem vorläufigen Untersuchungsbericht mit.

Das selbstfahrende Auto habe die Fussgängerin 6 Sekunden vor dem Zusammenprall entdeckt. 1,3 Sekunden vor dem Unfall habe das System festgestellt, dass die Notbremse gezogen werden müsse, um einen Zusammenstoss zu vermeiden.

Das Notbremssystem sei jedoch nicht aktiv, wenn die selbstfahrenden Uber-Autos computergesteuert führen, «um ein möglicherweise sprunghaftes Fahrverhalten zu verringern», erklärte die Behörde. Die Person hinter dem Steuer müsse dann eingreifen und die Kontrolle über das Auto übernehmen – allerdings sei das System nicht so ausgelegt, dass es den Fahrer warne.

Nach Handys gesucht

Bei dem Unfall, der sich am 18. März im Bundesstaat Arizona ereignet hatte, habe die Fahrerin weniger als eine Sekunde vor dem Zusammenstoss mit der Fussgängerin die Kontrolle über das Auto übernommen, teilte die US-Behörde mit. Gebremst habe sie weniger als eine Sekunde nach dem Unfall.

Die Fahrerin sagte der NTSB, dass sie die Selbstfahrfunktion des Wagens nutzte, während sie überprüfte, ob ihre Telefone im Auto waren. Der Unfallverantwortliche wird in dem vorläufigen Bericht nicht benannt. Alle Aspekte des Unfalls würden weiter geprüft, erklärte die NTSB.

Die 49-jährige Fussgängerin war nach dem Unfall ihren Verletzungen erlegen. Dem Zwischenbericht zufolge war sie ganz in Schwarz gekleidet, schaute «im Moment des Unfalls nicht zum Auto» und überquerte die Strasse in einem schlecht beleuchteten Bereich. Das Fahrrad, das sie geschoben habe, habe keine Reflektoren gehabt, zudem habe sie unter Drogeneinfluss gestanden.

Uber legte nach dem Unfall den Betrieb seiner selbstfahrenden Autos in Nordamerika vorläufig auf Eis. Eine Sprecherin von Uber erklärte am Donnerstag, das Unternehmen habe in den vergangenen zwei Monaten eng mit der US-Behörde zusammengearbeitet. Gleichzeitig habe Uber die Sicherheitssysteme der selbstfahrenden Autos überprüft.

(sda/afp)

Abonniere unseren Newsletter

Themen
21
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
21Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • My Senf 25.05.2018 09:08
    Highlight Highlight Schlussendlich also ein Unfall wie er auch mit jedem konventionellen 🚗 passieren würde.
    Dunkel, unbeleuchtete Stelle, Drogen, unaufmerksame Fahrerin (die nach dem 📱 sucht! vielleicht noch auf insta ist..)

    Da kann uber nicht viel anders machen, leider.
    • kobL 25.05.2018 09:23
      Highlight Highlight So unbeleuchtet wie im offiziellen Video ist die Stelle nicht. Einem aufmerksamen FahrerIn wäre die Dame sicher aufgefallen.
      Benutzer Bild
    • Gipfeligeist 25.05.2018 10:05
      Highlight Highlight "Der Fussgänger wurde 6 Sekunden vor dem Zusammenstoss entdeckt"
      Nein, das ist kein Fehler des autonomen Fahrens, denn jeder Autopilot hätte korrekt gehandelt. Aber Uber hat fahrlässig getötet, indem sie diese Funktionen bewusst entfernt haben.
    • My Senf 25.05.2018 14:25
      Highlight Highlight kobL

      Nur 🤔

      Die Fahrerin war nicht aufmerksam...
      Genau, wie so viele die ich rund um den gubrist sehe die ihre insta Storys checken...😡
  • Madison Pierce 25.05.2018 08:04
    Highlight Highlight Das war also kein Softwarefehler, sondern Böswilligkeit der Entwickler: Man befürchtet überflüssige Bremsmanöver auf den Testfahrten und will die Kunden nicht damit belästigen. Also deaktiviert man einfach die Notbremsfunktion. Eine Funktion, den Fahrer zu warnen, gibt es ebenfalls nicht.

    Es war also kein Autopilot im Einsatz, sondern bestenfalls ein (schlechter) Fahrassistent.

    Entweder dem Fahrer wurde das so gesagt und er hat fahrlässig nicht auf den Verkehr geachtet oder es war einfach kriminell von den Entwicklern.
    • Astrogator 25.05.2018 08:55
      Highlight Highlight Aus eigener Erfahrung als ehemaliger Entwickler in der Medizinaltechnik kann ich beruhigt sagen, dass es zu 99% nicht die Schuld der Entwickler ist, denn solche Entscheidungen werden von Betriebswirtschaftern in aller Regel entgegen den Empfehlungen der Entwickler gefällt.
      Bei uns war der Entscheidungschart in der Regel einfach: tötet das Problem Menschen? Nein: raus damit. Ja: Kann man einen Hinweis ins Handbuch schreiben? Ja: raus damit. Geht irgendwer drauf stand es ja im Handbuch.
      Sieht man auch analog beim VW-Dieselskandal, die Ingenieure waren dagegen und trotzdem wurde es gemacht.
    • Midnight 25.05.2018 09:17
      Highlight Highlight 💵💵💵💵💵💵💵
    • My Senf 25.05.2018 10:21
      Highlight Highlight Welche Kunden?
    Weitere Antworten anzeigen
  • Astrogator 25.05.2018 07:47
    Highlight Highlight Bedenklich finde ich die rechtliche Einordnung bei Unfällen mit selbstfahrende Autos. Plötzlich ist niemand schuld, bei menschlichen Fahrern unmöglich, zumindest "nicht beherrschen des Fahrzeugs" bleibt immer hängen. Man kann aber menschliche Fahrer nicht für etwas schuldig sprechen für das bei selbstfahrenden Autos niemand verantwortlich gemacht werden kann. Und ich höre bereits die Lobbyisten, die sagen man dürfe einen Hersteller nicht für Unfälle verantwortlich machen.
    • Madison Pierce 25.05.2018 08:49
      Highlight Highlight Es ist immer jemand schuld. Im konkreten Fall gibt es zwei Möglichkeiten:

      a.) Hersteller sagt dem Fahrer: "Wir testen einen Autopiloten. Der ist aber noch nicht bereit, um selbständig zu fahren. Du bist verantwortlich und musst jederzeit eingreifen können." => Fahrer schuld.

      b.) "Dieses Auto fährt selbst. Schau einfach, dass es den Gästen wohl ist." => Hersteller schuld.

      Mein Auto fährt auf der Autobahn auch autonom. Aber es steht ganz klar im Handbuch, dass sich der Assistent jederzeit ohne Vorwarnung ausschalten kann. Bei einem Unfall wäre definitiv ich schuld.
    • Ökonometriker 25.05.2018 08:50
      Highlight Highlight Die Exekutive hat auch nicht zu sagen wer Schuld ist. Das ist Sache der Gerichte. (Es gibt da ein paar Ausnahmen, aber nicht bei tödlichen Unfällen).
    • Astrogator 25.05.2018 11:56
      Highlight Highlight @Ökonometriker: Ich habe nirgends etwas von Exekutive geschrieben. Die Gerichte wenden Gesetze an, die von der Legislative erlassen werden, die wiederum bestenfalls von Lobbyisten beeinflusst werden, im schlechtesten Fall schreiben sie Gesetze gleich selbst wie bei der UST III oder aktuell das Versicherungsrecht.

      Um mich zu wiederholen: wenn bei autonom fahrenden Autos niemand für Unfälle verantwortlich gemacht werden kann, ist das bei menschlich verursachten Unfällen in gleich gelagerten Fällen auch nicht möglich.
      Ich denke nicht an den Stand jetzt, sondern an die Zukunft.
  • @cyclingsimon 25.05.2018 07:26
    Highlight Highlight Verstehe ich das richtig, dass das Notbremssystem bewusst deaktiviert wurde und trotzdem der Autopilot eingeschaltet war? Falls ja ist das ja sehr bedenklich.
    • roger_dodger 25.05.2018 07:45
      Highlight Highlight Jup, ein selbstfahrendes Auto das nicht selber eine Notbremsung machen kann. Da scheinen einige Genies an der Arbeit gewesen zu sein. Und dazu eine Fahrerin, die texten musste, anstatt auf die Strasse zu schauen = Katastrophe vorprogrammiert.
    • walsi 25.05.2018 07:56
      Highlight Highlight Ist eigentlich logisch, da der Autopilot auch die Funktion des Notfallsystems übernimmt. Um zu testen ob der Autopilot in einer Notsituation richtig reagiert, muss ich das serienmässige System deaktivieren.
    • ands 25.05.2018 10:01
      Highlight Highlight @ walsi: Ist das so? Hast du dazu eine Quelle? Für mich tönt es eher so, als würde der "Autopilot" die Spur halten, navigieren, Lichtsignale beachten, ...
      Das System hat die Fussgängerin ja erkannt, gebremst hat aber die Fahrerin über eine Sekunde später.
    Weitere Antworten anzeigen

Spotify wird 10 Jahre alt und verbrennt täglich Millionen – genauso wie diese Start-Ups

Wer erfolgreich sein will, darf keine Gewinne machen – so scheint es zumindest, wenn man sich die Umsätze von Spotify ansieht. Doch der Musik-Streaming-Dienst, der im Oktober zehn Jahre alt wird, ist nicht das einzige Start-Up, das Millionenverluste einfährt.

Am 7. Oktober 2008 ging der Musik-Streaming-Dienst von Spotify in mehreren Ländern online. Seither hat das Start-Up aus Schweden die Führungsposition in diesem Markt erobert und selbst gegen Apple, Google und Amazon erfolgreich …

Artikel lesen
Link zum Artikel