Digital
Tesla

Ungereimtheiten bei Tesla: Unfälle mit «Autopilot» werden untersucht

Ungereimtheiten bei Tesla: Unfälle mit «Autopilot» werden untersucht

Die US-Verkehrsbehörde nimmt Tesla genauer unter die Lupe. Im Raum steht ein ungeheuerlicher Verdacht. Das System zum teilautomatisierten Fahren soll sich kurz vor einem Aufprall abschalten.
16.06.2022, 18:40
Markus Abrahamczyk / t-online
Mehr «Digital»
Ein Artikel von
t-online

Im Jahr 2016 fiel der US-Verkehrsbehörde NHTSA erstmals die so genannte «Autopilot»-Software von Tesla ins Auge. Grund war ein tödlicher Unfall. Ein Fehler im System liess sich damals nicht finden. Weitere Unfälle nährten aber immer wieder Zweifel an der Funktionsfähigkeit der Software.

Seit dem vergangenen August ermittelt die Behörde erneut in etwa 100 Fällen. Dabei haben die Sicherheitsexperten offenbar ein Muster erkannt. Dieses Ergebnis sei Grund genug, um aus der bisherigen «vorläufigen Auswertung» eine «technische Analyse» zu machen. Die Folge könnte ein Rückruf für 830'000 Autos sein.

«Autopilot» schaltete sich kurz vor Aufprall ab

Deutlich drastischere Konsequenzen könnten sich aber aus einem besonders heiklen Detail der bisherigen Auswertung ergeben. Dabei geht es um 16 Tesla-Unfälle. Und eben um den «Autopilot» – ein Assistenzsystem, das laut Tesla-Chef Elon Musk das Fahren sicherer mache und Unfälle zu vermeiden helfe.

Fahrer müssten stets die Hände am Lenkrad behalten und jederzeit bereit sein, die Kontrolle zu übernehmen, sagt Tesla ausserdem über seinen Assistenten.

In den bislang 16 bekannten Fällen habe die National Highway Traffic Safety Administration NHTSA nun festgestellt, dass der «Autopilot» jeweils im Schnitt weniger als eine Sekunde vor dem Crash die Kontrolle übers Auto abgegeben habe. Dem Fahrer bliebe also überhaupt keine Zeit, um den Crash noch abzuwenden. Zudem kann der Aufprall so nur indirekt dem Tesla-«Autopilot» angelastet werden.

Warum tut der «Autopilot» so etwas?

Jetzt werden alte Musk-Statements interessant

Frühere Aussagen von Elon Musk könnten einen Hinweis geben. Mehrmals behauptete er, bestimmte Unfälle könnten gar nicht Teslas Schuld sein – denn die Daten des Unternehmens würden ja zeigen, dass im Moment des Crashs der «Autopilot» nicht aktiviert gewesen sei.

Weil er sich einen Bruchteil einer Sekunde vorher deaktiviert hat? Das hiesse: Das System könnte Unfälle erkannt, aber nicht abgewendet haben. Soll es sich bei einem drohenden Unfall einfach abschalten, um das Unternehmen makellos erscheinen zu lassen?

Falls die Untersuchung diesen Verdacht bestätigt, dann wäre die Makellosigkeit endgültig dahin.

Übrigens: Für die vergangenen zehn Monate haben die Hersteller in den USA beinahe 400 Unfälle mit selbstfahrenden Autos gemeldet. 273 der Zwischenfälle gehen auf das Konto von Tesla. Allerdings sind deren Autos verbreiteter als Konkurrenzmodelle, auch die Anzahl gefahrener Kilometer dürfte deshalb viel höher sein – und damit die Wahrscheinlichkeit eines Unfalls.

Beschwerden wegen Phantombremsungen mit Tesla-«Autopilot»

Seit Februar prüft die NHTSA Tesla auch wegen Berichten über unvermitteltes Bremsen. Auslöser seien 354 Beschwerden binnen neun Monaten gewesen, weil das «Autopilot»-System plötzlich und unerwartet die Bremsen aktiviert habe. Diese Beschwerden hätten sich seit Beginn der Untersuchung mehr als verdoppelt.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Selbstfahrende Autos – das musst du wissen
1 / 11
Selbstfahrende Autos – das musst du wissen
In Europa und den USA wird die Klassifizierung des autonomen Fahrens in fünf Stufen vorgenommen. Ein Überblick ...
quelle: ap/waymo / julia wang
Auf Facebook teilenAuf X teilen
Mann täuscht Unfall vor – und wird von einem Tesla entlarvt
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
54 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Hardy18
16.06.2022 19:57registriert Oktober 2015
Schon komisch das er sich kurz vorher abschaltet.
Aber nichtsdestotrotz, haben alle Fahrer als Lenker dieser Fahrzeuge versagt. Denn man fährt nicht auf ein Hindernis zu und denkt sich, das der Autopilot schon wisse wann man bremsen muss.
486
Melden
Zum Kommentar
avatar
Xinaka
16.06.2022 19:33registriert Juli 2019
Ich kann bestätigen, dass das FSD (Full Self Drive - also das was gemeinhin als "Autopilot" bezeichnet wird) im Tesla das am wenigsten ausgereifte Stück Technologie ist. Nach über einen halben Jahr definitiv DER Part, der mich enttäuscht hat. Ist sein Geld absolut nicht wert, in der Zwischenzeit darf das System in Europa nicht mal mehr eine Autobahngabel selbständig fahren (wurde im letzten update deaktiviert und benötigt nun eine aktive Einwirkung der fahrenden Person).
3311
Melden
Zum Kommentar
avatar
Elpolloloco
16.06.2022 20:37registriert Dezember 2016
Phantombremsungen kann ich leider bestätigen. Der Abstandstempomat meines 5 Jahre älteren BMW war leider besser.
254
Melden
Zum Kommentar
54
Schweizer haben laut Studie nur geringe Medienkompetenz

Die Medienkompetenz der Schweizer Bevölkerung ist laut einer vom Bundesamt für Kommunikation (Bakom) in Auftrag gegebenen Studie nicht sehr hoch. Vielen Befragten fällt es unter anderem schwer, die Kommunikationsabsicht eines Medienbeitrags – ob Information, Kommentar oder Werbung – einzuordnen.

Zur Story