Die Debatte um Teslas Autopilot-Technologie hat in jüngster Zeit an Intensität gewonnen. Zwei bevorstehende Gerichtsverfahren könnten entscheidend sein, um festzustellen, ob die Technologie für tödliche Unfälle verantwortlich ist und ob Tesla dafür haftbar gemacht werden kann. Während Tesla betont, dass der Autopilot sicher ist, solange er ordnungsgemäß überwacht wird, sehen die Kläger das anders.
Im ersten Fall, der im September in Kalifornien verhandelt wird, kam ein Tesla Model 3 2019 von einer Straße bei Los Angeles ab, kollidierte mit einer Palme und ging in Flammen auf. Der Fahrer verlor dabei sein Leben, während zwei Passagiere schwer verletzt wurden. Die Hinterbliebenen des Fahrers und die verletzten Passagiere behaupten, dass Tesla sich der Mängel des Autopiloten bewusst war.
Ein weiterer Fall in Florida, der im Oktober verhandelt wird, befasst sich mit einem Tesla Model 3, das ebenfalls 2019 unter einen Lastwagen geriet, wobei der Fahrer ums Leben kam. Die Witwe des Fahrers behauptet, dass der Autopilot nicht eingegriffen hat, um den Unfall zu verhindern.
Tesla verteidigt seine Technologie
Trotz der Vorwürfe betont Tesla, dass die Fahrer stets die Kontrolle über das Fahrzeug behalten sollten. Das Unternehmen stellt klar, dass es derzeit keine vollständig autonomen Fahrzeuge auf den Straßen gibt. „Es gibt heute keine selbstfahrenden Autos auf den Straßen“, betonte Tesla in einer Stellungnahme.
Elon Musk, der CEO von Tesla, hat den Autopiloten wiederholt gelobt. Doch die Frage bleibt: Was wussten Musk und andere Führungskräfte bei Tesla wirklich über die Fähigkeiten des Autopiloten?
Die Bedeutung für Tesla und die Anleger
Die Ergebnisse dieser Gerichtsverfahren könnten weitreichende Auswirkungen auf Tesla haben. Ein negatives Urteil könnte das Vertrauen der Kunden in die Technologie erschüttern und sich auf den Absatz der Software auswirken, die bis zu 15.000 Dollar pro Fahrzeug kosten kann. Ferner könnte ein solches Urteil auch den Börsenwert von Tesla beeinflussen.
Die US-Verkehrsbehörde NHTSA hat ebenfalls Interesse an Teslas Autopilot gezeigt und das Unternehmen aufgefordert, Fragen zur Technologie zu beantworten. Die Behörde möchte auch wissen, wie Tesla die Software modifiziert hat, um es den Fahrern zu ermöglichen, die Hände länger vom Lenkrad zu nehmen.
Für Elon Musk sind diese Verfahren mehr als nur rechtliche Auseinandersetzungen. Sie sind ein Test für die Glaubwürdigkeit seiner technologischen Visionen und könnten entscheidend für die Zukunft von Tesla sein.
Vergangene Verfahren und Teslas Position
Es ist nicht das erste Mal, dass Tesla wegen seines Autopiloten vor Gericht steht. In der Vergangenheit ging es jedoch um Verletzungen und nicht um Todesfälle. Im April gewann Tesla einen Prozess in Los Angeles, bei dem es um einen Unfall mit einem Model S ging. Das Unternehmen argumentierte, dass die Technologie, obwohl sie als „Autopilot“ und „Full Self-Driving“ bezeichnet wird, vom Fahrer überwacht werden muss. Das Gericht stimmte dieser Ansicht zu und entschied, dass die Fahrer für ihre Unachtsamkeit verantwortlich sind.
Quelle: Manager-Magazin – Tesla wegen Todesfällen mit Autopilot erstmals vor Gericht
Es gab etliche Todesfälle. So einige listet tesladeaths auf. Es sind sogar einige tödliche Unfälle exakt auf die gleiche Weise passiert, z.B. durch einen querenden Sattelschlepper. Der größte FSD-Fan Michael Hendrickson, der immer wieder stolz Videos machte, wo er freihändig fuhr, ist vor zwei Jahren genau dabei gestorben. Auch ging es durchaus schon in Prozessen gegen Tesla um Todesfälle. Man erinnere nur letztes Jahr der Case von Apple Ingenieur Huang, der mit seinem Tesla zu Tode kam. Der Tesla fuhr ungebremst in eine helle Betonabsperrung.
Bei einem weiteren Prozess gegen Tesla wegen Betrug im Zusammenhang mit FSD mussten die Anwälte letzten November zähneknirschend zugeben, FSD wäre nicht Betrug gewesen, aber ein Fehlschlag. Not fraud, failure. Auch Aktionäre haben schon wegen der Versprechen im Zusammenhang mit dem FSD Klage eingereicht und die NHTSA hat ja auch noch zwei Fälle offen. Die hat angekündigt, demnächst zu entscheiden.Tesla hat von ihr einen detaillierten Fragenkatalog bekommen, nachdem man da offenbar Schwierigkeiten hatte, Informationen zu bekommen. Der Fragenkatalog ist öffentlich und die Fragen gehen in eine Richtung, die für den Fahrzeughersteller unangenehm werden könnten. Nämlich nicht, warum die Systeme so schlecht sind, sondern, warum der Tesla nicht hält, wenn der Fahrer nicht passend reagiert.
Ich denke, da ist viel Porzellan zerschlagen worden. Für mich ist das größte Unglück der Kollateralschaden für das autonome Fahren an sich. Dabei hat Tesla nirgends Tests zum autonomen Fahren beantragt. Solche jahrelangen, eng begleiteten Tests sind Voraussetzung für eine Zulassung. Sie sind also bei dem Thema völlig hinten. Aber mit ihren unseriösen Versprechen schaden sie der Sache trotzdem. Mir macht besonders der Chef Sorgen. Der merkt nichts mehr: Er hat ja vor einigen Tagen ein Video einstellen lassen, wo er selber die neueste FSD-Version fährt. Bei Minute 20 wäre der Tesla ohne jegliche Warnung in den Gegenverkehr gefahren, wenn Musk nicht sofort reagiert und zum Stillstand gebremst hätte. Alter Schwede!
Schade, nur alte Kamellen im Artikel. Nichts über FSD 12. Und bis jetzt noch nicht mal ein Kommentar von Marc.
„Es gibt heute keine selbstfahrenden Autos auf den Straßen“ Das stimmt, aber Mercedes hat immerhin schon Level 4 für das Apcoa Parkhaus P6 am Flughafen in Stuttgart!
98% der Autounfälle sind heutzutage auf menschliches Versagen zurück zu führen, was sich in der Zukunft (mit/ohne AP bzw. FSD) sicherlich nicht ändern wird, leider…
so what… :(
Ps.uber FSD kann ich nicht berichten (kaufe keine Katze im Sack); AP dagegen hat mich schon öfters ins positive Staunen versetzt… THX T
@ Sebastian
Editieren funktioniert wieder tadellos, Danke! :)
Ich habe das Musk Video sowie einige Analyse-Videos gesehen und fand das was Tesla da macht fantastisch. Das neue Selbstfahren ist halt nicht einprogrammiert sondern orientiert sich am realen fahren. Keine Probleme in Baustellen, weil FSD V12 sich nicht um die Linien auf der Straße kümmert. Wo alle anderen Systeme verzweifeln, weil sie nicht wissen, an welche Fahrbahnmarkierungen sie sich jetzt zu halten haben.
Problem sehe ich eher darin, dass das so, selbst wenn es irgendwann perfektioniert wäre, wohl keine Zulassung bekommt, da eben nach Realität und nicht nach Verkehrsregeln gefahren wird.
Nur 0,5 Prozent der Fahrer halten richtig an Stop-Schildern, entsprechend hält V12 auch nicht an der Stop-Linie sondern fährt bis zur Sichtlinie vor und hält dann nur, wenn ein Auto kommt, ansonsten fährt er wie jeder andere Autofahrer auch, verkehrswidrig einfach weiter.
Gleiches bei Geschwindigkeitsbeschränkungen, angezeigt ist z.B. 70 aber der fließende Verkehr fährt 80, also fährt V12 mit dem Verkehr ebenfalls 80.
Solange nicht 100 Prozent der Autos autonom fahren ist das mit Sicherheit der bessere Ansatz, aber wie gesagt, das wird deswegen wohl eher niemals so erlaubt werden.
diejenigen die (heute) der Technologie alzusehr vertrauern werden halt sterben,
nicht nur in Teslas.
Darwinismus…