Tesla sah sich mit zahlreichen Fragen zu seiner Autopilot-Technologie konfrontiert, nachdem ein Fahrer aus Florida im Jahr 2016 getötet wurde, als das System aus Sensoren und Kameras einen Sattelzug, der eine Straße überquerte, nicht erkennen und nicht bremsen konnte.

Jetzt steht das Unternehmen wegen des Autopiloten, von dem Tesla und sein Vorstandsvorsitzender Elon Musk seit langem behaupten, dass er seine Autos sicherer als andere Fahrzeuge macht, einer genaueren Prüfung gegenüber als in den letzten fünf Jahren. Bundesbeamte untersuchen eine Reihe von Unfällen in jüngster Zeit, an denen Teslas beteiligt waren, die entweder den Autopiloten verwendeten oder möglicherweise verwendet haben.

Die National Highway Traffic Safety Administration bestätigte letzte Woche, dass sie 23 solcher Unfälle untersucht. Bei einem Unfall in diesem Monat fuhr ein Tesla Model Y hinter einem Polizeiauto her, das auf einer Autobahn in der Nähe von Lansing, Michigan, angehalten hatte. Der Fahrer, der nicht ernsthaft verletzt wurde, hatte den Autopiloten benutzt, sagte die Polizei.

Im Februar fuhr in Detroit unter ähnlichen Umständen wie bei dem Unfall in Florida 2016 ein Tesla unter einen Sattelzug, der die Straße überquerte, und riss das Dach vom Auto. Der Fahrer und ein Beifahrer wurden schwer verletzt. Beamte haben nicht gesagt, ob der Fahrer den Autopiloten eingeschaltet hatte.

Die NHTSA untersucht auch einen Unfall vom 27. Februar in der Nähe von Houston, bei dem ein Tesla auf einer Autobahn in ein angehaltenes Polizeifahrzeug fuhr. Es ist nicht klar, ob der Fahrer den Autopiloten verwendet hat. Das Auto schien vor dem Aufprall nicht langsamer zu werden, sagte die Polizei.

Autopilot ist ein computergestütztes System, das Radar und Kameras verwendet, um Fahrbahnmarkierungen, andere Fahrzeuge und Objekte auf der Straße zu erkennen. Es kann mit wenig Input des Fahrers automatisch lenken, bremsen und beschleunigen. Tesla hat gesagt, dass es nur auf geteilten Autobahnen verwendet werden sollte, aber Videos in sozialen Medien zeigen Fahrer, die den Autopiloten auf verschiedenen Arten von Straßen verwenden.

„Wir müssen zuerst die Ergebnisse der Untersuchungen sehen, aber diese Vorfälle sind die neuesten Beispiele, die zeigen, dass diese fortschrittlichen Geschwindigkeitsregelungsfunktionen von Tesla nicht sehr gut darin sind, ein Fahrzeug zu erkennen und dann anzuhalten, das auf einer Autobahn angehalten wird.“ sagte Jason Levine, Executive Director des Center for Auto Safety, einer Gruppe, die in den 1970er Jahren von Consumers Union und Ralph Nader gegründet wurde.

Diese erneute Prüfung kommt zu einem kritischen Zeitpunkt für Tesla. Nach dem Erreichen eines Rekordhochs in diesem Jahr ist der Aktienkurs um etwa 20 Prozent gefallen, da es Anzeichen dafür gibt, dass die Elektroautos des Unternehmens Marktanteile an traditionelle Autohersteller verlieren. Der Mustang Mach E von Ford Motor und der Volkswagen ID.4 kamen kürzlich in die Showrooms und gelten als ernsthafte Herausforderer des Model Y.

Das Ergebnis der aktuellen Untersuchungen ist nicht nur für Tesla wichtig, sondern auch für andere Technologie- und Autounternehmen, die an autonomen Autos arbeiten. Während Herr Musk häufig angedeutet hat, dass der weit verbreitete Einsatz dieser Fahrzeuge nahe ist, haben Ford, General Motors und Waymo, eine Abteilung von Googles Muttergesellschaft Alphabet, gesagt, dass dieser Moment Jahre oder sogar Jahrzehnte entfernt sein könnte.

Bryant Walker Smith, Professor an der University of South Carolina, der die Bundesregierung beim automatisierten Fahren beraten hat, sagte, es sei wichtig, fortschrittliche Technologien zu entwickeln, um die Zahl der Verkehrstoten zu reduzieren, die derzeit etwa 40.000 pro Jahr betragen. Aber er sagte, er habe Bedenken wegen Autopilot und wie der Name und das Marketing von Tesla implizieren, dass Fahrer ihre Aufmerksamkeit sicher von der Straße abwenden können.

„Es gibt eine unglaubliche Diskrepanz zwischen dem, was das Unternehmen und sein Gründer sagen und die Leute glauben lassen, und dem, wozu ihr System tatsächlich in der Lage ist“, sagte er.

Tesla, das seine PR-Abteilung auflöste und im Allgemeinen nicht auf Anfragen von Reportern antwortet, antwortete nicht auf Anrufe oder E-Mails mit der Bitte um Stellungnahme. Und Mr. Musk antwortete nicht auf Fragen, die ihm auf Twitter geschickt wurden.

Das Unternehmen hat die jüngsten Abstürze nicht öffentlich angesprochen. Es kann zwar feststellen, ob der Autopilot zum Zeitpunkt von Unfällen eingeschaltet war, weil seine Autos ständig Daten an das Unternehmen senden, es hat jedoch nicht gesagt, ob das System verwendet wurde.

Das Unternehmen hat argumentiert, dass seine Autos sehr sicher seien, und behauptet, dass seine eigenen Daten zeigen, dass Teslas weniger Unfälle pro gefahrenem Kilometer haben und sogar noch weniger, wenn der Autopilot verwendet wird. Es hat auch gesagt, dass es den Fahrern sagt, dass sie bei der Verwendung des Autopiloten genau auf die Straße achten müssen und immer bereit sein sollten, die Kontrolle über ihre Autos wieder zu übernehmen.

Eine bundesstaatliche Untersuchung des tödlichen Unfalls von 2016 in Florida ergab, dass der Autopilot einen weißen Sattelauflieger vor einem hellen Himmel nicht erkannt hatte und dass der Fahrer ihn benutzen konnte, wenn er nicht auf einer Autobahn war. Der Autopilot setzte das Auto mit 74 Meilen pro Stunde fort, obwohl der Fahrer, Joshua Brown, mehrere Warnungen ignorierte, um seine Hände am Lenkrad zu lassen.

Ein zweiter tödlicher Vorfall ereignete sich 2019 in Florida unter ähnlichen Umständen – ein Tesla prallte gegen einen Sattelzug, als der Autopilot aktiviert war. Die Ermittler stellten fest, dass der Fahrer vor dem Aufprall seine Hände nicht am Lenkrad gehabt hatte.

Bundesbeamte untersuchen die jüngsten Unfälle mit Teslas, die entweder den Autopiloten verwendeten oder möglicherweise verwendet haben. Kredit… KTVU-TV, über Associated Press

Während die NHTSA Tesla nicht gezwungen hat, den Autopiloten zurückzurufen, kam das National Transportation Safety Board zu dem Schluss, dass das System beim Unfall in Florida 2016 „eine wichtige Rolle gespielt“ habe. Es hieß auch, dass der Technologie Sicherheitsvorkehrungen fehlten, um zu verhindern, dass Fahrer die Hände vom Lenkrad nehmen oder von der Straße wegschauen. Das Sicherheitsgremium kam zu ähnlichen Schlussfolgerungen, als es 2018 einen Unfall in Kalifornien untersuchte.

Im Vergleich dazu überwacht ein ähnliches GM-System, Super Cruise, die Augen eines Fahrers und schaltet ab, wenn die Person länger als ein paar Sekunden von der Straße wegschaut. Dieses System kann nur auf großen Autobahnen verwendet werden.

In einem Schreiben vom 1. Februar kritisierte der Vorsitzende des National Transportation Safety Board, Robert Sumwalt, die NHTSA dafür, dass sie nicht mehr getan habe, um den Autopiloten zu evaluieren, und von Tesla verlangt habe, Schutzmaßnahmen hinzuzufügen, die verhindern, dass Fahrer das System missbrauchen.

Die neue Regierung in Washington könnte in Sachen Sicherheit eine strengere Linie verfolgen. Die Trump-Administration wollte nicht viele Vorschriften für autonome Fahrzeuge auferlegen und versuchte, andere Regeln zu lockern, die der Autoindustrie nicht gefielen, einschließlich Kraftstoffsparstandards. Im Gegensatz dazu hat Präsident Biden einen amtierenden NHTSA-Administrator, Steven Cliff, ernannt, der beim California Air Resources Board arbeitete, das häufig mit der Trump-Administration über Vorschriften zusammenstieß.

Bedenken hinsichtlich des Autopiloten könnten einige Autokäufer davon abhalten, Tesla für eine fortschrittlichere Version, Full Self-Driving, zu bezahlen, die das Unternehmen für 10.000 US-Dollar verkauft. Viele Kunden haben dafür bezahlt in der Erwartung, es in Zukunft nutzen zu können; Tesla hat die Option Ende letzten Jahres in einer „Beta“- oder Testversion für etwa 2.000 Autos in Betrieb genommen, und Herr Musk sagte kürzlich, das Unternehmen werde sie bald für mehr Autos verfügbar machen. Full Self Driving soll in der Lage sein, Tesla-Autos in Städten und auf lokalen Straßen zu betreiben, wo die Fahrbedingungen durch Gegenverkehr, Kreuzungen, Ampeln, Fußgänger und Radfahrer komplexer werden.

Trotz ihrer Namen haben Autopilot und Full Self-Driving große Einschränkungen. Ihre Software und Sensoren können Autos in vielen Situationen nicht steuern, weshalb der Fahrer den Blick auf die Straße und die Hände am oder nahe am Lenkrad halten muss.

In einem kürzlich veröffentlichten Brief an das kalifornische Kraftfahrzeugministerium räumte ein Tesla-Anwalt ein, dass Full Self-Driving Schwierigkeiten habe, auf eine Vielzahl von Fahrsituationen zu reagieren, und nicht als vollständig autonomes Fahrsystem betrachtet werden sollte.

Das System sei „nicht in der Lage, bestimmte „Umstände und Ereignisse zu erkennen oder darauf zu reagieren“,“ schrieb Eric C. Williams, Associate General Counsel von Tesla. „Dazu gehören statische Objekte und Straßenschutt, Einsatzfahrzeuge, Baustellen, große unkontrollierte Kreuzungen mit mehreren Zufahrten, Verstopfungen, schlechtes Wetter, komplizierte oder gegnerische Fahrzeuge auf den Fahrwegen, nicht kartierte Straßen.“

Herr Levine vom Center for Auto Safety hat sich bei den Bundesbehörden darüber beschwert, dass die Namen Autopilot und Full Self-Driving bestenfalls irreführend sind und einige Fahrer zu Leichtsinn ermutigen könnten.

„Der Autopilot schlägt vor, dass das Auto selbst fahren und, was noch wichtiger ist, sich selbst stoppen kann“, sagte er. „Und sie haben sich mit Full Self-Driving verdoppelt, und das führt wiederum dazu, dass die Verbraucher glauben, dass das Fahrzeug in der Lage ist, Dinge zu tun, zu denen es nicht in der Lage ist.“

Comments are disabled.