Der Autopilot und das völlig autonome Fahren von Tesla wurden mit Hunderten von Unfällen und Dutzenden Todesfällen in Verbindung gebracht

Im März 2023 stieg ein Schüler aus North Carolina aus einem Schulbus, als er von einem Tesla Model Y angefahren wurde, der laut der amerikanischen „Space“-Website mit „Autobahngeschwindigkeit“ fuhr. Bundesuntersuchung heute veröffentlicht. Der Tesla-Fahrer nutzte Autopilot, die fortschrittliche Fahrerassistenzfunktion des Autoherstellers, die laut Elon Musk letztendlich zu vollständig selbstfahrenden Autos führen wird.

Es war der 17-jährige Student, der geschlagen wurde Er wurde per Hubschrauber ins Krankenhaus gebracht Mit lebensgefährlichen Verletzungen. Nach der Untersuchung Hunderter ähnlicher Unfälle ergab die Untersuchung jedoch, dass es ein Muster der Unaufmerksamkeit des Fahrers in Verbindung mit Mängeln in der Tesla-Technologie gab, was zu Hunderten von Verletzungen und Dutzenden Todesfällen führte.

NHTSA kam zu dem Schluss, dass Fahrer, die den Autopiloten oder das fortschrittlichere vollständige Selbstfahrsystem des Systems nutzten, „nicht ausreichend in die Fahraufgabe eingebunden waren“ und dass die Technologie von Tesla „nicht ausreichend dafür sorgte, dass die Fahrer ihre Aufmerksamkeit bei der Fahraufgabe aufrechterhielten“.

Fahrer, die Autopilot oder ein ähnliches, fortschrittlicheres System, also völlig autonomes Fahren, nutzen, sind „nicht ausreichend in die Fahraufgabe involviert“.

Insgesamt untersuchte die NHTSA 956 Unfälle, beginnend im Januar 2018 und bis August 2023. Bei diesen Unfällen, an denen einige andere Tesla-Fahrzeuge beteiligt waren, starben 29 Menschen. Außerdem kam es zu 211 Unfällen, „bei denen das vordere Flugzeug eines Tesla mit einem Fahrzeug oder Hindernis auf seinem Weg kollidierte“. Bei diesen häufig schwerwiegenden Vorfällen kamen 14 Menschen ums Leben und 49 weitere wurden verletzt.

Die NHTSA wurde gebeten, ihre Ermittlungen einzuleiten, nachdem mehrere Unfälle stattgefunden hatten, bei denen Tesla-Fahrer mit am Straßenrand geparkten Einsatzfahrzeugen zusammenstießen. Die meisten dieser Vorfälle ereigneten sich nach Einbruch der Dunkelheit, wobei das Programm Maßnahmen zur Szenenkontrolle, einschließlich Warnlichtern, Leuchtraketen, Kegeln und einer beleuchteten Pfeiltafel, ignorierte.

Die Behörde stellte in ihrem Bericht fest, dass Autopilot – und in einigen Fällen FSD – nicht darauf ausgelegt war, den Fahrer bei der Fahraufgabe zu beschäftigen. Tesla sagt, es warnt seine Kunden, bei der Verwendung von Autopilot und FSD aufmerksam zu sein, was bedeutet, dass sie ihre Hände auf den Rädern und ihren Blick auf die Straße richten müssen. NHTSA sagt jedoch, dass Fahrer in vielen Fällen übermäßig selbstgefällig werden und den Fokus verlieren. Wenn es Zeit ist zu reagieren, ist es oft zu spät.

Bei 59 von der NHTSA untersuchten Unfällen stellte die Behörde fest, dass Tesla-Fahrer genügend Zeit hatten, „fünf Sekunden oder mehr“, bevor sie auf ein anderes Objekt prallten, um zu reagieren. Bei 19 dieser Unfälle war die Gefahr vor dem Aufprall mindestens 10 Sekunden lang sichtbar. Bei der Durchsicht von Unfallprotokollen und von Tesla bereitgestellten Daten stellte die NHTSA fest, dass Fahrer bei den meisten analysierten Unfällen nicht bremsten oder lenkten, um Gefahren auszuweichen.

„Unfälle ohne oder mit einem verzögerten Ausweichversuch des Fahrers wurden bei allen Tesla-Geräteversionen und Unfallbedingungen festgestellt“, sagte NHTSA.

NHTSA verglich außerdem die Automatisierungsfunktionen der Stufe 2 (L2) von Tesla mit Produkten, die in den Fahrzeugen anderer Unternehmen verfügbar sind. Im Gegensatz zu anderen Systemen schaltet sich der Autopilot aus, anstatt dem Fahrer die Möglichkeit zu geben, seine Lenkung anzupassen. Dies „entmutigt“ Fahrer davon, sich weiterhin auf die Fahraufgabe einzulassen, sagte NHTSA.

„In allen Tesla-Hardwareversionen und Unfallzuständen wurden Fehler ohne oder mit verzögertem Ausweichversuch des Fahrers festgestellt.“

Ein Vergleich der Designentscheidungen von Tesla mit denen der L2-Konkurrenten ergab, dass Tesla in seinem Ansatz zur L2-Technologie einen Branchenausreißer darstellt, da sein schwaches Fahrereinbindungssystem nicht mit den laxen Betriebsfunktionen des Autopiloten in Einklang steht.

Sogar der Markenname „Autopilot“ sei irreführend, sagte NHTSA und beschwöre die Vorstellung herauf, dass Fahrer keine Kontrolle über das Fahrzeug hätten. Während andere Unternehmen Formeln wie „unterstützen“, „fühlen“ oder „team“ verwenden, verleiten Tesla-Produkte Fahrer dazu, zu glauben, sie seien leistungsfähiger, als sie tatsächlich sind. Der kalifornische Generalstaatsanwalt und das staatliche Kraftfahrzeugministerium ermitteln gegen Tesla wegen falscher Markenbildung und Marketing.

NHTSA räumt ein, dass seine Untersuchung aufgrund von „Lücken“ in den Telemetriedaten von Tesla möglicherweise unvollständig ist. Dies könnte bedeuten, dass es viel mehr Abstürze mit Autopilot und FSD gibt, als NHTSA finden konnte.

Selbst der Markenname „Autopilot“ sei irreführend, sagte NHTSA

Tesla führte Ende letzten Jahres als Reaktion auf die Untersuchung einen freiwilligen Rückruf durch und drängte auf ein drahtloses Software-Update, um dem Autopiloten mehr Warnungen hinzuzufügen. NHTSA gab heute bekannt, dass es eine neue Untersuchung des Rückrufs eingeleitet hat, nachdem mehrere Sicherheitsexperten erklärt hatten, dass das Update unzureichend sei und immer noch Missbrauch zulasse.

Die Ergebnisse stehen im Widerspruch zu Musks Beharren darauf, dass Tesla ein Unternehmen für künstliche Intelligenz sei, das im Begriff sei, ein vollständig selbstfahrendes Auto für den persönlichen Gebrauch auf den Markt zu bringen. Das Unternehmen plant, noch in diesem Jahr ein Robotaxi vorzustellen, das den Beginn dieser neuen Ära für Tesla einläuten soll. Während der Telefonkonferenz zu den Ergebnissen des ersten Quartals in dieser Woche betonte Musk die Idee, dass seine Autos sicherer seien als von Menschen gesteuerte Autos.

„Wenn Sie im großen Maßstab über eine statistisch signifikante Datenmenge verfügen, die schlüssig zeigt, dass ein selbstfahrendes Auto beispielsweise die Hälfte der Unfallrate aufweist als ein von Menschen gesteuertes Auto, ist das meiner Meinung nach schwer zu ignorieren“, sagte Musk . „Denn an diesem Punkt bedeutet die Beendigung der Autonomie, Menschen zu töten.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert