US-Verkehrsaufsicht untersucht Teslas «Full Self Driving» – Autonomie am Limit?
Die US-Verkehrsaufsicht NHTSA hat das von Tesla entwickelte Fahrassistenzsystem «Autopilot» erneut ins Visier genommen, wobei der Fokus auf dessen fortschrittlicher Version «Full Self Driving» (FSD) liegt. Diese ist unter anderem dafür gedacht, Teslas Elektrofahrzeuge in naher Zukunft autonom auf den Straßen zu manövrieren. Doch aktuell ist menschliches Eingreifen bei Fehlfunktionen weiterhin erforderlich. Im Mittelpunkt der Untersuchung stehen Vorfälle, bei denen die Software Fahrzeuge auf die Gegenfahrbahn dirigierte oder Ampelsignale missachtete. Insgesamt analysiert die NHTSA 58 Ereignisse, bei denen 23 Personen verletzt wurden––wenngleich es zu keinerlei Todesfällen kam.
Tesla ermöglicht es US-amerikanischen Fahrern bereits seit längerem, die FSD-Software in einer Testversion auf öffentlichen Straßen zu erproben. Anfangs wurden viele Videos veröffentlicht, die gravierende Fehler dokumentierten, welche letztlich nur durch menschliches Eingreifen korrigiert werden konnten. Tesla-Chef Elon Musk argumentiert jedoch, dass die Software durch kontinuierliche Updates signifikante Fortschritte gemacht habe.
Besonders heikel sind sechs gemeldete Vorfälle, bei denen FSD die Fahrzeuge bei Rotlicht auf Kreuzungen steuerte—wodurch Unfälle verursacht wurden. Viele dieser Zwischenfälle traten an ein und derselben Kreuzung im Bundesstaat Maryland auf. Die NHTSA prüft dabei auch die Effizienz des Systems im Erkennen und Reagieren auf Verkehrszeichen und -führungen.
Musk treibt parallel Teslas Ausrichtung auf Robotaxis und humanoide Roboter voran, während die Autoverkäufe rückläufig sind. In Austin, Texas, betreibt Tesla bereits einige selbstfahrende Fahrzeuge, die Passagiere ohne Fahrer befördern—obgleich ein Sicherheitsfahrer auf dem Beifahrersitz Platz nimmt. Auch Teslas Robotaxis gerieten bereits wegen Verstöße gegen Verkehrsregeln in die Schlagzeilen.

