Die National Highway Traffic Safety Administration eskalierte ihre Untersuchung der Full Self-Driving-Software von Tesla am 19. März 2026 und erweiterte den Umfang auf bis zu 3,2 Millionen Fahrzeuge nach einer Reihe von Unfällen bei eingeschränkter Sicht. Die Entscheidung der Behörde, dargelegt in einem Memorandum vom 18. März, konzentriert sich auf neun gemeldete Kollisionen, die Nebel, Sonnenblendung und andere Situationen mit verminderter Sicht betreffen, darunter mindestens ein tödlicher Zusammenstoß mit einem Fußgänger. Für die Millionen Tesla-Besitzer, die sich im Alltag auf FSD verlassen, wirft die ausgeweitete Untersuchung direkte Fragen auf, ob das System die Bedingungen, denen Fahrer auf echten Straßen am häufigsten begegnen, sicher bewältigen kann.
Neun Unfälle lösten die Ausweitung aus
Die Untersuchung mit der Kennung PE24031 entstand aus Vorfall-Daten, die im Rahmen der Standing General Order (SGO 2021-01) der Behörde erhoben wurden, einem Rahmenwerk, das Hersteller verpflichtet, standardisierte Berichte über Unfälle mit fortgeschrittenen Fahrerassistenz- und automatisierten Fahrsystemen einzureichen. Diese Berichte, verfügbar als herunterladbare Datensätze mit definierten Datenelementen, gaben den Bundesermittlern einen strukturierten Einblick in das Verhalten von FSD-ausgestatteten Teslas in den Momenten vor dem Aufprall.
Die neun Unfälle, die die Ausweitung veranlassten, haben eine gemeinsame Ursache: Die Fahrzeuge fuhren in Situationen mit beeinträchtigter Sicht. Nebel, Sonnenblendung und aufgewirbelter Staub tauchen wiederholt in den Vorfallberichten auf. In mindestens einem Fall wurde ein Fußgänger in einer Situation mit schlechter Sicht getötet, ein Ergebnis, das die Dringlichkeit der Entscheidung der Behörde, die Untersuchung zu erweitern statt sie zu schließen, verschärfte.
Das Wall Street Journal berichtete, dass die NHTSA mehrere Unfälle identifiziert habe, in denen FSD in diesen Szenarien nicht angemessen reagierte. Diese Formulierung ist bedeutsam, weil sie signalisiert, dass die Behörde glaubt, das System selbst und nicht nur der Fahrer könne eine Mitschuld an den Ausfällen tragen. Ermittler fragen nicht mehr nur, ob menschliche Fahrer die Technologie missbraucht haben; sie prüfen, ob die Technologie in ihrer Auslegung von vornherein unfähig ist, mit bestimmten häufigen Gefahren umzugehen.
Laut einer Zusammenfassung der Associated Press zum Memorandum umfasst die erweiterte Untersuchung Tesla-Modelle, die bis in vergangene Jahre zurückreichen und die neueste FSD-Software ausführen können, einschließlich Limousinen und SUVs der Modellpalette des Unternehmens. Die geprüften Unfälle ereigneten sich in mehreren Bundesstaaten und auf verschiedenen Straßentypen, was darauf hindeutet, dass das Problem nicht auf eine bestimmte Region, Straßengestaltung oder Geschwindigkeitsklasse beschränkt ist.
Warum alleinige Kamerasensorik schwierige Fragen aufwirft
Das FSD-System von Tesla stützt seine Umgebungswahrnehmung ausschließlich auf Kameras, nachdem Radar und Ultraschallsensoren in den letzten Jahren aus den Fahrzeugen entfernt wurden. Diese Designentscheidung funktioniert bei klarem Tageslicht gut, stößt jedoch an physikalische Grenzen, wenn Nebel Licht streut, Sonnenblendung Bildsensoren sättigt oder Staub den Kontrast reduziert. Die neun Unfälle in der erweiterten Untersuchung traten alle genau unter diesen verschlechterten Bedingungen auf, was auf ein Muster statt auf isolierte Randfälle hindeutet.
Die meisten Berichte über diese Untersuchung konzentrieren sich auf das Rückrufrisiko oder die Auswirkungen auf den Aktienkurs von Tesla. Die weitaus folgenschwerere Frage ist jedoch, ob eine rein kamera-basierte Architektur jemals die von der NHTSA erwartete Sicherheitsstufe für ein als „Full Self-Driving“ vermarktetes System erreichen kann. Sollte die Behörde zu dem Schluss kommen, dass die Sensorik selbst der limitierende Faktor ist, könnten Software-Updates allein die Defizite nicht beheben. Das würde Tesla zwingen, sich mit einem Hardware-Problem bei Millionen bereits ausgelieferter Fahrzeuge auseinanderzusetzen — eine wesentlich kostspieligere und logistisch schwierigere Lösung als ein Over‑the‑Air-Patch.
Die NHTSA klassifiziert FSD als Fahrerassistenzsystem der Stufe 2, was bedeutet, dass der Fahrer laut den Leitlinien zu automatisierten Fahrzeugen der Behörde jederzeit voll aufmerksam bleiben muss. Die Untersuchung stellt jedoch implizit eine härtere Frage: Wenn das System Gefahren bei Nebel oder Blendung nicht zuverlässig erkennt, spielt es dann noch eine Rolle, ob der Fahrer aufmerksam ist? Ein Mensch, der FSD vertraut und das System bei schlechter Sicht auf der Autobahn agieren lässt, reagiert womöglich nicht schnell genug, wenn das System einen Fußgänger oder ein stehendes Fahrzeug nicht erfasst. Die Untersuchung betrifft daher ebenso sehr menschliche Faktoren (wie Fahrer sich verhalten, wenn sie von Automatisierung unterstützt werden) wie die zugrunde liegenden Algorithmen.
Ingenieure, die Multi-Sensor-Ansätze bevorzugen, argumentieren, dass Radar und Lidar durch einige Formen eingeschränkter Sicht hindurchsehen können, die Kameras blind lassen. Tesla ist die entgegengesetzte Wette eingegangen und besteht darauf, dass Fortschritte in neuronalen Netzen und Trainingsdaten die Beschränkungen der Optik allein überwinden können. Die neun Unfälle bei schlechter Sicht, die nun von der Bundesbehörde geprüft werden, werden diese These in einem Umfeld prüfen, in dem der Fehler nicht in Produktverzögerungen gemessen wird, sondern in Verletzungen und Todesfällen.
Eine zweite Untersuchung erhöht den Druck
Die Untersuchung zu schlechter Sicht steht nicht isoliert. Eine separate NHTSA-Untersuchung befasst sich bereits mit rund 2,9 Millionen Fahrzeugen wegen angeblicher Verstöße gegen Verkehrsregeln durch FSD, darunter das Überfahren roter Ampeln und das Fahren in falscher Richtung. Diese Untersuchung, die eigene NHTSA-Korrespondenz mit Beschwerdezahlen und Vorfallmustern umfasst, zielt auf einen anderen Versagensmodus, aber auf dieselbe zugrunde liegende Software ab.
Zusammen decken die beiden Untersuchungen überlappende Fahrzeugbestände ab und zeichnen das Bild eines Systems, das sowohl mit grundlegenden Verkehrsregeln als auch mit widrigen Umweltbedingungen Probleme hat. Für Tesla ist die kombinierte regulatorische Exposition erheblich. Ein Rückruf infolge einer der beiden Untersuchungen könnte Änderungen an jedem in den Vereinigten Staaten verkauften FSD-ausgestatteten Fahrzeug erforderlich machen, und die Zahl von 3,2 Millionen aus der erweiterten Untersuchung stellt die obere Grenze dieser Exposition dar.
Die frühere Untersuchung zu angeblichen Verkehrsverstößen hatte bereits Fragen dazu aufgeworfen, wie FSD mit Kreuzungen, Fahrstreifenwahl und Geschwindigkeitskontrolle umgeht. Indem nun noch Unfälle bei schlechter Sicht hinzugezogen werden, prüft die NHTSA, wie sich das System verhält, wenn seine primäre Sensorik beeinträchtigt ist. Die beiden Untersuchungsstränge treffen auf kritische Weise zusammen: Fahrer sind möglicherweise gerade dann am wenigsten in der Lage, Fehler von FSD zu überwachen und zu korrigieren, wenn die Umwelt am anspruchsvollsten ist.
Was ein Rückruf für Tesla-Besitzer bedeuten könnte
Wenn die NHTSA feststellt, dass FSD ein unverhältnismäßiges Sicherheitsrisiko darstellt, kann die Behörde einen Rückruf erzwingen. Frühere Tesla-Rückrufe im Zusammenhang mit Autopilot und FSD wurden per Over‑the‑Air‑Software-Updates adressiert, die das Unternehmen vergleichsweise wenig kosteten und keine Werkstattbesuche erforderten. Die Grenzen der Befugnisse der Bundesbehörde in solchen Fällen sind jedoch klar. Die NHTSA kann eine Maßnahme vorschreiben, die das Risiko mindert, sie kann Tesla aber nicht einseitig zwingen, seine Sensor‑Hardware neu zu entwerfen oder die kamera‑basierte Strategie aufzugeben, die den aktuellen Fahrzeugen zugrunde liegt.
Für Fahrer hängt die praktische Auswirkung davon ab, was die Untersuchung ergibt. Eine softwareseitige Lösung könnte den Betrieb von FSD bei bestimmten Wetterbedingungen einschränken und die Funktion faktisch nach Sichtbarkeit statt nach Ort geofencen. Das System könnte vorgeschrieben werden, sich zu deaktivieren oder die Aktivierung zu verweigern, wenn die Borddiagnose starken Nebel, tiefe Sonnenwinkel oder andere Risikofaktoren erkennt, wodurch in genau den Momenten, in denen Nutzer sich an die Automatisierung gewöhnt haben, mehr Fahrverantwortung auf den Menschen übergeht.
Ein schwerwiegenderes Ergebnis könnte die Deaktivierung zentraler FSD-Funktionen bis zu dem Zeitpunkt bedeuten, an dem Tesla nachweist, dass das System in verschlechterten Bedingungen den Sicherheitsstandards entspricht. In beiden Szenarien würde die Funktionalität reduziert, für die viele Besitzer Tausende von Dollar gezahlt haben. Einige Fahrer würden strengere Beschränkungen möglicherweise begrüßen, wenn dadurch das Vertrauen in das System wiederhergestellt wird, andere würden sie wahrscheinlich als Wertminderung eines versprochenen Funktionsumfangs ansehen.
Es stellt sich auch die Frage der Transparenz. Besitzer erhalten derzeit On‑Screen‑Warnungen, dass FSD ein Beta‑Produkt ist und sie aufmerksam bleiben müssen, doch die Unfälle bei schlechter Sicht deuten darauf hin, dass viele möglicherweise nicht vollständig verstehen, wie schnell die Leistungsfähigkeit des Systems abnehmen kann, wenn die Kameras nicht klar sehen. Ein Rückruf könnte daher nicht nur Codeänderungen, sondern auch klarere In‑Car‑Hinweise darüber beinhalten, wann und wo FSD vertraut werden sollte.
Ambitionen für Autonomie treffen auf regulatorische Realität
Das Timing verstärkt die Spannung zusätzlich. Tesla hat öffentlich Pläne diskutiert, Fahrzeuge zu verkaufen, die für höhere Automatisierungsstufen konfiguriert sind, einschließlich Konzepten, die begrenzte oder gar keine traditionellen Bedienelemente für menschliche Fahrer vorsehen. Eine Sicherheitsuntersuchung zu FSD‑Leistungen bei Nebel und Blendung genau in dem Moment, in dem das Unternehmen darauf drängt, Fahrerbedienelemente ganz zu entfernen, erzeugt einen scharfen Widerspruch. Die Behörde stellt die Frage, ob FSD einen menschlichen Fahrer bei schlechtem Wetter sicher unterstützen kann, während Tesla auf eine Zukunft setzt, in der Software und nicht Menschen die volle Fahraufgabe übernehmen sollen.
Regulierer bewerten diese Zukunft nicht abstrakt; sie betrachten konkrete Unfalldaten von heutigen Straßen. Die neun Vorfälle bei schlechter Sicht unter PE24031, kombiniert mit den angeblichen Verkehrsverstößen in der separaten Untersuchung über 2,9 Millionen Fahrzeuge, bilden ein empirisches Fundament, das beeinflussen wird, wie weit die NHTSA automatisierte Systeme ausweiten lässt. Wenn die aktuelle FSD‑Generation Nebel, Blendung und grundlegende Verkehrsregeln nicht zuverlässig bewältigen kann, werden Argumente für die schnelle Entfernung von Lenkrädern und Pedalen schwerer durchzusetzen sein.
Vorerst befinden sich Tesla‑Besitzer in einer unsicheren Zwischenlage. Ihnen wird gesagt, ein System zu überwachen, das mächtig genug ist, einen Großteil der Fahrarbeit zu übernehmen, aber noch nicht robust genug, um ohne menschliche Rückendeckung in genau den Bedingungen vertraut zu werden, die auch menschliche Fahrer am stärksten herausfordern. Die ausgeweitete NHTSA‑Untersuchung wird klären, ob dieser Kompromiss durch schrittweite Softwareänderungen sicherer gemacht werden kann oder ob der zugrunde liegende Ansatz für Sensorik und Autonomie überdacht werden muss, bevor sich Millionen weiterer Fahrzeuge darauf verlassen.