Morning Overview

La NHTSA amplía la investigación sobre el Full Self-Driving de Tesla a 3,2 millones de vehículos

La National Highway Traffic Safety Administration (NHTSA) intensificó su investigación sobre el software Full Self-Driving de Tesla el 19 de marzo de 2026, ampliando el alcance para cubrir hasta 3,2 millones de vehículos tras una serie de choques en condiciones de poca visibilidad. La decisión de la agencia, detallada en un memorando fechado el 18 de marzo, se centra en nueve colisiones reportadas que involucraron niebla, deslumbramiento solar y otros escenarios de visibilidad reducida, incluyendo al menos un atropello fatal a un peatón. Para los millones de propietarios de Tesla que confían en FSD para la conducción diaria, la ampliación de la investigación plantea preguntas directas sobre si el sistema puede manejar de forma segura las condiciones que los conductores encuentran con más frecuencia en las carreteras reales.

Nueve choques provocaron la ampliación

La investigación, designada PE24031, surgió de datos de incidentes recopilados en el marco de la Orden General Permanente (SGO 2021-01), un mecanismo que exige a los fabricantes presentar informes estandarizados sobre choques que involucran sistemas avanzados de asistencia al conductor y de conducción automatizada. Esos informes, disponibles como conjuntos de datos descargables con elementos de datos definidos, ofrecieron a los investigadores federales una visión estructurada de cómo se comportaron los Tesla equipados con FSD en los momentos previos al impacto.

Los nueve choques que motivaron la ampliación comparten un hilo común: los vehículos circulaban en condiciones donde la visibilidad estaba comprometida. La niebla, el deslumbramiento solar y el polvo en suspensión aparecen repetidamente en los informes de incidentes. En al menos un caso, un peatón murió en condiciones de baja visibilidad, un resultado que intensificó la urgencia detrás de la decisión de la agencia de ampliar la investigación en lugar de cerrarla.

El Wall Street Journal informó que la NHTSA identificó varios choques en los que FSD no respondió adecuadamente en esos escenarios. Ese lenguaje importa porque indica que la agencia considera que el propio sistema, y no solo el conductor, puede tener responsabilidad en las fallas. Los investigadores ya no se limitan a preguntar si los conductores hicieron un uso indebido de la tecnología; examinan si la tecnología, tal y como está diseñada, es inherentemente incapaz de afrontar ciertos peligros comunes.

Según un resumen de Associated Press del memorando, la investigación ampliada cubre modelos de Tesla de varios años que pueden ejecutar la versión más reciente del software FSD, incluidos sedanes y SUV de la gama de la compañía. Los choques bajo revisión ocurrieron en múltiples estados y tipos de vías, lo que sugiere que el problema no se limita a una región, diseño de carretera o rango de velocidad particular.

Por qué el uso exclusivo de cámaras plantea preguntas difíciles

El sistema FSD de Tesla depende íntegramente de cámaras para la percepción del entorno, tras haber eliminado el radar y los sensores ultrasónicos de sus vehículos en años recientes. Esa elección de diseño funciona bien con buena luz diurna, pero enfrenta límites físicos inherentes cuando la niebla dispersa la luz, cuando el deslumbramiento solar satura los sensores de imagen o cuando el polvo reduce el contraste. Los nueve choques incluidos en la investigación ampliada ocurrieron precisamente en esas condiciones degradadas, lo que sugiere un patrón más que casos aislados excepcionales.

La mayor parte de la cobertura sobre esta investigación se ha centrado en el riesgo de llamada a revisión o en las implicaciones para las acciones de Tesla. Pero la pregunta de mayor calado es si una arquitectura basada únicamente en cámaras podrá alguna vez alcanzar el umbral de seguridad que la NHTSA espera de un sistema comercializado como «Full Self-Driving». Si la agencia concluye que el conjunto de sensores en sí es el factor limitante, las actualizaciones de software por sí solas podrían no resolver la deficiencia. Eso podría obligar a Tesla a afrontar un problema de hardware en millones de vehículos ya en circulación, una solución mucho más costosa y logística que un parche por aire.

La NHTSA clasifica FSD como un sistema de asistencia al conductor de Nivel 2, lo que significa que el conductor debe permanecer completamente atento en todo momento, según la orientación sobre vehículos automatizados de la agencia. Pero la investigación plantea implícitamente una pregunta más difícil: si el sistema no puede detectar de forma fiable los peligros en niebla o con deslumbramiento, ¿importa que el conductor esté prestando atención? Un humano que confía en que FSD maneje la conducción en autopista con poca visibilidad puede no reaccionar con la rapidez necesaria cuando el sistema no detecta a un peatón o a un vehículo detenido por delante. La investigación, por tanto, trata tanto de factores humanos (cómo se comportan los conductores asistidos por la automatización) como de los algoritmos subyacentes.

Ingenieros que favorecen enfoques multisensor argumentan que el radar y el lidar pueden ver a través de algunas formas de visibilidad obstruida que ciegan a las cámaras. Tesla ha tomado la apuesta contraria, insistiendo en que los avances en redes neuronales y en datos de entrenamiento pueden superar las limitaciones de la óptica sola. Los nueve choques en condiciones de baja visibilidad ahora bajo escrutinio federal pondrán a prueba esa tesis en un ámbito donde el coste de equivocarse se mide no en retrasos de producto sino en lesiones y muertes.

Una segunda investigación aumenta la presión

La investigación por baja visibilidad no existe de manera aislada. Una indagación separada de la NHTSA ya abarca aproximadamente 2,9 millones de vehículos por supuestas infracciones de las leyes de tráfico por parte de FSD, incluidas pasar semáforos en rojo y conducir en sentido contrario. Esa investigación, que cuenta con su propia correspondencia de la NHTSA documentando el número de quejas y los patrones de incidentes, se dirige a un modo de fallo distinto pero al mismo software subyacente.

En conjunto, las dos investigaciones abarcan poblaciones de vehículos superpuestas y dibujan la imagen de un sistema que tiene dificultades tanto con normas básicas de tráfico como con condiciones ambientales adversas. Para Tesla, la exposición regulatoria combinada es significativa. Un llamado a revisión derivado de cualquiera de las investigaciones podría requerir cambios en todos los vehículos equipados con FSD vendidos en Estados Unidos, y la cifra de 3,2 millones de la investigación ampliada representa el extremo superior de esa exposición.

La investigación previa sobre las supuestas infracciones de tráfico ya planteó dudas sobre cómo FSD maneja intersecciones, selección de carril y control de velocidad. Ahora, al agregar los choques en baja visibilidad a la mezcla, la NHTSA examina cómo se comporta el sistema cuando su modalidad de detección principal está comprometida. Las dos líneas de investigación se intersectan de manera crítica: los conductores pueden estar menos capacitados para supervisar y corregir los errores de FSD precisamente cuando el entorno es más desafiante.

Qué podría significar un llamado a revisión para los propietarios de Tesla

Si la NHTSA determina que FSD presenta un riesgo de seguridad inaceptable, la agencia puede obligar a una llamada a revisión. Retiros anteriores de Tesla relacionados con Autopilot y FSD se han abordado mediante actualizaciones de software por aire, que costaron relativamente poco a la empresa y no requirieron visitas a concesionarios. Pero los límites de la autoridad federal en estos casos son claros. La NHTSA puede exigir un remedio que reduzca el riesgo, pero no puede forzar unilateralmente a Tesla a rediseñar su hardware de sensores o a abandonar la estrategia basada únicamente en cámaras que sustenta sus vehículos actuales.

Para los conductores, el impacto práctico depende de lo que encuentre la investigación. Una solución a nivel de software podría restringir la operación de FSD durante ciertas condiciones meteorológicas, efectivamente geocercando la función por visibilidad en lugar de por ubicación. El sistema podría verse obligado a desconectarse o a negarse a activarse cuando los diagnósticos a bordo detecten niebla densa, ángulos bajos del sol u otros factores de riesgo, dejando más de la tarea de conducción a los humanos precisamente en los momentos en que pueden haberse acostumbrado a la automatización.

Un resultado más severo podría deshabilitar capacidades centrales de FSD hasta que Tesla demuestre que el sistema cumple los estándares de seguridad en condiciones degradadas. Cualquiera de los escenarios reduciría la funcionalidad por la que muchos propietarios pagaron miles de dólares. Algunos conductores podrían dar la bienvenida a límites más estrictos si restauran la confianza en el comportamiento del sistema, mientras que otros probablemente los verían como una desvalorización de un conjunto de funciones prometidas.

También está la cuestión de la transparencia. Actualmente los propietarios reciben advertencias en pantalla de que FSD es un producto beta y que deben permanecer atentos, pero los choques en baja visibilidad sugieren que muchos pueden no comprender del todo lo rápido con que puede degradarse el rendimiento del sistema cuando las cámaras no pueden ver con claridad. Un llamado a revisión podría incluir, por tanto, no solo cambios de código sino también mensajes más claros dentro del vehículo sobre cuándo y dónde debe confiarse en FSD.

Las ambiciones de autonomía se enfrentan a la realidad regulatoria

El momento añade otra capa de tensión. Tesla ha hablado públicamente de planes para vender vehículos configurados para niveles más altos de automatización, incluidos conceptos que imaginan controles tradicionales limitados o inexistentes para los conductores humanos. Ampliar una investigación de seguridad sobre el desempeño de FSD en niebla y deslumbramiento justo cuando la compañía impulsa la eliminación de los controles del conductor crea una contradicción aguda. La agencia cuestiona si FSD puede asistir de forma segura a un conductor humano en mal tiempo mientras Tesla apuesta por un futuro en el que el software, y no las personas, asumirá la tarea completa de conducir.

Los reguladores no evalúan ese futuro en abstracto; observan datos concretos de choques en las carreteras de hoy. Los nueve incidentes en baja visibilidad bajo PE24031, combinados con las supuestas infracciones de tráfico en la investigación separada sobre 2,9 millones de vehículos, conforman un registro empírico que dará forma a la agresividad con la que la NHTSA esté dispuesta a permitir la expansión de los sistemas automatizados. Si la generación actual de FSD no puede gestionar de forma fiable la niebla, el deslumbramiento y los controles básicos de tráfico, los argumentos para la rápida eliminación de volantes y pedales serán más difíciles de sostener.

Por ahora, los propietarios de Tesla permanecen en un terreno incierto. Se les pide supervisar un sistema lo bastante potente como para asumir gran parte de la carga de conducción, pero aún no lo suficientemente robusto como para confiar en él sin respaldo humano en las mismas condiciones que más desafían a los conductores humanos. La investigación ampliada de la NHTSA determinará si ese compromiso puede hacerse más seguro mediante cambios incrementales de software, o si el enfoque subyacente de sensores y autonomía necesita replantearse antes de que millones de vehículos más dependan de él.

Alexander Clark

Alexander Clark is a tech writer who thrives on exploring the latest innovations and industry trends. As a contributor to Morning Overview, he covers everything from emerging technologies to the impact of digital transformation on everyday life. With a passion for making complex topics accessible, Alexander delivers insightful analysis that keeps readers informed and engaged. When he's not writing about the future of technology, he enjoys testing new gadgets and experimenting with smart home tech.