el Autopilot se salta semáforos en rojo y circula en dirección contraria

La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (como la DGT de aquí) ha abierto una investigación a 2,88 millones de vehículos Tesla equipados con el sistema denominado Full Self-Driving (FSD). Una investigación que se inicia tras más de 50 informes en los que el sistema estuvo involucrado en accidentes por no respetar, supuestamente, las señales de tráfico.
A Tesla se le acumulan las investigaciones relacionadas con sus sistemas de conducción autónoma: si la NHTSA abre este nuevo expediente, ya serían cuatro los que tendría sobre la mesa.
Contenido
La cada vez más delgada línea entre asistencia a la conducción y automatización
Según detalla Reuters, el sistema FSD «requiere que los conductores presten atención e intervengan si es necesario pero no ha evitado saltarse las leyes de seguridad vial». La agencia dijo que tiene 58 informes de vehículos Tesla que utilizan FSD y se saltan semáforos en rojo y circulan en dirección contraria a la correcta durante un cambio de carril. Como consecuencia hay registros de 14 accidentes y 23 personas lesionadas.
Tesla asegura que el sistema recibirá una actualización de software para evitar incidentes como los que tiene registrados la NTHSA: en seis ocasiones un vehículo Tesla, que operaba con el FSD activado, «se acercó a una intersección con una señal de tráfico en rojo, continuó hacia la intersección, se saltó el semáforo y posteriormente estuvo involucrado en un choque con otros vehículos motorizados en la intersección».
Lo cierto es que el sistema tiene problemas para saber qué hacer en estas situaciones, y las vías del tren se han convertido en su principal enemigo. Tanto es así que hace unas semanas dos senadores estadounidenses instaron a la NTHSA a abrir una investigación por riesgo de colisiones «catastróficas con víctimas mortales» en los pasos a nivel. Hay evidencias de que tiene problemas para detectarlos: desde no frenar ante la barrera a directamente entrar en las vías como si de una carretera se tratase.


Paso a nivel mostrado por la pantalla de un Tesla con el Autopilot FSD activado.
Tras muchas demandas y litigios por todo el mundo, Tesla ha tenido que poner entre paréntesis ‘(Supervised)’ a la hora de anunciar su sistema de conducción ‘autónoma total’, que no es tal cosa. A pesar de todos los accidentes mortales que ha habido y multitud de incidentes, la compañía de Elon Musk defiende que su sistema, presente en seis países, es un 54 % más seguro que un conductor humano.
En octubre de 2024, la agencia inició una investigación sobre 2,4 millones de vehículos Tesla equipados con FSD después de cuatro colisiones reportadas en condiciones de visibilidad reducida en la carretera, como resplandor solar, niebla o polvo en el aire, incluido un accidente fatal en 2023.
Habrá que esperar a la resolución de la NTHSA para saber si esos casi tres millones de Tesla son llamados a revisión o no.
Encuentra tu coche eléctrico ideal


Si te has planteado comprar un coche eléctrico, esto te va a interesar. Hemos creado el Recomendador personalizado de coches eléctricos en el que además de ver los modelos que se adaptan a tus necesidades también tendrás respuestas a las dudas que más te pueden preocupar como el precio, la autonomía o los puntos de carga cercanos.
Imágenes | Cdotyii /Tesla Motor Club
En Motorpasión | «Intenté abrir el coche, pero no funcionó»: dos niños y un adulto mueren atrapados en un Tesla en llamas en Alemania