El Autopilot de Tesla, involucrado en al menos 13 accidentes mortales

El sistema de conducción autónoma de Tesla ha sido llamado a revisión e investigado por un alto número de siniestros.

accidentes Tesla Autopilot
El Autopilot es un sistema de automatización de la conducción, ahora en entredicho en los Tesla.

Los sistemas de conducción autónoma avanzan muy lentamente en España y Europa, pero en Estados Unidos llevan algún tiempo más utilizándose en las carreteras. Es habitual ver taxis sin conductor y, por supuesto, la mayoría de los conductores de Tesla esta marca utiliza el Autopilot. Sin embargo, el hecho de que sea un sistema popular no quiere decir que resulte totalmente seguro.

Los accidentes en los que está involucrado el Autopilot son habituales, así como las demandas contra Tesla de las personas afectadas. Muchos usuarios han registrado frenazos bruscos y acelerones en el momento de aparcar, mostrando los fallos de esta tecnología.

La empresa estadounidense se ha defendido de cada una de las demandas alegando que los conductores no han sabido utilizar de manera responsable su modo de conducción autónoma. Sin embargo, los resultados de una investigación federal indican que el problema no queda ahí.

El Autopilot tiene “brechas de seguridad críticas”

Un informe de la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) de Estados Unidos ha estudiado los accidentes con coches de Tesla involucrados desde el pasado 2018 hasta el 2023. Este texto, del que se han hecho eco medios como The Washington Post, concluye que en al menos 13 de todos los accidentes mortales registrados el Autopilot de Tesla tiene un protagonismo determinante.

Las llamadas a revisión de las autoridades de tráfico para coches de la marca Tesla relacionadas con el Autopilot han sido habituales en los últimos meses. El 13 de diciembre de 2023, la NHTSA exigió la revisión de dos millones de coches eléctricos por problemas con el sistema de conducción autónoma. En enero de este año, la administración China hizo lo mismo con 1,6 millones de Model S, X, 3 e Y.

Después de la retirada de esos dos millones de vehículos, los agentes federales de Estados Unidos abrieron una investigación en profundidad para entender cuáles eran los problemas del Autopilot. En general, la NHTSA concluye que el nombre genera en los conductores una falsa sensación de seguridad. Esta provoca que el conductor se despreocupe de la conducción, confiando en que el coche responderá por sí mismo.

No obstante, en 13 de los accidentes mortales investigados, la agencia federal concluye que el sistema de conducción autónoma de Tesla tiene “brechas de seguridad críticas”, ya que el Autopilot no está preparado para ser utilizado sin que el conductor participe de manera activa. 

La responsabilidad se reparte entre los conductores, poco atentos durante el uso de esta tecnología, y el propio Autopilot, que no es suficientemente seguro para comercializarse como un sistema de conducción autónoma sin supervisión.

Sigue toda la información de EL MOTOR desde Facebook, X o Instagram

Newsletter ElMotor

Recibe la newsletter de EL MOTOR con toda la actualidad del mundo del automóvil y la moto, tecnología, seguridad, conducción y eficiencia.

Apúntate

Servicios ELMOTOR

Encuentra los mejores talleres, seguros, autoescuelas, neumáticos…

BUSCAR
Cerrar

NEWSLETTER

Toda la actualidad del mundo del automóvil y la moto, tecnología, seguridad, conducción y eficiencia en tu buzón de correo.

¡Me interesa!
Por ahora no