Tesla, la compañía de vehículos eléctricos de Elon Musk, se ha jactado durante mucho tiempo de la vasta cantidad de datos que sus coches recopilan, presentándolos como la clave para una conducción más segura y una inteligencia artificial sin igual. Sin embargo, una exhaustiva investigación del diario británico The Guardian ha sacado a la luz una realidad mucho más sombría: mientras los vehículos de Tesla actúan como ordenadores sobre ruedas que registran cada detalle de su funcionamiento, la marca guarda bajo llave las causas de los accidentes, dejando a familias destrozadas sin respuestas y a las autoridades con las manos vacías.
El reportaje expone casos desgarradores como el de Stefan Meier y Oliver Schuster, ambos fallecidos en accidentes de tráfico en Alemania a bordo de sus Tesla. A pesar de los esfuerzos de sus viudas por entender lo sucedido, la compañía se negó a proporcionar los datos completos de los vehículos. En el caso de Meier, Tesla alegó que la información crucial no estaba disponible. Para Schuster, la respuesta fue aún más evasiva: “no había datos relevantes”. Esta falta de transparencia contrasta drásticamente con las promesas de Musk sobre la liberación inmediata de datos de accidentes que afectan a la seguridad pública.
Más información
La investigación de The Guardian revela que esta opacidad no es una anomalía, sino un patrón. Miles de quejas de clientes sobre aceleraciones involuntarias, frenadas de emergencia sin motivo aparente -denominadas frenadas fantasma– están documentadas en los llamados ‘Tesla Files’, una filtración masiva de 23.000 documentos y 100 gigabytes de datos confidenciales. Estos archivos internos, a los que tuvo acceso el diario británico, desvelan más de 1.000 accidentes relacionados con fallos del sistema de asistencia al conductor, el Autopilot, que Tesla promociona como Full Self-Driving (FSD), aunque su funcionamiento sea de nivel 2 de autonomía y requiera la supervisión constante del conductor.

El ‘modo Elon’
El misterio en torno a los datos de Tesla se profundiza con el hallazgo de investigadores de la Universidad Técnica de Berlín. Tras hackear el hardware del Autopilot, descubrieron un ‘modo Elon” oculto, una configuración que permite al coche una conducción completamente autónoma sin que el conductor mantenga las manos en el volante. Además, lograron recuperar datos eliminados y rastrear con precisión qué información envía Tesla a sus servidores y cuál no. Según estos expertos, en los casos de accidentes graves, los vehículos deberían haber registrado y transmitido los datos cruciales a los servidores de Tesla, a menos que estuvieran en una zona sin cobertura de red.
Más allá del software, la investigación también señala decisiones de diseño que ponen en riesgo vidas. Las manetas retráctiles de las puertas, una idea impulsada por el propio Elon Musk a pesar de las advertencias de sus ingenieros, han sido vinculadas a al menos cuatro accidentes mortales en Europa y Estados Unidos. En estos incidentes, los equipos de emergencia no pudieron acceder rápidamente a los ocupantes atrapados en los vehículos en llamas, lo que contribuyó a desenlaces fatales. La respuesta de Tesla ante estas tragedias ha sido la inacción, sin mostrar intención de modificar el diseño.

Una caja negra sin fondo
La Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) de Estados Unidos ha identificado “lagunas en los datos telemáticos de Tesla” que impiden determinar con qué frecuencia el Autopilot estaba activo durante los accidentes. La agencia también ha señalado un patrón preocupante: en 16 casos, los vehículos Tesla chocaron contra vehículos de emergencia estacionados, y el Autopilot se desconectó “menos de un segundo antes del impacto”, una maniobra que, según los críticos, podría permitir a Tesla evadir responsabilidades legales.
La investigación de The Guardian concluye que, a pesar de la imagen de vanguardia y la promesa de seguridad, el manejo de los datos de accidentes por parte de Tesla sigue siendo una verdadera caja negra. Solo la compañía de Elon Musk conoce realmente cómo funcionan sus vehículos en los momentos críticos. Esta falta de transparencia no solo afecta a las víctimas y sus familias, sino que también plantea serias dudas sobre la seguridad vial en un mundo donde más de cinco millones de vehículo de Tesla ya comparten las carreteras. La confianza en la conducción autónoma depende de una transparencia que, por ahora, Tesla se niega a ofrecer.
Sigue toda la información de EL MOTOR desde Facebook, X o Instagram
El Autopilot de Tesla, involucrado en al menos 13 accidentes mortales
Tesla pone a prueba su conducción autónoma en las calles de Madrid