incidente tesla autopilot texas

Tesla, tra incidenti inspiegabili e dati irraggiungibili: cosa sappiamo davvero

Il Guardian svela come Tesla gestisce i dati sugli incidenti: accelerazioni improvvise, manici difettosi e famiglie senza risposte.

Due storie, due tragedie, una domanda comune: cosa è successo davvero dentro quelle Tesla prima degli schianti? È il cuore dell’inchiesta pubblicata dagli inglesi del Guardian, un lavoro che analizza le falle del sistema di guida assistita dell’azienda californiana e la gestione opaca dei dati raccolti dai veicoli coinvolti in incidenti gravi.

A raccontare la propria esperienza è Rita Meier, vedova di Stefan, morto nel 2018 quando la sua Model S ha improvvisamente accelerato e si è schiantata sull’autostrada svizzera. Non è un caso isolato: i documenti interni alla casa madre — noti come Tesla Files — indicano oltre 2.400 segnalazioni di accelerazioni improvvise, 1.500 problemi di frenata, e più di 1.000 incidenti associati al software di guida.

Un altro caso emblematico è quello di Anke Schuster, il cui marito ha perso la vita in un incidente simile nel 2021. Anche qui, la vettura ha preso fuoco e nessuno ha potuto aprire le portiere, rese inaccessibili dai manici retrattili a scomparsa, un dettaglio estetico voluto direttamente da Elon Musk. Le autorità tedesche, dopo anni di solleciti, hanno ottenuto una risposta secca da Tesla: “Nessun dato rilevante disponibile”.

Il paradosso della “black box” digitale

Tesla raccoglie enormi quantità di dati dai propri veicoli: secondo l’azienda, oltre 160 miliardi di fotogrammi video al giorno, più informazioni analitiche e diagnostiche inviate ai server centrali. Eppure, in numerosi incidenti mortali, i familiari non sono riusciti ad accedere a quelle informazioni. Spesso la risposta è stata che i dati non erano disponibili, o che non erano “rilevanti”, lasciando ai parenti solo domande senza risposta.

Una delle rivelazioni più preoccupanti arriva da una squadra di ricercatori dell’Università Tecnica di Berlino, che ha scoperto l’esistenza di una modalità nascosta chiamata “Elon Mode”, che permetterebbe all’auto di guidare autonomamente senza richiedere le mani sul volante. Inoltre, gli stessi ricercatori hanno recuperato dati cancellati e dimostrato che Tesla può limitare l’invio dei dati in base a parametri interni.

Tra estetica e sicurezza: quando il design può uccidere

Il caso dei manici delle portiere retrattili ha avuto un’eco particolare: in almeno quattro incidenti mortali, i soccorritori non sono riusciti a estrarre i passeggeri prima che l’auto prendesse fuoco. Una delle tragedie, avvenuta in Germania nel 2024, ha coinvolto due adolescenti. Un esperto nominato dal tribunale ha confermato che il malfunzionamento dei manici ha contribuito al decesso dei ragazzi.

Eppure Tesla continua a difendere la scelta stilistica. Per Elon Musk, l’eleganza del design supera i rischi potenziali. La filosofia aziendale, secondo il Guardian, è mutuata dal mondo del software: rilasciare versioni “beta”, raccogliere feedback dagli utenti e correggere col tempo. Ma la strada non è un laboratorio. E gli errori si pagano in vite.

Un sistema chiuso, una fiducia in crisi

L’inchiesta descrive Tesla come una “scatola nera”, non solo per l’hardware installato nei veicoli, ma anche per l’approccio all’informazione: selettivo, opaco, protetto. Persino in tribunale, documenti e dati vengono gestiti in modo da evitare responsabilità legali. Secondo ex dipendenti, c’è chi all’interno dell’azienda è incaricato di classificare gli incidenti per decidere se e come intervenire.

La fiducia che milioni di utenti ripongono ogni giorno nell’auto accanto, quella che guida da sola magari, non può più basarsi solo su promesse. La sicurezza non è un optional da attivare in aggiornamenti futuri. È un diritto.

 

whatsapp banner
telegram