DETROIT – L’agenzia per la sicurezza stradale del governo statunitense sta indagando sul sistema di “guida completamente autonoma” di Tesla dopo aver ricevuto segnalazioni di incidenti in situazioni di scarsa visibilità, incluso uno che ha ucciso un pedone.
La National Highway Traffic Safety Administration ha dichiarato nei documenti di aver aperto un’indagine giovedì dopo che la società ha annunciato che quattro incidenti si sono verificati quando le Tesla hanno incontrato la luce del sole, la nebbia e la polvere nell’aria.
Oltre alla morte del pedone, un altro incidente ha provocato feriti, ha detto l’agenzia.
Gli investigatori hanno identificato la capacità di “guida completamente autonoma” di “rilevare e rispondere adeguatamente alle condizioni di ridotta visibilità stradale e, in tal caso, alle circostanze che contribuiscono a questi incidenti”.
L’indagine copre circa 2,4 milioni di Tesla negli anni modello dal 2016 al 2024.
Venerdì è stato inviato un messaggio per chiedere commenti a Tesla, che ha ripetutamente affermato che il computer non può guidare da solo e che i guidatori umani devono essere pronti a intervenire in ogni momento.
La scorsa settimana Tesla ha tenuto un evento in uno studio di Hollywood per svelare un robotaxi completamente autonomo, senza volante o pedali. Musk, che in precedenza aveva promesso veicoli autonomi, ha affermato che l’azienda prevede di sviluppare i modelli Y e 3 autonomi il prossimo anno che funzioneranno senza conducente umano. I robotaxi senza ruote sterzanti potrebbero iniziare a diffondersi in California e Texas entro il 2026, ha affermato.
L’impatto dell’indagine sulle ambizioni di guida autonoma di Tesla non è chiaro. L’NHTSA deve approvare qualsiasi robotaxi senza pedali o volante, ed è improbabile che ciò accada mentre l’indagine è in corso. Ma se l’azienda tentasse di implementare veicoli autonomi nei suoi modelli esistenti, potrebbe incorrere in normative statali. Non esistono normative federali che si concentrino specificamente sui veicoli autonomi, sebbene debbano soddisfare ampie norme di sicurezza.
NHTSA ha anche affermato che indagherà se eventuali altri incidenti che coinvolgono la “guida completamente autonoma” si sono verificati in condizioni di scarsa visibilità e chiederà alla società informazioni se eventuali aggiornamenti in tali condizioni abbiano influenzato le prestazioni del sistema.
“Nello specifico, questa revisione valuterà i tempi, la portata e le capacità di tali aggiornamenti, nonché l’impatto sulla sicurezza su Tesla”, affermano i documenti.
Tesla ha segnalato tutti e quattro gli incidenti all’NHTSA sotto il mandato dell’agenzia, che copre tutte le case automobilistiche. Un pedone è stato ucciso nel novembre 2023 a Rimrock, in Arizona, da una Tesla Model Y del 2021. Rimrock si trova a circa 100 miglia (161 chilometri) a nord di Phoenix, dice il database dell’agenzia.
Il Dipartimento di Pubblica Sicurezza dell’Arizona ha dichiarato in un comunicato che l’incidente è avvenuto sull’Interstate 17 il 27 novembre poco dopo le 17:00. Due veicoli si sono scontrati in autostrada, bloccando la corsia di sinistra. Una Toyota 4Runner si è fermata e due persone sono scese per aiutare con il controllo del traffico. Una Tesla Model Y rossa ha poi colpito il 4Runner e una delle uscite. Una donna di 71 anni di Mesa, in Arizona, è morta sul posto.
La collisione è avvenuta perché il conducente della Tesla aveva la luce del sole negli occhi, quindi non è stato accusato, ha detto Raul Garcia, responsabile delle informazioni pubbliche del dipartimento. Anche la luce solare è stata un fattore determinante nella prima collisione, ha aggiunto.
Tesla ha ritirato due volte la “guida completamente autonoma” sotto la pressione dell’NHTSA, che a luglio ha chiesto informazioni alle forze dell’ordine e all’azienda dopo che una Tesla ha utilizzato il sistema per colpire e uccidere un motociclista vicino a Seattle.
Il richiamo è dovuto al fatto che il sistema è programmato per azionare i segnali di stop a bassa velocità e il sistema non viola altre leggi sul traffico. Entrambi i problemi dovrebbero essere risolti con gli aggiornamenti software online.
I critici hanno affermato che il sistema di Tesla, che utilizza solo telecamere per rilevare i pericoli, non dispone dei sensori giusti per una guida completamente autonoma. Tutte le altre aziende che lavorano su veicoli autonomi utilizzano sensori radar e laser oltre alle telecamere per vedere meglio al buio o in condizioni di scarsa visibilità.
Gli esseri umani guidano solo con gli occhi, ha detto Musk, quindi le auto possono essere guidate solo con le telecamere. Ha definito il lidar (rilevamento e rilevamento della luce), che utilizza i laser per rilevare gli oggetti, “una sciocchezza”.
Il sistema di pilota automatico meno sofisticato di Tesla si è schiantato in caso di emergenza e altri veicoli parcheggiati sulle autostrade, facendo lampeggiare più spie di allarme e portando a un richiamo “a guida completamente autonoma” dopo una prova di tre anni.
L’indagine è stata chiusa lo scorso aprile dopo che l’agenzia ha fatto pressioni su Tesla affinché richiamasse i suoi veicoli per migliorare un sistema debole che garantisce che i conducenti prestino attenzione. Poche settimane dopo il richiamo, l’NHTSA ha iniziato a indagare sull’efficacia del ritiro.
NHTSA ha avviato la sua indagine sugli incidenti con il pilota automatico nel 2021 dopo aver ricevuto 11 segnalazioni di Tesla che utilizzavano il pilota automatico che hanno colpito veicoli di emergenza parcheggiati. Nei documenti che spiegano perché l’indagine è stata chiusa, l’NHTSA ha affermato di aver riscontrato 54 feriti e 14 morti su 467 incidenti che hanno coinvolto l’Autopilot. Il pilota automatico è una versione elegante del cruise control, mentre la “guida completamente autonoma” viene definita da Musk come in grado di guidare senza intervento umano.
L’indagine aperta giovedì entra in un nuovo territorio per NHTSA, che in precedenza considerava i sistemi Tesla come un aiuto per i conducenti piuttosto che come guida. Con il nuovo studio, l’azienda si sta concentrando sulle capacità di “guida completamente autonoma” piuttosto che assicurarsi che i conducenti prestino attenzione.
Michael Brooks, direttore esecutivo del Centro no-profit per la sicurezza dei veicoli, ha affermato che una precedente indagine sull’Autopilot non ha esaminato il motivo per cui le Tesla non hanno cercato i veicoli di emergenza e non si sono fermate.
“Prima attribuivano la responsabilità al conducente piuttosto che all’auto”, ha detto. “Qui dicono che questi sistemi non hanno la capacità di rilevare i rischi per la sicurezza, indipendentemente dal fatto che i conducenti prestino attenzione o meno.”
Leave a Reply