"Ho rischiato la vita": l'ex capo guida autonoma Uber tradito da Tesla
Quando la promessa della tecnologia si scontra con la realtà della strada, il risultato può essere ben diverso dalle aspettative. Lo sa bene Raffi Krikorian, ex leader della guida autonoma di Uber e attuale CTO di Mozilla, che si è trovato protagonista di un episodio che, più che un semplice incidente, sembra una cartina tornasole delle sfide e delle ambiguità che circondano i sistemi di guida automatizzata. Il suo viaggio a bordo di una Tesla FSD (Full Self-Driving) nella Baia di San Francisco si è concluso contro un muro di cemento, lasciando aperti interrogativi che vanno ben oltre la cronaca.
Era una giornata come tante, ma è bastato un attimo: lo sterzo del veicolo ha compiuto uno scatto improvviso, un rallentamento altrettanto inspiegabile, e poi lo schianto. I figli di Krikorian, fortunatamente illesi, sono stati spettatori di un episodio che avrebbe potuto avere conseguenze ben più gravi. Per il conducente, una commozione cerebrale e un mal di testa che non accenna a passare. Ma il vero trauma è forse quello collettivo, quello che colpisce chiunque si affidi – con fiducia o con scetticismo – a sistemi come il Full Self-Driving di Tesla.
E qui entra in gioco il cosiddetto vigilance decrement, un fenomeno che non è certo nuovo per chi si occupa di sicurezza stradale, ma che trova nei sistemi avanzati di assistenza alla guida una nuova, insidiosa manifestazione. Quando tutto sembra funzionare alla perfezione, la soglia di attenzione del conducente si abbassa, quasi fisiologicamente. Gli esperti parlano di 5-8 secondi per riprendere pienamente il controllo dopo che l’automazione si è disattivata: un tempo che, nel traffico reale, può essere un’eternità. Ed è proprio in questi interstizi di responsabilità, tra uomo e macchina, che si annidano i rischi più gravi.
Non è solo una questione di limiti cognitivi umani, ma anche di trasparenza e di gestione dei dati. Tesla, come noto, raccoglie una mole impressionante di informazioni sui comportamenti dei conducenti. Tuttavia, la casa di Elon Musk è stata spesso accusata di usare questi dati per scaricare la responsabilità sugli utenti, soprattutto dopo gli incidenti. Il caso della causa per morte ingiusta in Florida, dove i ricorrenti hanno dovuto ricorrere a un hacker per accedere ai dati del computer di bordo, è emblematico: la stessa Tesla aveva dichiarato i dati inaccessibili. Il verdetto? Ben 243 milioni di dollari di risarcimento, a sottolineare quanto sia urgente una regolamentazione più chiara e incisiva.
Sul fronte delle autorità, la NHTSA (National Highway Traffic Safety Administration) è da tempo al lavoro per fare luce sulle dinamiche che coinvolgono Autopilot e Full Self-Driving. Le indagini non si contano, così come i richiami: basti pensare ai quasi 363.000 veicoli richiamati da Tesla nel febbraio 2023, dopo che la stessa azienda aveva ammesso comportamenti imprevedibili del sistema agli incroci. Un’ammissione che pesa come un macigno su una tecnologia che si presenta come avanguardia, ma che nei fatti resta ancora in una terra di mezzo tra assistenza e vera autonomia.
La questione, a ben vedere, non è solo tecnica. In gioco ci sono valori come etica, responsabilità e fiducia. Gli esperti e le autorità di regolamentazione chiedono a gran voce misure concrete: interfacce riprogettate per mantenere alta l’attenzione, limiti più severi per i test su strada pubblica, trasparenza sui dati raccolti e sulle decisioni algoritmiche. Ma il confine tra assistenza e autonomia rimane ancora troppo sfumato, e proprio qui si gioca la partita più importante per il futuro della mobilità.
Il caso di Raffi Krikorian non è solo la storia di un singolo incidente, ma il simbolo di un settore che corre veloce, forse troppo, verso un futuro ancora incerto. Le case automobilistiche spingono sull’innovazione, ma episodi come questo ci ricordano che la prudenza non è mai troppa quando si tratta di sicurezza. Serve una sperimentazione rigorosa, serve un quadro normativo che protegga davvero chi si affida a queste tecnologie. E, soprattutto, serve non dimenticare mai che, almeno per ora, la vera autonomia è ancora lontana: il rischio è che la fiducia cieca nella macchina si trasformi, in un istante, in pericolo reale per chi si trova al volante e per chiunque condivida la strada.
Ti potrebbe interessare