Auto intelligenti a rischio cracker?

Le auto senza conducente sono il futuro della mobilità secondo, eppure rimangono molti i dubbi su di esse, compreso il rischio di attacco cracker.

Google Autonomous Car: prototipo su base Prius

Altre foto »

Fanno discutere a distanza di alcuni giorni le linee guida che il Dipartimento dei Trasporti americano ha messo a punto e diffuso relativamente alle auto senza conducente, ovvero quella futuristica (al momento) categoria di vetture intelligenti capace di guidarsi in piena autonomia facendo a meno totalmente o parzialmente della componente umana.

>> Guarda le immagini dell'autonomous car di Google su base Toyota Prius

E mentre l'ente governativo ha classificato in cinque categorie le automobili del futuro, negli USA il dibattito sulla sicurezza è aperto e coinvolge numerosi attori provenienti anche da settori assai diversi da quello automobilistico.

Da più parti si è discusso a più riprese della sicurezza delle autonomous car intesa come la capacità di viaggiare nel traffico senza causare incidenti, ma iniziano a sorgere diversi dubbi anche sull'aspetto della sicurezza informatica dei sistemi di bordo, che potrebbero essere tanto sofisticati quanto potenzialmente a rischio di attacchi esterni.

Il software di gestione delle auto senza conducente, cioè la vera e propria intelligenza artificiale, potrebbe essere, secondo molti esperti del settore, passibile di veri e propri attacchi cracker, un po' come accade a sistemi operativi installati su computer domestici, server aziendali e di enti o perfino ai più comuni dispositivi mobili come smartphone e tablet.

Google, una delle prime ad aver intravisto le potenzialità di questo genere di mezzi di trasporto, ha assicurato di essere al lavoro su una tecnologia affidabile, capace di migliorare la vita delle persone e di rendere la guida più sicura, efficiente e divertente, anche se sull'ultimo punto ci sarebbe molto da discutere e un dubbio appare più che lecito.

Il pericolo informatico rimane comunque molto alto, specie se si dà credito agli scenari ipotizzati da diversi ricercatori per la sicurezza, secondo cui il rischio che dei cracker possano creare delle falle nei sistemi di bordo, fino a compromettere la capacità di guida del mezzo mettendo a rischio l'incolumità dei passeggeri, è molto concreto.

Un'auto intelligente con dei bug software rischierebbe in effetti di avere dei comportamenti imprevedibili, diventando una vera e propria "arma su quattro ruote", un pericolo sia per chi vi si trova dentro che per gli altri utilizzatori della strada.

Il debutto di questi veicoli nella vita quotidiana è ancora abbastanza lontano, ma è assolutamente fondamentale che tutta questa serie di dubbi venga fugata prima di poter anche solo pensare ad uno sbarco sul mercato ed è questo quello a cui costruttori e aziende informatiche dovranno lavorare nei prossimi anni.

Se vuoi aggiornamenti su AUTO INTELLIGENTI A RISCHIO CRACKER? inserisci la tua e-mail nel box qui sotto:
di Giuseppe Cutrone | 03 giugno 2013

Vedi anche

Guida autonoma: Intel crea l

Guida autonoma: Intel crea l'Automated Driving Group

Intel investe sulla guida autonoma e annuncia la nascita di una divisione dedicata che si chiamerà Automated Driving Group.

Bmw: nel 2021 la prima auto autonoma al 100%

Bmw: nel 2021 la prima auto autonoma al 100%

La Casa dell’elica ha dichiarato che lancerà la sua prima vettura 100% a guida autonoma con intelligenza artificiale nel 2021.

EuroNcap 2016: ecco i risultati degli ultimi crash test

EuroNcap 2016: ecco i risultati degli ultimi crash test

Massima valutazione per 4 modelli su 9; sempre più netto il divario fra vetture "di serie" e quelle dotate del "safety pack" richiesto da Ncap.