Alla decima edizione del Nuance Auto Forum abbiamo potuto vedere in anteprima la tecnologia di assistenza digitale del futuro.
Immaginate un mondo in cui l’auto vi assiste nella vita quotidiana, interagendo con voi nel modo più intuitivo possibile: leggendovi negli occhi. Un mondo in cui, ad esempio, se dopo aver visto un negozio o un ristorante volete avere maggiori informazioni, vi basterà puntare lo sguardo e chiedere alla vostra auto: in tempo reale otterrete non solo il nome e l’indirizzo del locale, ma anche gli orari di apertura, le recensioni dei clienti o il prezzo del menu.
Fantascienza? No, tutto questo esiste già e noi abbiamo potuto provarlo in anteprima. Siamo stati invitati da Nuance Communications a verificare i progressi del suo sofisticato assistente digitale Dragon Drive in occasione del Nuance Auto Forum 2018 a Baveno, sul lago Maggiore. Un evento, giunto alla decima edizione, che testimonia come il settore auto stia acquistando sempre maggiore importanza per la multinazionale americana. La divisione automotive, che opera come unità indipendente, fornisce il suo software a tutti i maggiori costruttori automobilistici, i quali rimangono liberi di “personalizzarlo” e di implementare la user experience che ritengono più opportuna.
Già presente su 200 milioni di auto
Dragon Drive è una piattaforma di assistenza automobilistica connessa in grado di trasformare completamente l’esperienza a bordo di un’auto, amplificando le possibilità a disposizione del guidatore e dei passeggeri. Attualmente, il sistema è già installato su più di 200 milioni di auto di oltre 60 marchi differenti. Si differenzia dagli altri assistenti disponibili sul mercato, come Cortana, Siri o Alexa, perché è pensato appositamente per l’automotive. In un’auto, infatti, ci sono diversi elementi da tenere in considerazione come i rumori del traffico, i suoni di sottofondo nell’abitacolo (ad esempio musica e voci) e, ovviamente, il fatto di essere in continuo movimento.
La tecnologia Nuance compie 20 anni
Le soluzioni Nuance sono il risultato di oltre vent’anni di ricerca e sviluppo. Se alla fine degli anni ‘90 i comandi vocali potevano eseguire soltanto semplici chiamate senza l’uso delle mani, dopo l’introduzione della tecnologia cloud hanno iniziato ad essere utilizzati anche per dettare il testo di un SMS o di una email. Oggi l’assistente automobilistico di Nuance interagisce con l’automobilista in modo naturale e può rispondere a richieste complesse come “Portami alla tour Eiffel”, oppure “Ho freddo” o ancora “Dovrò mettere gli occhiali da sole domani?”. Insomma, non è più necessario inserire un indirizzo o impostare manualmente il climatizzatore.
Basta la voce per gestire le funzionalità dell’auto
L’ultima evoluzione di Dragon Drive si avvale del riconoscimento vocale di tipo “ibrido” (cioè utilizza dati su cloud in combinazione ad un database interno) e dell’Intelligenza Artificiale conversazionale per ascoltare, comprendere e rispondere in modo naturale al guidatore. Questa tecnologia è già disponibile sul mercato ed equipaggia modelli di ultima generazione come l’Audi A8 e la nuova Classe A dotata dell’infotainment MBUX. Su entrambe le vetture il conducente può gestire praticamente tutte le funzioni di bordo semplicemente attraverso la voce.
Entro due anni si farà tutto con lo sguardo
Il futuro è invece rappresentato dagli assistenti automobilistici di nuova generazione, che utilizzeranno l’Artificial Intelligence per gestire più richieste in contemporanea, ad esempio: “Blocca lo sportello anteriore e trova un parcheggio vicino al Teatro della Scala che accetti carte di credito e sia ancora aperto dopo il concerto”. Il gruppo americano intende posizionarsi sempre di più come fornitore di assistenti personali di bordo e come creatore di esperienze in auto attraverso un’interazione con il guidatore naturale e più “umana”. Ad esempio, il sistema può rispondere con toni emozionali differenti a seconda del nostro coinvolgimento emotivo su un determinato argomento.
Ma l’aspetto più sorprendente riguarda ovviamente il tracciamento oculare, una tecnologia che legge lo sguardo del conducente per capire dove è rivolta la sua attenzione ed acquisire in questo modo il comando. Per vedere sulle auto di serie questa incredibile innovazione non dovremo attendere troppo, perché il debutto sul mercato – come ci ha confermato Vanessa Richter, responsabile della comunicazione EMEA di Nuance – è previsto entro appena due anni.
Primo contatto con i prototipi
Nel corso dell’evento ci è stato mostrato un prototipo marciante che realizza esattamente quanto promesso: comprendere i comandi attraverso lo sguardo del conducente. Si tratta di una Ford Galaxy su cui è stato installato il potente processore Nvidia Drive PX-2, delle telecamere ed un sensore infrarossi posizionato sul quadro strumenti (per comprendere la direzione della testa e degli occhi). Il prototipo raccoglie i dati ogni 12 millisecondi, li elabora con dei sofisticati algoritmi per creare dei modelli 3D che tengono conto anche della posizione della vettura. A sorprendere è la velocità di reazione del sistema, che è in grado di individuare i punti che il guidatore fissa con lo sguardo, per una frazione di secondo, mentre pone la domanda. I limiti attualmente sono rappresentati dal fatto che funziona solo con luoghi o edifici (non oggetti qualsiasi) e solo su un percorso stabilito, ma comunque in condizioni di traffico reale e non controllate.
Oltre a questo concept, a Baveno era presente il prototipo presentato lo scorso gennaio al CES di Las Vegas. Si tratta di un monovolume Mercedes Classe V allestito con ben 27 microfoni che consentono di acquisire un comando senza nemmeno la parola di attivazione (come ad esempio “Ok Google”). Inoltre, il software è in grado di riconoscere da dove proviene il comando: se il conducente dice “Ho freddo”, il sistema accende il riscaldamento solo del posto guida, ma non degli altri passeggeri.
Se questo è quello che la tecnologia Nuance può fare già oggi, seppur a livello prototipale, cosa ci riserverà il futuro a lungo termine? Nella visione di Nuance la user experience nei prossimi 15 o 20 anni sarà sempre più intuitiva ed integrata con la guida autonoma. Visti i progressi fatti da questa tecnologia, non dubitiamo che sarà così…