Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

MOBILITA' AVANZATA

Auto a guida autonoma, ecco le frontiere (tra reti neurali e 5G)

La messa a punto dei veicoli di nuova generazione procede a passo spedito, ma gli step che l’industria dovrà affrontare sono ancora molteplici. Affinamento degli algoritmi e reti neurali i punti critici. Il principale tassello sarà però l’integrazione con le infrastrutture di rete e il 5G

20 Mar 2019

Nicola Ruggiero

Anitec-Confindustria


La mobilità del futuro sta muovendo i primi passi. Per il 2021 sono attese le prime vetture dotate di livelli di automazione elevati, ma il punto di arrivo saranno automobili in grado di gestire la guida alla pari di un essere umano. L’industria ci crede, e investe nella ricerca che porterà ad algoritmi più affinati e sistemi di AI “addestrati”. Ma il vero tassello che completerà lo scenario sarà rappresentato dall’integrazione con le infrastrutture di rete Tlc e con il 5G. Ecco lo scenario e le forze in campo.

In attesa delle auto a completa guida autonoma, quelle definite di livello 5, che ci portino in giro come dei perfetti autisti, ed in attesa di vedere le strade e le infrastrutture di viabilità adeguarsi a questo nuovo concetto di guida e nuovi veicoli, si susseguono importanti evoluzioni dell’uso di sistemi a bordo macchina che fanno dell’intelligenza artificiale il loro punto di forza e distintivo.

Oggi circolano auto a guida autonoma limitata o parziale (livello 1 e 2), mentre sono attese per il 2021 quelle di livello 3 e 4, cioè quelle con livelli di automazione elevati in cui è richiesta poca supervisione da parte dell’autista.

Il passaggio da un livello all’altro è complesso e richiede l’evoluzione in tutti gli aspetti che coinvolgono la guida con forte uso delle tecniche di intelligenza artificiale e machine learning.

Oggi si passa dall’analisi del contesto esterno con i suoi singoli elementi (la strada, l’incrocio, i pedoni, gli altri veicoli, la posizione… ) all’analisi del contesto interno all’auto: autista e passeggeri.

I risultati raggiunti finora

Una delle ricerche più interessanti in tal senso è quella del Department of Computer Science alla Brown University di Providence (USA), dove gli scienziati stanno insegnando ai sistemi ad apprendere quali errori non fare registrando sia migliaia di scenari tipici che, soprattutto, i commenti dei passeggeri seduti in auto rispetto agli errori di guida o ai comportamenti più o meno corretti dell’autista, come dire: gli algoritmi di intelligenza artificiale e machine learning imparano dagli errori, quelli propri e quelli percepiti come tali dagli altri (backseat driver effect).

Come si vede proprio sull’autista, sul suo comportamento e sull’analisi dei principali fattori biometrici e dei movimenti si sono concentrati gli sforzi delle principali case automobilistiche e dei gruppi di ricerca in tutto il globo. I cruscotti sono stati equipaggiati con telecamere nello spettro del visibile, ma anche nell’infrarosso, con microfoni sensibilissimi e altri sensori per poter analizzare, apprendere e prevedere i gesti principalmente di mani, occhi, volto che, combinati con i comandi vocali e con l’analisi del contesto, impartiscono istruzioni e richiedono informazioni ai vari sistemi di bordo.

In alcuni casi oggi si parla di guida autonoma per brevi tratti ed in contesti dove non sono richiesti repentini cambi di corsia (ad esempio in autostrada), ma in generale si tratta solo di avanzati sistemi di guida assistita (ADAS), che sono quelli che più vedremo nei prossimi 2 anni.

Il ruolo delle reti neurali

Gli algoritmi ed i sistemi di intelligenza artificiale sviluppati sono il frutto di continui affinamenti degli stessi algoritmi utilizzati nelle varie discipline: analisi e riconoscimento tridimensionale delle immagini, algoritmi di Natural Language Processing, sistemi di realtà virtuale e realtà aumentata, sistemi e sensori migliorati in definizione e velocità di calcolo, protocolli di comunicazione più sicuri ed anche analisi dei dati biometrici della persona.

Per le reti neurali alla base di questi algoritmi le ultime frontiere sono le GAN (Generative Adversarial Nets), reti a struttura contraddittoria in cui il risultato dell’algoritmo originario è confrontato con un modello detto “avversario” al fine di discriminare se il campione di dati analizzati proviene dalla distribuzione del modello originale o dalla distribuzione dei dati generati. La competizione dei modelli (generativo ed avversario) spinge la rete GAN a migliorare il proprio metodo fino a quando i due risultati non saranno più distinguibili tra loro e quindi si possa ritenere che l’errore si sia minimizzato e l’analisi sia corretta. Ciò richiede l’addestramento delle reti neurali e dei sistemi di AI e machine learning.

Oggi l’addestramento avviene con appositi simulatori che riproducono scenari e condizioni note, ma siccome è l’addestramento delle reti neurali uno dei principali punti deboli che rallentano lo sviluppo, si utilizza proprio l’essere umano (l’autista ed il passeggero) per accelerare rapidamente l’apprendimento della miriade di scenari che si incontrano durante le normali situazioni di guida.

In sostanza si lavora, soprattutto al MIT, per ridurre i cosiddetti blind-spot, cioè quelle situazioni non facilmente replicabili in un simulatore. Si pensi al classico esempio di una ambulanza che può essere confusa con un normale furgone bianco: distinguere se è il caso di lasciar passare l’ambulanza (situazione di emergenza) o no, e su quale lato accostare o come facilitarne il passaggio non è una situazione facilmente replicabile senza il supporto dell’essere umano che “insegna” in situazioni reali come comportarsi.

Solo pochi anni fa abbiamo visto comparire sistemi di questo tipo nelle singole applicazioni verticali.

Ad esempio con lo sviluppo della videosorveglianza per la sicurezza in luoghi pubblici ed affollati (stazioni, stadi, teatri…) si sono sviluppati i sistemi di AI (Artificial Intelligence) per l’analisi ed il digital image processing per l’analisi dei parametri biometrici facciali al fine del riconoscimento della persona o di alcuni livelli emotivi.

Mentre con i telefonini ed i PC si è inizialmente puntato al riconoscimento della voce e la gestione dei comandi vocali, esteso poi ad ogni tipo di device incluse le TV connesse o i primi sistemi in auto.

Oggi le concept car presentate (soprattutto BMW e Mercedes) sono in grado di prevedere i movimenti, anticipare i comandi o attivarne alcuni con semplici gesti prima ancora che si tocchi il tasto o l’interruttore, sono in grado di prevedere il livello di stress o di comfort dell’autista, di valutarne l’appropriatezza alla guida e, in casi estremi, prenderne il controllo in caso di colpi di sonno o malesseri o situazioni di pericolo esterne. Ma sono altrettanto pronte a restituire il controllo se non si ricade in scenari noti, richiedendo quindi sempre l’attenzione del pilota.

Se questo lo abbiniamo ai sistemi multimediali di bordo (touch panel, schermi LCD, on-screen-display…) ed all’abitudine sviluppata con tablet e telefonini di gestirli con gesture delle mani e delle dita, e lo integriamo in un unico ambiente ecco che le auto faranno nei prossimi anni un passo quantico avanti verso la guida autonoma con il governo dell’autista e dell’intelligenza artificiale.

Dove si orientano gli investimenti

Non a caso le principali case produttrici più impegnate in questo (le tedesche ma non solo) hanno sviluppato un vero e proprio sistema operativo che nativamente crei l’ambiente di integrazione delle varie periferiche, sensori e sottosistemi interni all’auto e dialoghi in maniera univoca con l’esterno. Lo hanno fatto, sebbene con sfaccettature diverse, il gruppo BMW, Mercedes, Audi, Tesla e le giapponesi spingendosi molto avanti.

Lo hanno invece interpretato su aspetti più di entertainment e gestione semplificata dell’auto il gruppo Ford, Seat e tanti altri. In ogni caso ognuno si è spinto molto avanti ed anche quelli che oggi sono i concept in poco tempo arriveranno sul mercato. Si sta seguendo nelle auto la strada tracciata per altri settori: smartphone, TV, piattafome di gaming (i.e. Sony o Microsoft).

Emerge quindi un aspetto importante: se da un lato siamo ancora lontani dal fare in modo che le auto autonomamente gestiscano tutte le situazioni possibili durante una guida su strada e reagiscano con il buon senso e l’abilità di un autista esperto, ma anche con la freddezza dei calcoli, dall’altro hanno tutti bisogno di capire di più di come ci comportiamo alla guida delle auto, come ogni autista interpreta e reagisce alle varie situazioni e quali sono i presupposti che l’infrastruttura di trasporto e viabilità deve avere affinché si possa attuare una guida in piena autonomia.

L’importanza quindi di questi primi sistemi integrati, e dei loro sistemi operativi sottostanti, consiste nel raccogliere dati, grandi quantità di dati, da analizzare in tempo reale ma anche da fornire a sistemi ad autoapprendimento che aiutino a migliorare gli attuali algoritmi.

Ci aspettiamo che da oggi in poi vi sia appunto una accelerazione su questi aspetti man mano che si diffondono auto dotate di questi sistemi.

L’industria automobilistica è consapevole che l’infrastruttura di telecomunicazioni ed il suo sviluppo con il 5G è l’elemento che connette l’auto al mondo così come lo smartphone ha unito noi alle comunità social, all’ufficio ed al divertimento.

L’integrazione con Tlc e 5G

L’una non può prescindere dall’altra, le reti di telecomunicazioni non serviranno solo a trasmettere in tempo reale i dati da e per l’auto, ma anche ad ospitare soluzioni di edge computing o simili che aumenteranno le capacità di elaborazione delle nostre automobili, saranno i punti in cui gli oggetti in movimento si connettono alla loro intelligenza superiore per migliorare quella a bordo macchina.

Dalle indiscrezioni raccolte alcune case automobilistiche starebbero addirittura pensando, nei loro mercati captive, di gestire una infrastruttura di rete propria utilizzando le opportunità presentate dalla tecnologia 5G, dove gestire una rete non necessariamente vuol dire realizzare ogni parte di essa (ad esempio la rete di accesso radio) ma, magari, affidarsi ad un operatore esistente per utilizzarne in proprio una partizione verticale dall’accesso radio alla core network, ovvero gestire proprio quella qualità del servizio richiesto per far viaggiare ed elaborare rapidamente le applicazione dell’AI di bordo.

L’ecosistema che si sta creando parte quindi dall’analisi dei principali ambienti (dentro l’auto e fuori dall’auto) ma deve essere completato, come detto altre volte, da una infrastruttura intelligente, da una viabilità smart e da oggetti che dialoghino con le auto in transito ed analizzino i vari scenari.

Oggi si sperimentano le prime integrazioni di applicazioni su rete stradale pubblica con l’utilizzo di infrastrutture esistenti (ad esempio i lampioni della luce) per ospitare non solo nodi di rete 5G ma anche sistemi di analisi del traffico, di riconoscimento dei veicoli in arrivo, di capacità di scambio dati con i veicoli in zona fino, ad esempio, ad indirizzarli al parcheggio libero, e anche a prevedere situazioni pericolose che il singolo veicolo non riesce ad intravedere. Ecco, questa integrazione è un’altra tessera del mosaico senza la quale non si riuscirà a realizzare una mobilità avanzata, ovvero un unico ambiente per l’integrazione e lo scambio di informazione tra ambiente interno e gestione dell’auto, ambiente esterno e altri veicoli.

L’opportunità è che si crei l’ecosistema completo, il rischio è che ci siano piattaforme predominanti (proprio come i social network, gli smartphone o il gaming) che governeranno il mercato del futuro ed il rischio non è basso: infatti ci vogliono ingenti risorse per sviluppare e mantenere in piedi i sistemi necessari al continuo sviluppo dell’intelligenza necessaria alla guida autonoma. Ciò nonostante sono ingenti le somme che i vari governi, i vari istituti di ricerca pubblici o privati stanno riversando nel sistema.

Si aprono qui scenari di mercato e considerazioni etiche sui quali si potrà discutere in seguito: sottolineiamo invece che la guida autonoma può essere veramente la massima espressione di tante discipline sviluppate fino ad oggi ed integrate tra loro.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4