Intelligenza artificiale e Covid-19, storia di un fallimento che possiamo correggere | Agenda Digitale

l'analisi

Intelligenza artificiale e Covid-19, storia di un fallimento che possiamo correggere

Il ruolo dell’intelligenza artificiale sembra essere tutt’altro che centrale nel contrasto al covid, nonostante gli entusiasmi iniziali. Esaminiamo i motivi dell’insuccesso e vediamo perché la pandemia può comunque presentare un’opportunità importante per un Paese come l’Italia

09 Set 2020
Stefano da Empoli

presidente dell’Istituto per la Competitività (I-Com)


Forse è troppo presto per decretare il fallimento dell’intelligenza artificiale nel contrasto al covid-19. Ci piacerebbe essere smentiti nei prossimi mesi. Tuttavia, una prima linea va tracciata, anche per illuminare meglio gli attuali limiti della tecnologia e allo stesso tempo giustificarne gli apparenti insuccessi.

Le applicazioni dell’intelligenza artificiale nel contrasto alla pandemia

Nell’aprile del 2020, dunque al culmine massimo dell’emergenza (almeno in Europa), l’OCSE ha pubblicato un breve paper per mostrare i tanti usi dell’intelligenza artificiale messi in campo in tutto il mondo per contrastare il Covid-19. Considerato il poco tempo di reazione di amministrazione pubbliche, centri di ricerca e privati, il quadro tracciato dall’OCSE sembrava attestare un piccolo miracolo. Quello delle organizzazioni capaci di rispondere in brevissimo tempo ma anche della tecnologia, per la prima volta alle prese con una crisi di simile portata.

Andando però a vedere, ad alcuni mesi di distanza, le singole applicazioni citate nell’analisi, è lecito nutrire diversi dubbi sull’ottimismo che traspariva dall’analisi dell’organizzazione internazionale con sede a Parigi. Alcuni degli use case censiti sembravano promettere molto più di quanto siano fin qui riusciti a mantenere. Viene in mente subito la ricerca e lo sviluppo dei vaccini e delle terapie anti-Covid. Per quel che ne sappiamo, nessuna delle piste scientifiche più promettenti ha fatto uso significativo di soluzioni di intelligenza artificiale. Non molto dissimile appare essere la sorte dell’altra possibile applicazione di cui si è tanto discusso negli scorsi mesi, il contact tracing. Al di là del fatto che dopo le tante discussioni che hanno spaccato a metà i decisori e gli esperti di mezzo mondo, la montagna sembra aver partorito un topolino (il contact tracing è al momento perlopiù umano, almeno in Italia, anche a causa della limitata diffusione dell’app Immuni), il ruolo dell’intelligenza artificiale sembra essere tutt’altro che centrale. Non ce n’è di certo nelle caratteristiche di base delle app di contact tracing, ma non si ha neppure notizia di eventuali usi a valle, almeno finora. Più utile è stato l’uso che di filtri basati sull’intelligenza artificiale hanno fatto i social media per contrastare le fake news galoppanti. Con qualche successo parziale ancorché non risolutivo, come testimoniano i tanti focolai di palesi stupidaggini spacciati per tesi scientifiche propagatisi nella rete in questi mesi (tra le più sgangherate, per chi si interessa di temi digitali, l’associazione del 5G alla diffusione del Covid-19). Modeste se non nulle, rispetto perlomeno a strumenti non “intelligenti”, sono apparse le capacità predittive dei modelli di intelligenza artificiale sulla diffusione del virus.

Così come le applicazioni per l’enforcement del distanziamento sociale nei contesti aziendali o addirittura, sempre con lo stesso scopo, la capacità di sostituire l’uomo nei contesti ad alta intensità di lavoro.

Le quattro ragioni di un (parziale) fallimento

Sulle ragioni dell’insuccesso dell’IA nel contrasto alla pandemia, a me sembra siano venute fuori almeno quattro ordini di questioni (in parte tra loro correlate).

In primo luogo, come gli esperti sanno benissimo, non esiste un unico strumento di intelligenza artificiale che possa replicare e possibilmente fare meglio della mente umana (in altre parole, la cosiddetta intelligenza artificiale “forte” è ben lungi dall’arrivare). Quelle che noi abbiamo di fronte, come testimonia il paper OCSE, sono tante applicazioni specifiche, che in alcune circostanze già battono le corrispondenti capacità umane (altrettante versioni della cosiddetta intelligenza artificiale “debole”). Nella vicenda pandemica, questo fatto parcellizza l’aiuto che può offrire la tecnologia. È come avere una massa di persone che in maniera scoordinata provano a spostare un camion dalla strada. Molto più difficile farlo rispetto a un nucleo ristretto di braccia che si muovono all’unisono. Più le applicazioni sono specifiche e di nicchia, minore il contributo che complessivamente possono dare a vincere una sfida così complessa ed epocale.

Secondo, gli algoritmi hanno bisogno di tempo per allenarsi e diventare più precisi, grazie ai dati che riescono ad assimilare. È dunque evidente che danno i risultati migliori di fronte a eventi ricorrenti e che si presentano con parametri regolari. Sotto questo profilo, il Covid-19 rappresenta un terreno estremamente impervio, perché allo stesso tempo nuovo ed estremamente irregolare.

Questa irregolarità è alla base del terzo fattore che sta limitando un dispiegamento efficace dell’intelligenza artificiale. Al di là delle possibili differenze in termini di carica infettiva, oggetto ancora oggi di acceso dibattito tra i massimi virologi, le modalità di contagio di un’epidemia variano in base ai diversi contesti culturali. Lo ha scoperto sulla propria pelle il gruppo di ricerca con sede a Boston che ben sei anni fa, come ha raccontato Gillian Tett in un recente articolo sul Financial Times, ha ideato quella che sembrava un’idea intelligente per contrastare il virus Ebola che a quel tempo infestava soprattutto la Sierra Leone: utilizzare gli algoritmi di intelligenza artificiale per monitorare e prevedere la diffusione della malattia. Al tempo la piattaforma HealthMap fu accolta dai media come una svolta contro un virus mortale che compare ciclicamente nell’Africa equatoriale, una delle aree più povere del mondo, e che a quel tempo stava producendo il picco assoluto di contagi e morti da quando fu identificato per la prima volta a metà degli anni Settanta. Tuttavia, i risultati si sono rivelati rapidamente deludenti. Per una ragione semplice quanto frustrante: il team interdisciplinare di scienziati, sulla carta uno dei più preparati al mondo per lavorare con successo su questo fronte, era scivolato su due assunti sbagliati. In primo luogo, aveva dato per scontato che una malattia come l’Ebola si comportasse come la malaria e si diffondesse quando gli esseri umani si muovevano e, inoltre, presumeva che, se i telefoni cellulari di cui monitoravano gli spostamenti con il GPS fossero in movimento, anche i loro proprietari stessero viaggiando con loro. Entrambe le ipotesi si sono rivelate ampiamente fallaci.

WEBINAR
Come aumentare il ROI e ottenere forecast sempre più precisi? AI & Deep Learning per il finance
Finanza/Assicurazioni
Intelligenza Artificiale

Una ragione importante per la diffusione dell’Ebola, almeno in quella circostanza, non era la mobilità delle persone (peraltro piuttosto contenuta rispetto ai Paesi più avanzati), ma il loro comportamento ai funerali, in particolare il fatto che la cultura locale spinga chi partecipa al lutto a toccare il corpo della persona deceduta (e dunque in questo modo aumentando esponenzialmente le possibilità di contagio nel caso in cui il defunto avesse contratto il virus).

Inoltre, in paesi come la Sierra Leone, i telefoni non sono visti come proprietà personale, ma come un dispositivo condiviso, utilizzato e dunque passato tra un buon numero di persone. Pertanto, non sussistendo una relazione biunivoca tra telefoni e persone, mancava anche la possibilità di poterle tracciare attraverso i movimenti dei dispositivi mobili.

La questione è dunque che anche una combinazione di una quantità potenzialmente enorme di dati e modelli di IA estremamente sofisticati potrebbe fallire se non accompagnata da una profonda capacità di comprensione e interpretazione umana della realtà. Come d’altronde, a un livello di sofisticazione diverso (e senza l’impiego di tecnologie di intelligenza artificiale) sta dimostrando il contact tracing. Le app digitali possono (a determinate circostanze) essere utili ma hanno bisogno di interagire con l’uomo. Se pretendono di sostituirlo (ovviamente per decisione umana), diventano di colpo più stupide, quantomeno sui terreni più impervi di cui si parlava prima.

Infine, una questione tutt’altro che trascurabile: l’intelligenza artificiale non può funzionare (o quantomeno non con piena o anche solo accettabile efficienza) se non è alimentata da un flusso adeguato di dati sia sotto il profilo quantitativo che qualitativo. Per qualità, nel caso ad esempio dei dati epidemiologici riferibili al Covid-19, si intende sia la precisione e il valore della singola informazione che l’uniformità dei dati che contengono quella stessa informazione (e dunque qualora aggregati potrebbero risultare particolarmente utili perché maggiormente rappresentativi) provenienti da fonti diverse. In questo senso, appare lampante la non affidabilità di dati che dipendono da fattori palesemente disomogenei (es. numero di tamponi effettuati) o che vengono raccolti differentemente non solo tra gli Stati membri dell’Unione Europea ma anche tra regioni di una stessa nazione (in sistemi sanitari regionalistici come quello italiano).

Perché e come finanziare l’attuazione della Strategia italiana per l’intelligenza artificiale con i fondi per la ripresa

Se dunque si può senz’altro parlare, almeno rispetto alle attese di tanti, di parziale fallimento dell’intelligenza artificiale di fronte alla sfida del Covid-19, si dovrebbero quantomeno applicare tutte le attenuanti del caso.

La verità è che l’intelligenza artificiale riesce a fare bene alcune cose mentre su altre non ha molto da dire o va comunque coadiuvata dalla componente umana. Nel futuro riuscirà a migliorare gradualmente in alcune mansioni ma non è pensabile che possa superare ovunque l’asticella umana, specie dove già ora parte palesemente svantaggiata. Naturalmente si tratta di una cattiva notizia rispetto all’emergenza sulla quale siamo concentrati in questo momento ma in un orizzonte più largo (e anche di più lungo termine) questa constatazione dovrebbe essere accolta con grande tripudio. Smentendo le previsioni più pessimistiche su un’imminente disoccupazione di massa conseguente a una generalizzata automazione del fattore lavoro. La transizione sarà con ogni probabilità graduale e permetterà alle persone di adattarsi, se lo vorranno e se saranno sostenute da policy efficaci.

È qui che il Covid-19 può presentare un’opportunità importante per un Paese come l’Italia. Sappiamo che i 209 miliardi di euro che potremo ricevere nei prossimi anni dall’Unione Europea sotto forma di sussidi e prestiti agevolati devono contribuire a vincere la duplice sfida della transizione digitale ed ecologica.

Una volta tanto un ritardo, in questo caso l’uscita ci auguriamo imminente della Strategia italiana per l’intelligenza artificiale, in seguito alla pubblicazione a inizio luglio del documento degli esperti, di cui faceva parte chi scrive, rappresenta l’occasione per aumentarne l’ambizione iniziale, anche rispetto ai nostri partner europei.

La prima versione della Strategia, messa in consultazione nell’agosto scorso, prevedeva 1 miliardo di euro di investimenti pubblici fino al 2025 che avrebbero mobilitato all’incirca un altro miliardo di euro di investimenti privati. In teoria una cifra ragguardevole (sia pure significativamente inferiore a quelle messe in campo da Germania e Francia). Nella realtà, peanuts se contestualizzati nella corsa globale all’intelligenza artificiale. Basti pensare che, secondo i calcoli della Stanford University, solo nel 2018 gli investimenti privati annuali negli USA superavano i 18 miliardi di dollari e in Cina i 14 miliardi di dollari (mentre, sempre secondo le stime dell’università statunitense, i 5 Paesi UE più grandi spendevano poco meno del Regno Unito, non arrivando neppure a 1,3 miliardi di dollari speso in un anno). Ma anche rispetto alla sfida enorme dell’adozione in un Paese come l’Italia all’ultimo posto nell’UE per competenze digitali secondo l’ultimo indice DESI, stiamo parlando di risorse dispensate con una frugalità che farebbe impallidire olandesi o austriaci.

Sappiamo che i soldi che proverranno da Bruxelles dovranno essere spesi efficientemente e che gli altri Stati membri guarderanno con attenzione sia il modo in cui verranno allocati che le modalità con le quali saranno impiegati. Ipotizzare che una pur piccola parte (tale da raddoppiare o ancora meglio triplicare la cifra inizialmente prevista dal Governo fino al 2025) venga impiegata, con oculatezza e buon senso, per l’attuazione della Strategia italiana per l’intelligenza artificiale sarebbe certamente visto con favore. E, oltre a fare gli interessi dell’Italia, delle sue imprese e dei suoi lavoratori, darebbe un contributo importante all’Europa per provare a recuperare il gap competitivo con le nazioni più avanzate. Non potendo finanziare spese ordinarie, il budget aggiuntivo che potrebbe essere finanziato con i fondi europei potrebbe, da un lato, contribuire agli investimenti iniziali nelle strutture e altre dotazioni dell’Istituto italiano per l’intelligenza artificiale e degli altri soggetti previsti (ma anche al rafforzamento di quelli esistenti e all’adeguamento delle risorse di calcolo necessarie), dall’altro, accelerare in maniera decisiva il salto tecnologico e organizzativo richiesto alle aziende italiane, in particolare alle PMI, e alla pubblica amministrazione per adottare con successo il nuovo paradigma tecnologico.

Se questo accadrà si potrà ben dire, almeno per l’Italia, che si sta aprendo davvero una nuova era post-Covid. Probabilmente migliore di quella precedente. A tributo perenne di chi non potrà purtroppo vederla.

webinar -16 dicembre
5G e connettività a banda ultralarga: la priorità, anche dopo l'emergenza
Networking
Telco

@RIPRODUZIONE RISERVATA

Articolo 1 di 4