Intelligenza artificiale, le regole non bastano: pochi investimenti in Italia ed Europa - Agenda Digitale

Regolamento UE e mercato

Intelligenza artificiale, le regole non bastano: pochi investimenti in Italia ed Europa

Tra risorse pubbliche degli Stati inadeguate e risorse private che non tengono il passo con quelle dei competitor cinesi e americani, l’Europa rischia l’impasse negli investimenti sull’intelligenza artificiale, nonostante gli sforzi sul piano regolamentare. E in Italia il PNRR non sembra rimediare ai ritardi

20 Mag 2021
Stefano da Empoli

presidente dell’Istituto per la Competitività (I-Com)

A partire dal 2018, cioè dal primo documento strategico sull’intelligenza artificiale (IA) prodotto dalla Commissione europea, sono stati due i principali campi da gioco della partita europea: le regole e gli investimenti.

Coerentemente con questa impostazione, il Libro bianco sull’IA del febbraio del 2020, uno dei primissimi atti della presidenza di Ursula von der Leyen, tracciava i contorni di due ecosistemi, quello dell’eccellenza e quello della fiducia, nei quali l’Europa avrebbe puntato a primeggiare. Con azioni non solo e non tanto parallele ma una complementare all’altra, nella convinzione più volte ribadita dalle istituzioni europee che un mercato ben regolato può essere di per sé una condizione pro-competitiva e attrattiva di investimenti. Anche se certamente non sufficiente, viste anche le enormi risorse introdotte dalle altre potenze mondiali, su tutte Stati Uniti e Cina.

Commissione UE: “Ecco la vera forza del Regolamento AI”

D’altronde, è anche vera la relazione inversa: maggiori investimenti permetterebbero all’Europa di contribuire più attivamente di oggi al processo di creazione e sviluppo tecnologico, rafforzandone il ruolo di rule-maker.

I contenuti più significativi della proposta di regolamento Ue

In questa prospettiva, la proposta di regolamento dell’IA, pubblicata dalla Commissione europea lo scorso 21 aprile, rappresenta il culmine, o quantomeno uno dei due vertici, di un’azione preparata nel corso degli ultimi cinque anni, anche attraverso l’istituzione di un gruppo di esperti di alto livello, al quale si devono ascrivere le linee guida etiche prodotte nel 2019, che hanno avviato una sperimentazione che ha coinvolto più di 350 organizzazioni.

WEBINAR
28 Ottobre 2021 - 14:30
Sanità: Big data e analytics trasformeranno il Sistema Sanitario Nazionale
Big Data
Data warehousing

Anche se non copre tutti i possibili temi (ad esempio, è rimasta fuori la responsabilità civile, sulla quale uscirà probabilmente una norma specifica, come hanno confermato Roberto Viola e Lucilla Sioli su Agendadigitale), il testo appare sufficientemente completo e robusto. A partire dalla scelta dello strumento legislativo, un regolamento, che applicandosi automaticamente negli ordinamenti nazionali dovrebbe mitigare il rischio di frammentazione insito in un recepimento differenziato nei diversi Stati membri e allo stesso tempo dovrebbe favorire lo sviluppo di un mercato unico dell’IA. Anche se la possibilità di regole nazionali ulteriori (che ad esempio disciplineranno le sandbox regolamentari e la sorveglianza del mercato) non è affatto scongiurata.

L’approccio basato sul rischio è certamente condivisibile, vietando le applicazioni più rischiose, prevedendo condizioni stringenti per quelle a rischio elevato e imponendo obblighi basati su trasparenza e codici di condotta per quelle a rischio minore. L’esperienza derivante da altri filoni legislativi ha saggiamente consigliato il ricorso a certificazioni e standard e la previsione di corsie preferenziali per startup e piccole imprese. Un’attenzione specifica è dedicata alla governance, con la creazione di uno European Artificial Intelligence Board, che assicuri il coordinamento tra il livello europeo e gli Stati membri e tra questi ultimi, nonché alle sanzioni, anche qui calibrate in base alla severità delle violazioni (fino al 6% del fatturato globale delle imprese giudicate colpevoli).

La creazione di un database pubblico contenente le principali informazioni inerenti le applicazioni a rischio elevato e la possibilità dei fornitori IA di accedere a dati di qualità (e già conformi ai criteri specificati nel regolamento) grazie ai dataspace continentali promossi dalla Commissione sono due tasselli potenzialmente importanti per completare un puzzle di successo non solo per le istituzioni ma anche per le imprese e i cittadini.

Un possibile bias della proposta di regolamento

Se l’impianto complessivo è certamente ben strutturato e ampiamente condivisibile nelle sue linee metodologiche, nel merito alcune casistiche appaiono ambigue o sembrano riflettere quella che in letteratura si chiama “avversione algoritmica”, cioè una minore soglia di tolleranza per l’errore di una macchina rispetto a uno umano, a parità di condizioni e di conseguenze.

Tra i casi di rischio inaccettabile, se appaiono piuttosto chiare le proibizioni di applicazioni IA rivolte al credito sociale e al riconoscimento facciale in luoghi pubblici (con eccezioni motivate e limitate a questioni piuttosto circostanziate e gravi di sicurezza pubblica), più difficile appare circoscrivere il caso di tecniche subliminali che possano provocare un danno fisico o psicologico alle persone. Specie con riferimento ai profili psicologici, che sono evidentemente soggettivi e spesso non dimostrabili (basti solo pensare che ancora oggi non si è in grado di stabilire con assoluta certezza se gli apparecchi elettronici o i social media abbiano conseguenze negative o meno sulla psiche degli adolescenti). Un’interpretazione troppo estensiva e/o non sufficientemente precisa di tali eventualità rischierebbe di gettare nell’incertezza molti fornitori IA.

Serve un benchmark umano

Tuttavia, la principale criticità mi pare stia in generale nel rifiutarsi di valutare i rischi derivanti dalle applicazioni IA giudicate a rischio elevato rispetto a un benchmark umano realistico applicato agli stessi casi.

Se sui rischi per la sicurezza e la salute delle persone, la regolamentazione di potenziali errori umani appare piuttosto stringente, quelli riguardanti casi, pure considerati a rischio elevato per applicazioni IA, come, per citare degli esempi significativi, forme di potenziale discriminazione nelle assunzioni di personale o nell’ammissione di studenti a corsi universitari o post-universitari, sono poco o per nulla regolamentati (specie se ci si riferisce al settore privato).

Dando luogo già oggi a quelle che potrebbero sembrare e molte volte sono oggettive discriminazioni, esclusivamente imputabili a persone in carne ed ossa. Possiamo peraltro supporre che, nello stesso interesse delle organizzazioni che li mettono in atto, l’eventuale applicazione di tecnologie AI a questi casi possa essere fatta proprio con l’intento di ridurre i tanti bias umani, legati a molteplici motivi (da quelli oggettivi come l’elevato numero di domande che deve confrontarsi con la scarsa disponibilità di tempo e di risorse delle direzioni HR a pregiudizi del tutto soggettivi, che spesso albergano a livello sub-conscio presso ciascuno di noi).

Aumentare in questi casi il costo di applicazioni IA, attraverso una regolazione più stringente e che ne ritarderebbe l’ingresso sul mercato, potrebbe rischiare paradossalmente di favorire la discriminazione, anziché combatterla.

Questi sono solo due esempi di tanti altri che potrebbero ricadere in potenziali violazioni da parte dell’IA dei diritti fondamentali, tali da richiedere secondo la proposta della Commissione una regolazione stringente, basata su diversi criteri tutt’altro che semplici da ottemperare nella loro totalità e non necessariamente alla portata di tutti i fornitori di tecnologie.

A questo proposito, nel caso di possibili errori delle macchine che potrebbero causare la potenziale violazione di diritti fondamentali dell’individuo, sarebbe utile sviluppare una griglia più dettagliata di possibili evenienze per le quali poter confrontare le performance algoritmiche con quelle umane, per capire se e quanto le macchine, in base alle tecnologie disponibili, sono in grado di dare un valore aggiunto effettivo (anziché di mera sostituzione quantitativa, senza migliorare la qualità effettiva delle scelte).

Inoltre, si potrebbero prevedere, su base selettiva, alcuni obblighi aggiuntivi (es. la supervisione umana), senza ricorrere all’intero apparato regolamentare che riguarda le applicazioni che potrebbero mettere a repentaglio sicurezza e salute delle persone. Casi quest’ultimi per i quali, secondo molte rilevazioni, le macchine vengono giudicate più severamente degli umani, a parità di errori.

Per questo motivo, parlando delle auto a guida autonoma, in una recentissima intervista al Financial Times, Daniel Kahneman, Premio Nobel per l’economia e padre dell’economia comportamentale insieme a Amos Tversky, prevede che, prima di essere pienamente accettate, dovranno diventare molto più sicure rispetto a quelle a guida umana.

Un libro uscito negli scorsi mesi per MIT Press, How Humans Judge Machines, indaga proprio queste questioni, attraverso esperimenti randomizzati, arrivando alla conclusione che tendiamo a giudicare gli umani in base alle intenzioni, le macchine in base ai risultati.

Ma mentre su eventi potenzialmente catastrofici si conferma il bias contro le macchine (trattiamo lo stesso errore con maggiore durezza se commesso da macchine), su eventi che potrebbero portare a discriminazioni il giudizio è molto più sfumato e talvolta a favore dell’IA, a parità di errore. L’interessantissimo studio, che riporta i risultati di centinaia di esperimenti, è realizzato su un campione statunitense e sono gli stessi autori ad auspicare che venga replicato in altri contesti geografici. Sarebbe interessante esaminarne i risultati nel contesto europeo, anche per capire meglio eventuali bias contro l’IA e come affrontarli.

Ma certo appare singolare che l’istituzione che in Europa ha più lavorato su queste questioni e lo ha fatto fin qui con molta competenza non sembri porsi il problema o comunque non provi ad affrontarlo.

Eppure, il rapporto virtuoso tra regole e investimenti passa anche da qui.

Cresce il gap tecnologico UE nei confronti di USA e Cina

Anche perché ad ora, dal campo da gioco degli investimenti, non arrivano buone notizie.

A giustificazione dell’urgenza di elaborare una strategia IA alla quale destinare adeguate risorse, la comunicazione della Commissione europea del 2018 rilanciava le stime di McKinsey secondo le quali nel 2016 gli investimenti privati UE in IA si fermavano all’interno di una forchetta compresa tra 2,4 miliardi e 3,2 miliardi di euro contro i 6,5-9,7 miliardi di euro dell’Asia e soprattutto i 12,1-18,6 miliardi di euro dell’America del Nord.

Nonostante l’impegno della Commissione europea ad aumentare le risorse comunitarie del 70% nel triennio 2018-2020, i riflessi sul settore privato non sembrano esserci stati. Anzi, l’uscita del Regno Unito dall’Unione europea ha ampliato il gap. Secondo le ultime stime della Stanford University, il settore privato statunitense ha investito nel 2020 oltre 23,6 miliardi di dollari nell’IA, rispetto ai 9,9 miliardi di dollari della Cina e agli appena 2 miliardi dell’Unione europea, tallonata dal Regno Unito con 1,9 miliardi di dollari. Il target di 20 miliardi di euro l’anno da raggiungere nell’arco del decennio, che si sono date le istituzioni europee congiuntamente con i Governi nazionali, rischia di rimanere una chimera, pur considerando anche le risorse pubbliche sia a livello comunitario che di Stati membri. Anche perché anche le risorse pubbliche annunciate finora dai principali Paesi UE non paiono coerenti con gli obiettivi formulati da Bruxelles. Tenendo peraltro conto che Cina ma anche Stati Uniti già destinano risorse elevate attraverso i propri apparati statali. Denari che sembrano destinati a crescere ulteriormente nel caso degli USA, dove Joe Biden ha già annunciato l’intenzione di quasi triplicare la spesa pubblica nella ricerca scientifica, portandola al 2% del PIL, puntando soprattutto su tre tecnologie: biotecnologie, IA e quantum computing.

A investimenti inadeguati corrispondono risultati significativamente inferiori a quelli di Stati Uniti e Cina, come ha rilevato da ultimo uno studio pubblicato a inizio maggio dalla stessa Commissione europea, che ha confrontato le performance UE con quelle dei due Paesi rivali, ai quali ha aggiunto il Giappone, in 12 tecnologie chiave. Tra queste l’IA è il campo dove, in base alle elaborazioni della Commissione, l’Unione europea appare in termini relativi in maggiore difficoltà, dopo i Big Data, un filone strettamente correlato, e la microelettronica.

L’occasione (apparentemente) mancata del Recovery Plan italiano

In questa impasse dell’Europa nel campo da gioco degli investimenti, amplificato a livello italiano da un ritardo addizionale rispetto alla media UE, sia specifico che più complessivamente nel settore digitale, ci si sarebbe aspettati che il Piano nazionale di ripresa e resilienza potesse essere l’occasione per accrescere la competitività dell’Italia e con essa dell’UE. Rimediando peraltro all’incredibile vicenda della Strategia italiana sull’IA, che avremmo dovuto inviare a Bruxelles entro la metà del 2019. Complici i vari cambi di Governo intervenuti nel frattempo, la Strategia nazionale è rimasta finora incompiuta, nonostante il lavoro svolto di cui chi scrive ha ampia traccia.

Fatto sta che, in attesa che il dossier della Strategia nazionale sia estratto dalla pila dei fascicoli più urgenti sotto i quali è rimasto sepolto negli ultimi due anni, alcuni tasselli importanti del mosaico avrebbero senz’altro potuto trovare posto nel PNRR. Che non trascura del tutto l’intelligenza artificiale, citata 7 volte nel documento di quasi 300 pagine. Spesso con riferimenti pertinenti ai possibili usi (dai processi di reclutamento e gli acquisti delle amministrazioni pubbliche al miglioramento della qualità della regolazione, dal contrasto all’evasione fiscale e allo scarico illegale di rifiuti all’osservazione del comportamento dei turisti). I quali tuttavia rappresentano solo una goccia rispetto alle tante applicazioni possibili in capitoli altrettanto importanti del Piano, dalla transizione digitale all’istruzione e ricerca, dalla mobilità alla sanità. Ma soprattutto sono del tutto privi di una cornice coerente e strutturata. Finiscono per essere poche particelle che vagano senza ordine in un atomo molto più grande e complesso, nel quale rischiano di perdersi.

Perfino la costituzione dell’Istituto italiano per l’intelligenza artificiale, un istituto di ricerca ad hoc sul modello dell’Alan Turing Institute britannico, prevista nelle diverse versioni della Strategia italiana IA che si sono succedute dal 2019 ad oggi e anche nei precedenti draft del PNRR, è stata infine depennata nel Piano finale. Eppure, il precedente Governo aveva già annunciato ufficialmente nel settembre dello scorso anno che l’Istituto avrebbe avuto sede a Torino, dimenticandosi tuttavia di riservargli risorse, quantomeno per l’avviamento, nella legge di bilancio 2021. Amnesia alla quale avrebbe potuto porre rimedio il PNRR.

In attesa dell’attuazione del Piano, dopo il confronto con la Commissione europea, la scarsità delle risorse e l’assenza di una strategia rischiano di far perdere all’Italia un treno importante verso il futuro, allontanando ulteriormente l’Unione europea dagli ambiziosi target più volte solennemente enunciati. Con buona pace del binomio regole-investimenti tanto caro (ma finora poco praticato) a Bruxelles e in giro per l’Europa.

WHITEPAPER
Contact Center 4.0: dati, KPI e analytics per migliorare le performance
Big Data
Cloud
@RIPRODUZIONE RISERVATA

Articolo 1 di 2