scenari

Intelligenza artificiale, usarla per il bene comune: quale strategia

L’Italia ha le carte in regole per una strategia di successo sull’intelligenza artificiale che punti al bene comune, all’inclusione sociale e allo sviluppo sostenibile L’esito finale dipenderà da molti fattori, non tutti riconducibili alla sfera politica e delle istituzioni. Vediamo quali sono

18 Mar 2020
Mohammed Elshendy

Senior CRM Data Scientist

Gianpiero Ruggiero

Esperto in valutazione e processi di innovazione del CNR


Superata la paura per gli effetti occupazionali generata nel mondo del lavoro dalle nuove tecnologie, sempre più l’intelligenza artificiale si sta imponendo come nuova soluzione per affrontare le sfide sociali e ambientali e migliorare significativamente la vita delle persone.

La recente chiamata per un’etica degli algoritmi e le mosse della Commissione europea impongono anche al nostro Paese di dotarsi di una strategia nazionale sull’IA che superi i pregiudizi di vario tipo e sappia individuare le giuste traiettorie, puntando sui punti di forza del nostro sistema produttivo e individuando le competenze giuste su cui scommettere.

Abbiamo le carte in regole per una strategia di successo che punti al bene comune, all’inclusione sociale e allo sviluppo sostenibile. Molto del successo dipenderà dalla vitalità del sistema imprenditoriale, dalla capacità di individuare soluzioni applicative di IA in ambito pubblico e dei relativi framework regolatori. Diversi attori, provenienti dal mondo produttivo, istituzionale, politico, scientifico e accademico, sono coinvolti, ognuno con il suo ruolo e con la sua parte di responsabilità.

I governi possono muoversi ora per creare prosperità condivisa e vite migliori per tutti i cittadini. È tempo di agire.

Dati, il rischio della frammentazione della governance

Tra le tante notizie di questi giorni, ce ne sono alcune, sull’uso dell’intelligenza artificiale (IA), unite da un filo conduttore cruciale per il futuro di tutti noi. Il tratto comune non si riferisce, per una volta, al potenziale economico del settore (che rimane alto), quanto piuttosto a come porre l’intelligenza artificiale al servizio della persona, puntando sul suo benessere, sulla qualità di vita, sulle competenze individuali e responsabilità collettive, insomma su una tecnologia al servizio della centralità dell’uomo. È vero che la questione soldi, il più delle volte, attira più attenzioni. La mancanza di risorse economiche per far partire i primi progetti sulla blockchain per la tracciabilità del Made in Italy, infatti, non è passata inosservata e ha suscitato tanto stupore, così come sta facendo parlare il ritardo nella presentazione della strategia nazionale sull’IA, sulla quale un gruppo di esperti al Mise sta lavorando da un po’ di tempo. L’attenzione di questi giorni piuttosto si è orientata sugli scenari che da Roma e da Bruxelles venivano proposti. A Roma ha fatto notizia la Call for AI Ethics che annovera tra i firmatari, oltre la Pontificia Accademia per la Vita, Microsoft, IBM, la FAO e il Governo italiano. È un documento che contiene principi rilevanti, riassunti in un abstract book nel quale sono raccolti i più importanti contributi di ricercatori, filosofi, medici e con il quale i firmatari e chiunque vorrà sottoscriverlo, si impegna a lavorare per quella che viene definita “algor-etica”, un’etica degli algoritmi fondata su alcuni principi irrinunciabili, sapientemente riassunti in questo articolo.

A Bruxelles la nuova Commissione europea, alla soglia dei primi cento giorni di mandato, ha pubblicato due comunicazioni relative alla strategia digitale: una sulla definizione del futuro digitale dell’Europa e una sulla strategia europea per i dati (la Commissione ha inoltre pubblicato un Libro bianco che propone la sua strategia sull’intelligenza artificiale).

In attesa che la Commissione europea, delegata a produrre proposte legislative al livello decisionale dei governi e a quello co-decisionale dell’Europarlamento, superi questo iniziale orientamento a dilazionare e a limitarsi a soli annunci, strategie, scenari futuristici, carte di vari colori, roadmap, ciò che rimane sul digitale, almeno per ora, è la riflessione su una possibile moratoria di cinque anni sulle tecnologie più pervasive[1]. La prudenza sarebbe dettata dal fatto che in molti hanno rilevato pregiudizi di vario tipo presenti negli algoritmi, in software adottati per le ammissioni universitarie, nella selezione delle risorse umane, nei rating per il credito bancario, nei sistemi di sostegno dell’infanzia, nei dispositivi di sicurezza sociale e altro ancora. Gli algoritmi, infatti, non sono neutri; incorporano valori e obbediscono a metodi operativi che, anche non intenzionalmente, possono apportare preclusioni, discriminazioni o danni economici[2]. Non è un caso che la trasparenza degli algoritmi di intelligenza artificiale è uno dei maggiori problemi tecnologici dei nostri giorni.

Un dibattito a livello comunitario appare perciò opportuno, ma occorre anche agire in fretta, in maniera coordinata, perché se da un lato la Commissione opta per un approccio graduale e morde il freno sull’uso dell’identificazione biometrica remota, scottata dalla notizia secondo la quale la società tecnologica americana Clearview AI avrebbe raccolto oltre tre miliardi di immagini facciali da siti di social media (YouTube, Facebook e Twitter) senza ottenere il permesso degli utenti, al tempo stesso le iniziative dei singoli Stati[3] si muovono più velocemente. Se fosse confermata la notizia che alcune nazioni vogliano costituire tra le forze di polizia una rete interconnessa di database per il riconoscimento facciale, si correrebbe il serio rischio, osservato giustamente con preoccupazione da Bruxelles, che in mancanza di una regolazione comune sull’IA, ogni Stato membro si muova per suo conto, alimentando frammentazione e creando nuove barriere.

Sulla volontà di avere una governance intersettoriale per l’accesso e l’uso dei dati, che vada ad alimentare una massiccia condivisione di dati, la strategia europea è molto chiara e su questo a Bruxelles ci punta molto.

I pilastri della strategia europea

Riconoscendo di aver già adottato una serie di misure per creare un solido quadro per la fiducia digitale[4], la Commissione è riuscita a identificare gli ostacoli che impediscono all’UE di realizzare il suo potenziale nell’economia dei dati: scarsa disponibilità di dati, potere di mercato fortemente squilibrato, assenza di protocolli comuni per l’interoperabilità dei dati, dipendenze tecnologiche dell’UE da determinate “infrastrutture strategiche”, barriere che impediscono alle persone di esercitare i propri diritti di riutilizzo dei dati ai sensi del GDPR, mancanza di competenze digitali, rischi di sicurezza informatica. Per affrontare queste sfide, con la Comunicazione

Una strategia europea per i dati è stata proposta una strategia a quattro pilastri:

Un quadro di governance intersettoriale per l’accesso e l’uso dei dati che coprirà, tra le altre misure, nuovi meccanismi e orientamenti dell’UE sulla condivisione dei dati. Le azioni che la Commissione propone di intraprendere comprendono:

  • Un quadro legislativo abilitante per la governance di spazi comuni europei di dati;
  • Un atto di esecuzione sui dati di alto valore, che renderà tali set di dati disponibili in tutta l’UE gratuitamente, in un formato leggibile meccanicamente e mediante interfacce per programmi applicativi (API) standardizzate.;
  • Un Data Act a supporto (in alcuni casi obbligatorio) della condivisione dei dati business-to-government o business-to-business;
  • Valutazione del quadro in materia di protezione dei diritti di proprietà intellettuale al fine di potenziare ulteriormente l’accesso ai dati e il loro utilizzo (compresa una possibile revisione della direttiva sulle banche dati e un eventuale chiarimento dell’applicazione della direttiva in materia di segreti commerciali quale quadro abilitante).

Investimenti in dati e rafforzamento delle capacità e delle infrastrutture dell’UE per l’hosting, l’elaborazione e l’utilizzo dei dati. Le azioni che la Commissione propone di intraprendere comprendono:

  • Un progetto ad alto impatto sui dati europei e infrastrutture cloud federate[5];
  • Lo sviluppo di standard e requisiti comuni per gli appalti pubblici di servizi di elaborazione dati;
  • Un mercato europeo dei servizi cloud;
  • Un codice dell’UE di (auto)regolamentazione del cloud.
WHITEPAPER
Data Strategy: quali sono le 3 fasi principali del processo di relazione con il cliente?
Big Data
Marketing

Maggiori investimenti nelle competenze digitali e nelle PMI. Le azioni che la Commissione propone di intraprendere comprendono:

  • Aggiornamento del piano d’azione per l’educazione digitale;
  • Una strategia europea per le PMI;
  • Rafforzare, per le persone, il diritto alla portabilità di cui all’art. 20 del GDPR.

Lo sviluppo di spazi comuni di dati in settori strategici e settori di interesse pubblico, includendo produzione, mobilità, sanità, servizi finanziari, energia e agricoltura.

Come utilizzare i dati per migliorare la qualità di vita di tutti

In attesa di capire con quali tempi e modalità la programmazione finanziaria dell’Unione Europea per il periodo 2021-2027 sprigioni tutto il suo potenziale, l’ambizione sarebbe quella di regolare un mercato molto complesso e di finanziare specifici progetti nel prossimo settennato, con focus particolare sull’attuazione del Programma Digital Europe, con un budget a disposizione dell’ordine di 9,2mld di euro, che dovrebbe consentire la trasformazione digitale europea. Come ha giustamente sottolineato Stefano da Empoli, Presidente dell’Istituto per la Competitività (I-Com), “la differenza tra le parole e i fatti sarà determinata soprattutto dagli investimenti che l’Europa e gli Stati Membri saranno disponibili ad effettuare”.

Investimenti che dovranno sicuramente tenere conto delle forti limitazioni a quegli algoritmi discriminatori o, come succede in ambito sanitario, a quelli che mettono in pericolo la sicurezza del paziente perché, in questi casi, prevarrebbe l’articolo 22 del GDPR[6].

Il principio di cautela e responsabilità dell’art. 22, come sottolineato, vale e prevale solo per i trattamenti dei dati personali. Nel caso in cui, diversamente, un sistema di apprendimento automatico venisse utilizzato per analizzare il contenuto della pubblicità online per identificare cluster di attività sospetta (odio on line, fake news, ecc.), oppure per aiutare nella scelta di dove aiutare i rifugiati a reinsediarsi attraverso un modello predittivo[7], allora in questo caso il GDPR non sarebbe applicabile. McKinsey ha lavorato a una ricerca per analizzare gli usi possibili dell’intelligenza artificiale per il terzo settore. Questa ricerca ha mostrato che l’IA potrebbe contribuire a tutti i 17 obiettivi di sviluppo sostenibile dell’Onu, in campi come la salute e la fame, l’educazione, la giustizia, l’uguaglianza e l’inclusione[8]. I gruppi di ricerca più avanzati stanno lavorando a progetti di ingegneria focalizzati sull’utilizzo dell’IA per l’impatto sociale e ambientale: previsioni più rapide e accurate delle alluvioni per migliorare i sistemi di allarme; prevedere il rischio per le persone di eventi cardiaci come gli attacchi di cuore utilizzando le immagini della retina; la mappatura dell’attività di pesca globale per proteggere gli habitat marini. Il principale ricercatore di intelligenza artificiale, Stuart Russell[9], ha spiegato bene il motivo per cui è necessario un nuovo approccio per l’IA e come questa aiuterà gli scienziati a scoprire farmaci migliori con il progresso della genetica e della biologia sintetica. Si parla, in questo caso, di “modellazione molecolare” che potrà essere applicata, oltre che alla farmaceutica, anche alle celle solari e alla produzione di fertilizzanti.

La sfida dell’IA per l’Italia

L’Osservatorio Artificial Intelligence del Politecnico di Milano, attraverso la propria indagine Artificial Intelligence: learn to fly!, ha fotografato la situazione del mercato italiano, mettendo ben in evidenza i segnali positivi: maggiore consapevolezza delle imprese in merito alla centralità dell’IA nell’economia contemporanea; grande interesse nell’applicazione dell’IA nei processi aziendali; passaggio in secondo piano del timore di una distruzione pura e semplice dell’occupazione, con ben il 79% delle aziende che vede l’intelligenza artificiale come un’opportunità.

Risultato immagini per dove va l'intelligenza artificiale fonte ARTIFICIAL INTELLIGENCE: LEARN TO FLY

Non mancano tuttavia i punti critici. L’IA è adottata in primis da banche e finanza (25% del mercato), nella manifattura (13%), nelle utility (13%) e assicurazioni (12%), mentre nei prodotti e servizi acquistabili dai consumatori finali la sua diffusione è ancora limitata. I margini per un’espansione in altri settori è enorme.

Risultato immagini per dove va l'intelligenza artificiale fonte ARTIFICIAL INTELLIGENCE: LEARN TO FLY

Il nodo più critico sembra però, ancora una volta, quello delle competenze che rappresentano da sempre un freno storico alla digitalizzazione delle imprese italiane. L’assenza di profili adeguati al proprio interno, infatti, è il primo ostacolo per l’89% delle organizzazioni, seguita dalla reperibilità di questi sul mercato del lavoro (76%) e dai problemi di compliance nella privacy (70%), resa più complessa dl GDPR. È partendo da queste analisi che l’Osservatorio del Politecnico ha messo a punto l’Ai Project Valuce Chain, un modello di analisi per aiutare le aziende a identificare le attività necessarie alla realizzazione di iniziative di IA e il proprio percorso evolutivo in termini di business case, strumenti da impiegare e scelte organizzative.

Formare un team di data science di successo

Tra le scelte organizzative rientra senz’altro quella di formare un team adeguato. Per formare un team di successo occorre innanzitutto avere consapevolezza di cos’è l’IA e la scienza dei dati. Si tratta di capire che abbiamo a che fare con l’applicazione di strumenti statistici avanzati ai dati esistenti per generare nuove intuizioni (avere nuove informazioni sui dati), per apportare modifiche, spesso piccole, ai processi aziendali. Così facendo si dovrebbe raggiungere un uso più efficiente ed efficace del personale e delle risorse. Connettere la macchina e raccogliere i dati non è l’arrivo, ma il punto di partenza per conoscere meglio i processi. Prima della tecnologia, ci deve essere la consapevolezza etica di investire nel proprio personale

Nella costruzione del team vanno considerate alcune skill, tenendo presente che i data scientist svolgono molti ruoli diversi nelle organizzazioni, con diversi livelli di business, competenze tecniche, interpersonali e di comunicazione. Se si vuole innovare il prodotto si deve partire prima dal processo, con esperti in grado di dare etichettatura ai dati e di estrarre valore dai dati.

COMPETENZE DATA SCIENTIST NECESSARIE E PRIVILEGIATE
AnalisiR/SASNecessaria
Linguaggi e CodificaR., Python, Javascript, SQL, C/C++Necessaria
Processo Big Data e Data EngineeringHadoop, Spark, Flink, ETL, Job notices, APIsPreferita
Metodi statisticiModelli di regressione, Modelli di Markov a stati nascosti, Algortimi di riduzione della dimensionalità, Sentiment e Network analysis, Pattern recognition, Classificazione e clusteringNecessaria
Frameworks e LibrerieTensorFlow, Theano, CNTK, Scikit-learn, GPText, Spark MLlib, etc.Preferita
Conoscenza del DominioComprendere gli obiettivi aziendali, i fondamenti del settore, i problemi aziendali, trovare nuovi modi per sfruttare i dati,Assolutamente necessaria
User Experience ResearchCapacità di analisi e ricerca finalizzato allo sviluppo di un’eccellente User Experience con metodologie quantitative (SEO, test e sondaggi), Diary study, ricerca attitudinale, ricerca comportamentale (A/B test, eye-tracking, analisi del flusso dei clic e rilevazioni sull’usabilità)Assolutamente necessaria
AltroCuriosità intellettuali, capacità comunicative e di presentazionePreferita

Fonte: nostre elaborazioni su dati MìPU

Nel formare il team, occorre anche considerare che oggi assistiamo a un cambio di paradigma nella trasmissione del sapere, con un mutato rapporto tra senior e junior manager. I millennials rappresentano la frontiera degli abilitatori tecno-social, dal basso verso l’alto, in quanto sono in grado di attivare sulle nuove tecnologie anche quei senior manager, competenti ma ancora tradizionali, che sentono la “fatica digitale” e che rischiano di rallentare il processo di innovazione. Da questo punto di vista, possono diventare abilitatori di quelle competenze ideali per ottimizzare i processi e rendere effettivi determinati comportamenti organizzativi, più funzionali all’innovazione sociale. Occorre perciò attrarli, ingaggiarli e valorizzarli.

Muove da questi assunti uno studio del Mit di Boston, frutto di una lunga ricerca che ha coinvolto l’accademia e l’imprenditoria americana. Le raccomandazioni principali sono tre e ruotano attorno alla centralità del lavoro nei nuovi contesti tecnologici dell’intelligenza artificiale e della robotica avanzata.

La prima è quella di accrescere il ruolo dei lavoratori nelle decisioni d’impresa, guardando alle esperienze cogestionali del Nord Europa.

La seconda, politicamente più rilevante, è spostare gli incentivi da chi investe in tecnologia a chi destina risorse al capitale umano, cioè alla formazione.

La terza suggerisce d’indirizzare l’innovazione verso il rafforzamento professionale e culturale dei lavoratori. In breve, si consiglia di usare le tecnologie per affiancare le persone e non per prendere il loro posto. La posizione del Mit dimostra che per aumentare la produttività dei sistemi economici, senza dimenticare l’inclusione sociale, bisogna partire dall’investimento sui protagonisti, cioè puntare sul rilancio del lavoro. Che poi è quello che già stanno facendo in Italia le imprese più competitive, purtroppo supportate a singhiozzo da contraddittorie politiche industriali.

Le determinanti per il successo in Italia di una strategia sui dati

Il successo in Italia di una futura strategia sull’IA dipenderà da molti fattori, non tutti riconducibili alla sfera politica e delle istituzioni. In un recente articolo[10], sono state poste in luce le condizioni favorevoli che il governo e il sistema produttivo devono essere in grado di cogliere con prontezza e con misure adeguate: un’elevata elasticità delle nostre imprese, che si traduce in una maggiore flessibilità organizzativa[11], in particolare nella sua parte più orientata ai mercati esteri; una vocazione naturale delle nostre imprese a ricercare soluzioni tagliate su misura per il cliente (industriale o finale), che potrebbe essere coadiuvata e perfezionata dall’IA; l’abitudine di molte aziende italiane a operare da decenni nei sistemi distrettuali, cioè su un terreno simile a quello dell’ecosistema di IA, basato su un mix di competizione e cooperazione tra le imprese che lo compongono; un periodo storico come quello attuale in cui la disponibilità di tecnologie di frontiera, altamente sofisticate, hanno costi relativamente bassi, quindi alla portata di molte Pmi. L’analisi si conclude con una certezza, ossia “che la sfida non solo a livello di competitività dei sistemi Paese ma anche di sostenibilità dei modelli sociali si giocherà sia sulla capacità di produrre un’IA quanto più possibile innovativa che su quella di applicarla nei diversi ambiti”.

Molto del successo della strategia nazionale dipenderà perciò dalla vitalità del sistema imprenditoriale, dalla capacità di individuare soluzioni applicative di IA in ambito pubblico e dei relativi framework regolatori. Rendere dunque l’IA parte di un piano governativo incentrato sui cittadini[12] e scaglionato in obiettivi è certamente una delle strategie più importanti che un governo dovrebbe seguire nell’ambito della sua implementazione.

Conclusioni

Policy europee che aumentino la responsabilità delle piattaforme sui comportamenti illegali degli utenti, che richiedano interoperabilità dei profili personali nelle piattaforme, che favoriscano la riappropriazione da parte delle persone dei loro dati, che stabiliscano criteri etici per la progettazione dell’intelligenza artificiale, devono diventare parte integrante di una politica industriale a sua volta dotata di mezzi finanziari sufficienti.

Diversi portatori di interessi, provenienti dal mondo produttivo, istituzionale, politico, scientifico e accademico, sono coinvolti, ognuno nel suo specifico ruolo e con la sua parte di responsabilità. In questo percorso di progressiva adozione di soluzioni di IA in ambito pubblico e sociale, sarebbe interessante se accademici e studiosi riuscissero a produrre un indicatore di maturità organizzativa e di innovazione sociale delle aziende, con focalizzazioni tematiche (smart cities, scuola, sanità, beni culturali, sicurezza, ecc.). Una sorta di censimento generale delle iniziative di API e interoperabilità applicativa, che veda il coinvolgimento anche del sistema delle startup che lavorano con la PA, per individuare e promuovere quei progetti che valorizzino gli asset pubblici.

Quello che andrebbe migliorato in questo scenario è la partecipazione di un insieme di imprese in grado di saper cogliere queste opportunità per costruire strategie ambiziose, innovative, d’insieme, chiare e precise.

_____________________________________________________________________

  1. Il Libro bianco sull’IA si è limitato a mettere in evidenza l’elenco delle tecnologie “ad alto rischio” che potrebbero essere in serbo per future supervisioni. Le tecnologie prese in esame, infatti, sono state divise in due categorie: quelle in “settori critici” e quelle considerati di “utilizzo critico”. Nei settori critici rientrano l’assistenza sanitaria, i trasporti, la polizia, il reclutamento e il sistema legale; mentre le tecnologie di uso critico includono quelle con rischio di morte, danni o lesioni, con conseguenze legali.
  2. Per esempio, i media hanno sottolineato il netto pregiudizio razziale riscontrato nell’uso giudiziario di algoritmi di condanna da parte di molti tribunali statunitensi. Cfr R. Wexler, «When a Computer Program Keeps You in Jail», 13 giugno 2017.
  3. La Germania ha mostrato l’intenzione di implementare il riconoscimento facciale automatico in 134 stazioni ferroviarie e 14 aeroporti. La Francia avrebbe in programma di stabilire un quadro giuridico che consenta di integrare i sistemi di videosorveglianza con le tecnologie di riconoscimento facciale.
  4. Il regolamento sui dati personali (GDPR), la legge sulla cibersicurezza, la direttiva sui dati aperti, la direttiva sul contenuto digitale e una serie di strumenti legislativi settoriali che includono disposizioni sull’accesso ai dati.
  5. La Commissione prevede che il progetto sarà cofinanziato dagli Stati membri, dall’industria e dalla Commissione, e che potrà contare su un finanziamento totale dell’ordine dei 4-6 miliardi di euro, 2 dei quali potrebbero provenire dalla Commissione a titolo di diversi programmi di spesa, previo accordo sul prossimo quadro finanziario pluriennale.
  6. L’articolo 22 recita che una persona fisica, quando si trattano i suoi dati personali, come ad esempio una radiografia “ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.
  7. Il reinsediamento e l’integrazione dei rifugiati e dei migranti è in questo momento una sfida difficile in molte parti del mondo. La scelta di dove aiutare i rifugiati a reinsediarsi può influenzare il loro successo nell’adattarsi a un nuovo posto. International Rescue Committee (https://www.rescue.org/) sta lavorando con l’Università di Stanford per testare un modello predittivo per il successo di un individuo in una data città basato su fattori come la demografia, le condizioni del mercato locale, le preferenze individuali e i risultati.
  8. Google.org ha lanciato un invito (https://ai.google/social-good/impact-challenge) aperto alle organizzazioni di tutto il mondo per presentare le proprie idee su come utilizzare l’intelligenza artificiale per aiutare ad affrontare le sfide della società.
  9. Importante ricercatore di intelligenza artificiale dell’Università della California, Berkeley, autore del libro Human Compatible (Penguin Random House, ottobre 2019).
  10. Cfr. Da Empoli S., “Europa, mercato unico ma dati frammentati”, Corriere Innovazione del 28.02.2020.
  11. Una caratteristica essenziale secondo molti studiosi per internalizzare in maniera ottimale una tecnologia multi scopo come l’IA, dunque trasversale alle varie funzioni.
  12. La cosiddetta digital risk literacy (alfabetizzazione del rischio digitale), che dà gli strumenti e le competenze per controllare la tecnologia e non esserne manipolati di rimando, è una materia che, a braccetto con l’educazione civica, dovrebbe essere insegnata a scuola e praticata anche a casa.
FORUM PA 6 - 11 LUGLIO
Fare rete: la trasformazione digitale per coesione, partecipazione e sviluppo della comunità
Digital Transformation
PA

@RIPRODUZIONE RISERVATA

Articolo 1 di 4