Intelligenza artificiale: opportunità del mercato e sfide etiche per un utilizzo consapevole - Agenda Digitale

osservatorio polimi

Intelligenza artificiale: opportunità del mercato e sfide etiche per un utilizzo consapevole

L’innovazione nell’ambito dell’intelligenza prosegue incessante così come l’interesse delle istituzioni nei confronti delle implicazioni etiche della tecnologia. Per scongiurare possibili conseguenze di un utilizzo inconsapevole, l’Osservatorio AI del Polimi ha elaborato un framework interpretativo per le imprese. Il punto

22 Mar 2021
Alessandro Piva

Direttore Osservatorio Artificial Intelligence, Politecnico di Milano

Le istituzioni internazionali stanno dedicando molta attenzione al tema dell’intelligenza artificiale, un settore in cui l’innovazione non si è fermata, nonostante la crisi sanitaria globale.

Le motivazioni di questa focalizzazione non si limitano soltanto alle vaste potenzialità di impiego, ma anche alle forti implicazioni etiche, che possono impattare le imprese, i cittadini e la società nel suo complesso.

Le imprese e l’intelligenza artificiale

Nel corso del 2020 le imprese hanno proseguito il proprio percorso di avvicinamento all’AI, il 53% delle organizzazioni medio-grandi ha già all’attivo almeno un’iniziativa in questo ambito e il 73% di queste ha avviato almeno un nuovo progetto negli ultimi 12 mesi. Anche le istituzioni hanno mostrato forte interesse: vi sono stati infatti segnali che ne danno prova, a partire dalla pubblicazione della Strategia Italiana per l’intelligenza artificiale fino ai fondi europei dedicati al digitale e alle linee guida sull’uso etico dell’AI.

INFOGRAFICA
Orientati tra le opportunità del Piano Nazionale Transizione 4.0
Big Data
IoT

Dal percorso delle aziende più mature emerge che far propria l’artificial intelligence significa in prima battuta sviluppare nuove competenze, mettere in campo nuove tecnologie e padroneggiare le tecniche per implementare i progetti: fattori fondamentali per porre le basi del cambiamento culturale e del modo di pensare la relazione con i propri clienti.

AI e dati, è caos etico: serve una metodologia standard

Lo scenario europeo

Al contempo è aumentato l’interesse delle Istituzioni, coerentemente con quanto avviene nel resto d’Europa. Lo scorso luglio il ministero per lo Sviluppo Economico (MiSE) ha pubblicato il documento definitivo con le proposte per la “Strategia italiana per l’intelligenza artificiale[1]” che sarà alla base della definizione del programma italiano nell’ambito del Piano Coordinato europeo. Iniziano anche a porsi le basi per la nascita dell’Istituto Italiano per l’intelligenza artificiale (I3A): un vero e proprio hub nazionale con lo scopo di coordinare le diverse attività di ricerca e contribuire allo sviluppo dell’intelligenza artificiale, in connessione con i principali trend tecnologici (tra cui 5G, Industria 4.0 e cybersecurity).

Anche a livello europeo sono proseguiti gli sforzi per la definizione di linee guida che regolamentino lo sviluppo di algoritmi di AI: dopo la pubblicazione di un white paper[2] che ha posto le basi per la tutela dei diritti dei consumatori e la promozione dell’innovazione nel campo dell’AI, lo scorso ottobre il Parlamento Europeo ha adottato tre risoluzioni che riguardano rispettivamente gli aspetti etici dell’intelligenza artificiale, della robotica e di tecnologie correlate, il tema della responsabilità civile e quello dei diritti di proprietà intellettuale correlati alle tecnologie AI. Sebbene non siano atti vincolanti, costituiscono una presa di posizione del Parlamento europeo e una richiesta alla Commissione di elaborare normative specifiche dirette a disciplinare l’AI. L’artificial intelligence è, infine, citata anche nel piano europeo per la ripresa come una delle tecnologie chiave per il rilancio dell’economia e la trasformazione digitale.

In chiave prospettica possiamo quindi guardare al 2021 con ottimismo, supportati anche dalla resilienza mostrata dall’AI nell’anno appena trascorso.

Il mercato dell’artificial intelligence in Italia

Secondo la stima effettuata dall’Osservatorio Artificial Intelligence, nel 2020 il mercato dell’artificial intelligence (AI)[3] in Italia ha raggiunto i 300 milioni di euro (+15% rispetto al 2019): il 77% commissionato da imprese italiane (230 milioni di euro) e il 23% come export di progetti (70 milioni di euro), ripartizione in linea con quanto registrato nel corso del 2019.

I già citati 300 milioni di euro si possono suddividere nelle seguenti classi di soluzioni: Intelligence Data Processing (33% della spesa), Natural Language Processing (18%), Recommendation System (18%), con il resto del mercato distribuito tra Intelligent RPA, Chatbot/Virtual Assistant e Computer Vision. In un contesto di crescita di mercato generalizzata di tutte le categorie, spiccano in particolare i Chatbot/Virtual Assistant, con una variazione del +28% rispetto all’anno precedente, e alcune tipologie progettuali, quali Forecasting (es. stima della domanda), Anomaly Detection (es. individuazione di frodi online) e Object Detection (es. riconoscimento dei DPI[4] nelle immagini).

Negli ultimi 12 mesi, le aziende utenti medio-grandi hanno proseguito il percorso di adozione dell’artificial intelligence, nonostante i problemi di budget dovuti alla pandemia, che hanno rappresentato nel 2020 la principale barriera all’adozione (indicata come tale dal 35% dei rispondenti alla survey condotta dall’Osservatorio). Il percorso di sviluppo emerge non tanto dal dato di diffusione, che si conferma costante e pari al 53%, ma dalla crescita della maturità; il 40% delle imprese afferma di avere almeno un progetto di AI pienamente esecutivo, un dato in crescita di 20 punti percentuali (p.p.) rispetto al 2019. Infine, fa anche ben sperare il fatto che il 25% (+20 p.p. rispetto al 2019) ha dichiarato di voler avviare progetti di AI in futuro.

Lo scenario applicativo

Una caratteristica chiave delle classi di soluzioni di AI identificate dall’Osservatorio Artificial Intelligence è la loro ampia applicabilità. È possibile approfondire lo scenario applicativo presente e prospettico attraverso un framework basato su due dimensioni: la diffusione attuale, che considera i progetti avviati, e l’introduzione prevista che considera le iniziative su cui le imprese hanno stanziato del budget, ma per cui devono ancora iniziare lo sviluppo (cfr. Figura 1).

Fig 1. La diffusione delle classi di soluzioni / Fonte Osservatori Digital Innovation – Politecnico di Milano (www.osservatori.net)

Occorre precisare che tale vista è una fotografia di sintesi dell’intero scenario applicativo, dietro a cui sono celati differenti livelli di interesse per ciascuna classe di soluzioni a seconda del business delle imprese. Nel complesso, il quadro che emerge vede gli Intelligent Object, gli Autonomous Robot e gli Autonomous Vehicle come soluzioni ancora poco presenti nelle organizzazioni italiane. Da un lato questo risultato è imputabile alla maggiore complessità dal punto di vista delle capability di AI di cui le soluzioni devono essere dotate, dall’altro sono minori in numero i settori in cui queste ultime possono essere funzionali al business delle imprese.

Una maggiore diffusione caratterizza invece le soluzioni software in cui rientrano gli Intelligent Data Processing, i Chatbot/Virtual Assistant, la Computer Vision, il Natural Language Processing (NLP), i Recommendation System e la Robotic Process Automation intelligente (iRPA). Tali classi sono anche quelle caratterizzate da un maggiore tasso di introduzione prevista; è pertanto lecito attendersi buoni risultati già a partire dal 2021. Fa eccezione l’iRPA, ovvero i progetti che prevedono l’utilizzo di automazione basata su tecniche di intelligenza artificiale, per cui si registra un tasso di introduzione prevista inferiore.

Le problematiche etiche dell’AI: una sfida oltre la tecnologia

L’Osservatorio si è quindi occupato di esaminare e censire le principali problematiche etiche relative all’AI. Da questa prima analisi è stato definito un framework interpretativo che possa aiutare le imprese che si affacciano a questa disciplina a comprendere le possibili conseguenze di un utilizzo inconsapevole dell’artificial intelligence. Il framework distingue le problematiche Design-related da quelle Application-related.

In particolare, l’ambito Design-related del framework inquadra le problematiche etiche che possono emergere in fase di progettazione e sviluppo della soluzione di AI qualora questi processi non siano adeguatamente presidiati. In questa dimensione sono inclusi quattro temi principali (successivamente declinati in sottocategorie): Bias, Black tech, Fairness, Privacy e Transparency.

Parallelamente, l’ambito Application-related inquadra le problematiche etiche che possono invece emergere dall’implementazione o dall’utilizzo di sistemi di AI, anche se progettati in maniera aderente ai principi etici. Tali problematiche sono: Equality, Freedom, Job, Psychology, Sustainability e Trust.

Il modello considera infine la dimensione degli impatti sul sistema legislativo, trasversale rispetto alle dimensioni Design-related e Application-related: il focus è la riconfigurazione delle responsabilità che derivano dall’introduzione di soluzioni di Artificial Intelligence.

Ai fini della validazione del framework, sono stati censiti 94 casi reali di problematiche etiche emerse con l’utilizzo di tecnologie di AI. Da questa analisi risulta che le problematiche etiche ad oggi maggiormente riscontrate sono legate a temi di bias, freedom, trust e privacy. A eccezione di quest’ultimo tema, recentemente normato nell’Unione Europea attraverso il GDPR, il censimento ha permesso di identificare quelle aree che più urgentemente necessitano di linee guida comuni che possano diventare per le imprese uno strumento concreto per supportare l’utilizzo consapevole di questa tecnologia.

Conclusioni

Oltre ai fenomeni in atto, è importante rivolgere lo sguardo anche al futuro, monitorando quelle problematiche che non si sono ancora manifestate, ma per cui l’evoluzione delle tecnologie di Artificial Intelligence lascia intendere i potenziali sviluppi. Si pensi, ad esempio, alle implicazioni etiche legate all’utilizzo di armi autonome letali, all’impatto sull’ambiente dovuto alle crescenti potenze di calcolo necessarie al funzionamento degli algoritmi di AI o alle ripercussioni che un’interazione continuativa tra umani e sistemi di intelligenza artificiale con una crescente componente empatica potrebbe avere a lungo termine sul benessere psicologico degli individui. Anche in questo caso, prevenire sarà meglio che curare.

__________________________________________________________________________________

L’edizione 2020/21 dell’Osservatorio Artificial Intelligence è realizzata con il supporto di Alan Advantage, Altitudo, Assolombarda, Doxa, Reply Data, E4, ENI, EY, Gruppo CAP, Injenia, Itelyum, Mediobanca, Aniuma, Noovle, Nvidia, Orobix, RAI Pubblicità, Seco, Sogei, Technogym, Unipol Sai, Vargroup; Acea, AgileLab, Blue BI, Credemtel, Fastweb, Generali, Labinf, Gruppo Mediaset, Smart Paper, TK; e con il patrocinio di AIIA e Assintel.

Per maggiori informazioni: https://www.osservatori.net/it/ricerche/osservatori-attivi/artificial-intelligence

  1. https://www.mise.gov.it/images/stories/documenti/Proposte_per_una_Strategia_italiana_AI.pdf
  2. LIBRO BIANCO sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, Febbraio 2020
  3. Fatturato a cliente finale (esclusa IVA) registrato da imprese con sede in Italia, durante l’anno solare 2020.
  4. DPI: Dispositivi di Protezione Individuale
WHITEPAPER
Produzione 4.0? Fai un balzo in avanti con una piattaforma IoT, scopri come!
IoT
Manifatturiero/Produzione
@RIPRODUZIONE RISERVATA

Articolo 1 di 4