Intelligenza artificiale ad alto rischio: i requisiti chiave a tutela delle persone - Agenda Digitale

Il nuovo regolamento

Intelligenza artificiale ad alto rischio: i requisiti chiave a tutela delle persone

I dati che alimentano i sistemi di intelligenza artificiale nella maggior parte dei casi sono generati dalle persone, per questo la Ue le mette al centro nel suo nuovo Regolamento. Un unicum che nel lungo periodo renderà sostenibile ed equo lo sviluppo di sistemi di AI ad alto rischio

10 Set 2021
Vincenzo Manzoni

Data Science Director Tenaris Dalmine

La nuova proposta di regolamento dei sistemi di intelligenza artificiale dell’Unione Europea riconosce l’importanza del ruolo delle persone nella generazione della materia prima per i sistemi di intelligenza artificiale e le rimette al centro. Nel documento sono stati definiti 6 requisiti chiave (o, key requirements) che, secondo la proposta, i sistemi di intelligenza artificiale ad alto rischio dovranno rispettare.

Ci soffermeremo di seguito su tre di questi sei requisiti, ma prima proviamo a comprendere cosa ha determinato questa nuova primavera dell’intelligenza artificiale.

Responsabilità civile dell’intelligenza artificiale: i paletti del nuovo Regolamento Ue

Le tre innovazioni alla base del boom dell’AI

Secondo l’Oxford Reference, un sistema di definisce dotato di intelligenza artificiale se è in grado di eseguire compiti che richiedono un’intelligenza umana, come ad esempio il riconoscimento di immagini, il riconoscimento del parlato, la traduzione di un testo in altre lingue e l’implementazione di processi decisionali in ambienti complessi.

WHITEPAPER
I 5 errori che caratterizzano la gestione delle Risorse Umane nel Manufacturing
Risorse Umane/Organizzazione
Smart working

Negli ultimi dieci anni, il settore della ricerca ha iniziato ad usare modelli matematici addestrati con tecniche di apprendimento automatico (o, machine learning) per costruire questi sistemi ed è stato proprio grazie a tre innovazioni in questo settore che le performance sono migliorate tanto da poter essere usati in contesti reali.

Il primo fattore è stata la riscoperta di modelli matematici come le reti neurali profonde (o, deep learning) e di algoritmi per il loro addestramento accantonati per molti anni per mancanza di potenza di calcolo. La potenza di calcolo è il secondo fattore, resa disponibile soprattutto dalla scoperta che le GPU (o Graphic Processing Unit) – ovvero le schede elettroniche inizialmente sviluppate per computer dedicati a videogiochi e console – potevano essere sfruttate per fare in parallelo calcoli complessi, aumentando la velocità di calcolo di decine di volte a un costo contenuto. Il terzo fattore è la disponibilità di grandi quantità di dati, resa possibile dalla digitalizzazione di praticamente ogni processo umano, dalla riduzione del costo di immagazzinamento e di processamento del dato.

Dei tre, secondo la mia esperienza, il fattore determinante principale è stato l’ultimo. Infatti, la qualità – prima – e la quantità – poi – determinano le performance del sistema di intelligenza artificiale, il quale non può essere migliore dei dati su che sono stati usati per il suo addestramento.

Chi genera i dati usati dall’AI?

Ma chi genera i dati che alimentano i sistemi di intelligenza artificiale? Nella maggior parte dei casi i dati sono generati dalle persone, tanto che stiamo assistendo a una trasformazione delle interfacce delle applicazioni sui nostri smartphone per permettere alle aziende che le sviluppano di raccogliere dati di qualità sui nostri comportamenti e sui nostri interessi. Un esempio è TikTok: l’applicazione del social network cinese, infatti, a differenza di altri social network, mostra a schermo un solo video alla volta. Questo rende molto semplice l’interpretazione delle azioni degli utenti: il tempo che un utente passa osservando il video è una metrica genuina dell’interesse dell’utente per quello specifico video. Ben diverso, per esempio, dal feed di Instagram o di Facebook, in cui è più difficile capire quale post l’utente stia leggendo tra i due/tre sullo schermo o se stia leggendo i commenti.

I tre requisiti chiave dell’AI ad alto rischio

Il primo requisito di interesse afferma che i sistemi di intelligenza artificiale devono essere sicuri per le persone. La tecnologia ci può aiutare a implementare questo requisito principalmente in due modi. Il primo modo è attraverso quella che viene chiamata Explainable AI, cioè la capacità di spiegare come questi modelli prendono le decisioni. Ci fideremo di una diagnosi medica che sappiamo essere giusta nel 99.9%, ma che non è in grado di spiegarci come ha fatto a prendere la decisione? Questo è un tema molto attivo in ambito di ricerca, perché sistemi performanti richiedono modelli complessi e modelli complessi sono più difficili da interpretare. Il secondo modo è attraverso l’implementazione di sistemi robusti. Nella maggior parte dei casi i modelli che costituiscono i sistemi di intelligenza artificiale imparano sui dati che hanno visto nella prima fase della loro vita, ovvero nella fase di addestramento. Cosa succede se questi dati, una volta che il sistema viene usato in produzione, cambiano? Questa è una situazione molto comune nella vita reale, soprattutto negli ambienti produttivi. È quindi importante che il sistema di intelligenza artificiale implementi soluzioni che lo rendano robusto di fronte a scenari nuovi.

Il secondo requisito di interesse afferma che i sistemi di intelligenza artificiale devono essere monitorati e verificati. Questo requisito è molto legato a quello precedente. Infatti, attraverso la tecnologia dovremmo essere in grado di misurare le performance del nostro sistema di intelligenza artificiale per accorgerci anzitempo se le performance si stanno deteriorando. Questa capacità è molto importante per garantire la robustezza dei sistemi di intelligenza artificiale.

Il terzo requisito è relativo al fatto che i sistemi di intelligenza artificiale devono essere accessibili a tutti. Cosa significa? In prima istanza, significa che le persone devono sapere come interagire con i sistemi di intelligenza artificiale e per farlo devono innanzitutto capire di essere di fronte a un sistema di intelligenza artificiale e non di fronte a una persona. Una parte di questa responsabilità sarà dei sistemi, che dovranno dichiarare di essere un agente artificiale e non umano. Dall’altra parte, è importante educare le persone e dare loro gli strumenti per capire quando si trovano di fronte a sistemi di intelligenza artificiale.

Perché la proposta europea è un unicum

Accessibilità vuol dire però anche capacità di sviluppare sistemi intelligenti. Attualmente, i tre principali poli tecnologici del pianeta – Stati Uniti, Cina e Europa – stanno investendo risorse significative nel settore dell’intelligenza artificiale. In questo contesto, è di fondamentale importanza continuare a supportare la formazione dei tecnici europei attraverso finanziamenti a università, centri di ricerca e aziende europee perché sviluppino professionalità in grado di avere un ruolo determinante nello sviluppo di questi strumenti.

Qualora questa proposta – che attualmente rappresenta un unicum nel mondo – venisse approvata, probabilmente in un primo momento rallenterà l’innovazione in Europa in questo campo. Tuttavia, nel lungo periodo renderà sostenibile ed equo lo sviluppo di sistemi di intelligenza artificiale ad alto rischio.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4