Intelligenza artificiale, le regole per uno sviluppo a vantaggio di tutti - Agenda Digitale

Fondazione COTEC

Intelligenza artificiale, le regole per uno sviluppo a vantaggio di tutti

La regolamentazione dell’Intelligenza artificiale è utile e anzi necessaria al suo sviluppo, ma si deve lavorare in maniera corale per definire un quadro di buone regole. E soprattutto serve una maggiore informazione ed educazione dei cittadini

10 Mar 2021
Paolo Di Bartolomei

ex Direttore Generale Fondazione COTEC

Se vogliamo che l’intelligenza artificiale si affermi, distribuendo nella società tutti i suoi potenziali benefici, non è più rinviabile una decisa azione in grado di consentire a tutti i cittadini di aprire la “scatola nera”, cioè di avere le conoscenze necessarie per guardarci dentro e comprendere cosa contiene.

Ma come districarsi tra le possibili alternative regolatorie e quali potrebbero essere le “buone regole” da applicare all’IA? E soprattutto, come garantire la prevalenza dell’uomo sulla macchina?

I cardini del quadro normativo Ue

Alcune settimane fa la Presidente della Commissione europea, Ursula von der Leyen, ha annunciato che è attesa per il mese di aprile la presentazione di un nuovo quadro giuridico complessivo che fornisca regole comuni per l’Intelligenza artificiale. “Viviamo nella Digital Age, un tempo nel quale l’innovazione tecnologica, basata su un uso onnivoro di dati, può essere fonte di benefici enormi per l’umanità ma anche mettere a rischio l’essenza stessa di ciò che rende gli uomini liberi e responsabili”, ha affermato la Presidente, aggiungendo che “stabiliremo alcuni requisiti per le applicazioni ad alto rischio dell’IA, dall’assicurarsi che utilizzino dati di alta qualità, al garantire la supervisione umana”.

WEBINAR
15 Dicembre 2021 - 14:30
Spesa IT: come valutare i costi tecnologici, calcolare i rischi e ottimizzare gli investimenti?
Amministrazione/Finanza/Controllo
Finanza/Assicurazioni

A quanto sembra, dunque, i cardini su cui si poggerà il quadro normativo europeo sull’Intelligenza artificiale saranno quelli di una regolamentazione light, riferita soprattutto alle “applicazioni ad alto rischio”, basata sui principi dell’antropocentrismo, dell’affidabilità e della sostenibilità, adottati come solido ancoraggio dai lavori e dalle riflessioni condotte in tutti i fori internazionali, da quelli in sede UE e OCSE alla Global Partnership on AI lanciata in ambito G20, e ripresi in ambito nazionale da tutti i documenti governativi sul tema ed in particolare dalla Strategia Nazionale per l’Intelligenza artificiale predisposto nel settembre dello scorso anno dal Ministero per lo Sviluppo Economico.

Opportunità e sfide dell’IA

Ma questi principi sono effettivamente applicabili ad un settore in veloce e caotica evoluzione come quello dell’IA? In quali ambiti possono trovare applicazione concreta e che tipo di regolamentazione è opportuno adottare per evitare di soffocare la crescita di una tecnologia talmente importante per le economie di tutti i paesi? E soprattutto, sono sufficienti questi principi a garantire la tutela di quei diritti fondamentali dei cittadini che si intrecciano con lo sviluppo tecnologico, come quello della dignità della persona, quello della non discriminazione, o quello della riservatezza dei dati personali?

Attorno a queste domande si è sviluppato il dibattito svoltosi nel corso del workshop online organizzato dalla Fondazione COTEC sul rapporto tra IA, privacy, diritto d’autore e dati personali, che si è tenuto la scorsa settimana nell’ambito del ciclo di incontri “Intelligenza artificiale: opportunità e sfide per imparare a utilizzarla”, che si propone di approfondire, affrontando alcune delle tematiche più controverse e discusse riguardanti la diffusione dell’Intelligenza artificiale, le potenzialità e i vantaggi di questa tecnologia, sottolineando l’importanza dello sviluppo di un ecosistema tecnologico e umano nel quale essa possa essere implementata in modo equilibrato e sostenibile.

Intelligenza artificiale, le possibili modalità regolatorie

Il primo problema che è inevitabile affrontare è quello concernente l’alternativa tra le possibili modalità regolatorie, cioè se affidarsi a forme di self-regulation di stampo anglosassone, in cui il “common good” si presume coincida con gli interessi dei soggetti operanti nel settore, oppure se sia più utile un approccio che potremmo definire più di tipo “continentale” che fa ricorso a forme di regolamentazione eteronoma, graduate attraverso la combinazione con spazi autoregolati.

Ciò che è emerso chiaramente su questo punto è che non solo prevedere forme di regolamentazione, flessibili e in grado di resistere al tempo senza essere rapidamente travolte dagli sviluppi tecnologici e sociali, è più in linea con l’impostazione del sistema giuridico, istituzionale e filosofico europeo, ma, come più volte sottolineato dai relatori nel corso del dibattito, la regolamentazione dell’Intelligenza artificiale è utile ed anzi necessaria al suo sviluppo. Senza regolazione qualsiasi tecnologia non può aspirare a diventare un servizio universale, ma rimane un’applicazione di nicchia, determinando una realtà frammentata, composta da una molteplicità di singoli soggetti e servizi tesi a soddisfare esigenze e interessi particolari, non sempre meritevoli di essere perseguiti e tutelati e soprattutto spesso visti con sospetto e sfiducia. E finché c’è sfiducia o timore una tecnologia non può decollare, per cui è proprio nell’interesse dei soggetti che forniscono servizi di intelligenza artificiale spingere perché siano emanate regole chiare ed efficaci.

Il primo punto fermo da tener presente è dunque che è sbagliato auspicare un settore deregolamentato, ma si deve invece lavorare tutti insieme per definire un quadro di buone regole.

Naturalmente, il problema che si pone di conseguenza è: quali sarebbero queste “buone regole” da applicare all’IA? La risposta è estremamente complessa perché le regole oggi esistenti, come in particolare il GDPR, pur essendo valide, mostrano una certa difficoltà ad essere applicate al mondo dell’Intelligenza artificiale, evidenziando una serie di contraddizioni di non facile soluzione, in particolare quando applicate alle forme più avanzate di questa tecnologia.

I livelli funzionali dell’intelligenza artificiale

Quando si parla di Intelligenza artificiale, infatti, si intende comunemente l’applicazione di algoritmi che consentano alle macchine di utilizzare dati per metterli in correlazione ed elaborarli determinando attività intelligente. Tuttavia, dal punto di vista delle abilità intellettuali, è necessario precisare che il funzionamento della cosiddetta IA può essere classificato almeno in quattro differenti livelli funzionali:

  • comprensione: attraverso la simulazione di capacità cognitive di correlazione dati ed eventi l’IA è in grado di riconoscere testi, immagini, tabelle, video, voce ed estrapolarne informazioni;
  • ragionamento: i sistemi riescono a collegare logicamente le molteplici informazioni raccolte utilizzando in modo automatizzato algoritmi matematici;
  • apprendimento: si tratta dei sistemi di Machine Learning che con tecniche di apprendimento automatico portano le applicazioni di IA ad imparare e a svolgere varie funzioni;
  • interazione uomo- macchina (Human Machine Interaction): è il campo della robotica, che utilizza modalità di funzionamento dell’IA in grado di relazionarsi ed interagire con l’uomo, anche attraverso sistemi di NLPNatural Language Processing, tecnologie che consentono l’interazione tra uomo e macchine sfruttando il linguaggio umano.

Evidentemente mentre nei primi due casi le macchine hanno “solo” elevate capacità di correlare enormi quantità di dati, nei livelli funzionali più avanzati l’intelligenza artificiale riesce a dare senso, in modo automatico, ai dati utilizzati e questa capacità, che caratterizza il vero cambio di paradigma rappresentato dall’IA rispetto alle tecnologie precedenti, apre problemi non facilmente risolvibili.

È chiaro, infatti, che queste macchine sono progettate e realizzate per agire in autonomia e dunque ci si chiede, come è possibile garantire in ogni caso la prevalenza dell’uomo sulla macchina? Inoltre, per poter interagire con l’uomo efficacemente queste macchine hanno bisogno di avere accesso alla più ampia quantità di dati personali possibile, ma ciò entra in contraddizione con i principi di minimizzazione dei dati fissati dall’attuale normativa sulla privacy. Infine, come potrebbe un robot accudire adeguatamente un paziente o una persona anziana, o, per fare esempi già oggi applicabili, come potrebbero un’assistente domotico o anche solo un navigatore veicolare fornire servizi utili se non potessero utilizzare dati personali riguardanti abitudini, gusti, preferenze delle persone che se ne servono?

Veniamo dunque alla conclusione di queste riflessioni indicando i due ulteriori punti emersi e condivisi dagli esperti che hanno preso parte al workshop COTEC.

L’intelligenza artificiale applicata all’intelligenza artificiale

Innanzitutto, una corretta applicazione delle regole a sistemi di intelligenza artificiale sempre più complessi, autonomi e bisognosi di dati di cui alimentarsi, sarà possibile proprio attraverso altre applicazioni di intelligenza artificiale. La tecnologia non è solo ciò da cui dobbiamo difenderci, è anche lo strumento che rende possibile l’applicazione dei principi normativi: l’intelligenza artificiale sarà l’antidoto contro l’abuso nell’utilizzo dell’Intelligenza artificiale. Già oggi ad esempio, nell’ambito della discussione in corso per l’individuazione di metodi per controllare l’utilizzo di App potenzialmente a rischio da parte di minorenni, si sta studiando come utilizzare sistemi di IA in grado di rilevare l’età degli utilizzatori. Questo utilizzo dell’IA per consentire l’esercizio di un diritto sarà sempre più frequentemente la norma in un quadro in cui questa tecnologia sarà sempre più presente nelle nostre vite.

Il nodo dell’educazione digitale

Se tutto ciò è vero, ne deriva però che c’è bisogno di grande consapevolezza da parte degli utilizzatori di servizi basati su tali tecnologie. Veniamo così al punto centrale di questa riflessione: la necessità di garantire l’informazione e l’educazione degli utenti. È il grande tema della cosiddetta “accountability”, ovvero della trasparenza e della capacità di spiegare ed informare su come si è arrivati a un determinato tipo di decisione basata su sistemi di IA o a un determinato tipo di servizio offerto alla clientela e su come saranno utilizzati i dati che i cittadini consentono di trattare a tali scopi. D’altra parte, ciò comporta la necessità che i cittadini utenti di questi servizi siano in grado di comprendere il funzionamento di questa tecnologia per poterne valutare la correttezza di utilizzo.

La diffusione dell’educazione digitale è dunque elemento essenziale per vivere nell’epoca digitale. Ciò che ormai abbiamo imparato con riferimento a qualsiasi applicazione tecnologica, è che essa può essere utilizzata allo stesso modo per produrre effetti estremamente positivi, come per amplificare patologie e discriminazioni già presenti nella società. È ciò che è successo per Internet dove quella che inizialmente era presentata come una tecnologia benefica, persino salvifica da parte di alcuni, si è rivelata con il tempo anche uno strumento formidabile per rilanciare ed esaltare tutte disfunzioni delle nostre società.

Per i motivi cui abbiamo sopra accennato, una simile deriva sarebbe ancora più grave e pericolosa nel caso delle tecnologie di IA basate su sistemi di machine learning, ma è una deriva arginabile attraverso l’educazione e la diffusione di una cultura digitale. Diventa fondamentale l’alfabetizzazione dei cittadini, che devono essere messi in condizione di informarsi e accrescere le proprie competenze in materia di IA almeno per una conoscenza di base.

Non è necessario che siano in grado di programmare i sistemi di Intelligenza artificiale o di decifrare gli algoritmi che li governano, ma è necessario inserire l’educazione digitale nei programmi scolastici e che, in linea con quanto promosso da diversi Stati dell’Unione Europea, si sviluppino campagne di sensibilizzazione e divulgazione – come quella promossa dalla Fondazione COTEC in collaborazione con l’Università Roma Tre, su impulso del Ministero per l’Innovazione Tecnologica e Digitale (la piattaforma Elements of AI è accessibile attraverso il sito cotec.it) – che mettano tutti i cittadini in grado di acquisire elementi di conoscenza di base sull’Intelligenza artificiale che consentano di utilizzare queste tecnologie con un sufficiente livello di consapevolezza.

Conclusioni

Qualche anno fa, nel 2016, uno scrittore e studioso di IA statunitense, il professor Frank De Pasquale, ha pubblicato un libro che ha avuto molto successo, intitolato “The Black Box Society”, nel quale si chiedeva: se ogni giorno le aziende, esaminando silenziosamente gli indizi lasciati dalle nostre abitudini di lavoro e dall’uso del Internet, stanno “collegando i punti” del nostro comportamento personale per ricavarne ritratti incredibilmente dettagliati ed invasivi, chi collega i punti su ciò che le aziende fanno con queste informazioni? De Pasquale concludeva che tutti noi dobbiamo essere in grado di farlo, in modo da fissare i limiti su come le nuove tecnologie possano influenzare le nostre vite.

Tema sviluppato nel suo libro successivo (vedi box sotto), del 2020.

Abbiamo appena cominciato un percorso che ci porterà molto lontano. L’interessamento di tutti alla questione è la sola speranza perché la direzione finale rifletta interessi collettivi e non quelli di pochi soggetti.

Intelligenza artificiale, fermiamo la “corsa agli armamenti”

WHITEPAPER
Smart Facility Management: scopri le soluzioni digitali per un approccio data-driven
Blockchain
Intelligenza Artificiale
@RIPRODUZIONE RISERVATA

Articolo 1 di 3