Di Intelligenza artificiale si parla ormai continuamente ed in alcuni frangenti anche esageratamente. Al netto della sovrabbondanza di nozioni, non sempre corrette e puntuali, ed elucubrazioni, permane la necessità di parlare di AI e di addentrarsi in ogni possibile aspetto della sua applicazione nelle attività della società umana.
Ed il motivo è che, ferme restando le possibilità quasi rivoluzionarie offerte da alcune soluzioni di intelligenza artificiale, non si può nascondere una certa criticità nella loro applicazione; criticità che può essere affrontata con relativa tranquillità solo attraverso un processo preliminare di studio e di armonizzazione. Insomma, in altre parole, prevenire è meglio che curare, anche e soprattutto nel campo delle nuove tecnologie.
Il rapporto tra PA e fornitori di soluzioni di intelligenza artificiale
Tra i vari aspetti di analisi ritengo particolarmente meritevole quello inerente al rapporto di fornitura tra PA e distributore del prodotto di intelligenza artificiale. Pur non potendo escludere, in un futuro prossimo, un approccio diretto allo sviluppo delle IA da parte delle pubbliche amministrazioni, si può ritenere che ad oggi il loro utilizzo (soprattutto nel day by day o nelle dinamiche di processi già consolidati) da parte delle società pubbliche debba per forza di cose passare attraverso un fornitore terzo.
L‘approccio neoliberista all’innovazione tecnologica pubblica
Si tratta come noto di un approccio neoliberista al rapporto tra Stato e mercato, secondo cui il mercato è considerato più efficiente nel produrre innovazione, che può essere eventualmente utilizzata dai poteri pubblici. Il modello neoliberale dello Stato minimo non prevede che il settore pubblico sviluppi autonomamente capacità produttive, ma piuttosto che si affidi a soluzioni provenienti dal mercato.
Outsourcing come strategia di approvvigionamento tecnologico
L’outsourcing, in questo contesto, è visto come il principale strumento attraverso cui lo Stato si approvvigiona di servizi e soluzioni organizzative. Questo concetto è preferibile a quello di esternalizzazione, che implica un movimento dall’interno all’esterno del settore pubblico, presupponendo un perimetro ancora ampio dello stesso.
Le difficoltà della PA nell’ingresso autonomo nel mercato dell’IA
A queste considerazioni di natura macroeconomica, bisogna poi inserire una valutazione più di merito circa le difficoltà di inserirsi autonomamente all’interno del mercato dell’IA – sebbene l’avvento di DeepSeek abbia in parte minato alcune delle certezze degli ultimi anni.
Rischi intrinseci dell‘IA: il problema del bias nei sistemi di deep learning
Tanto ciò premesso, si può ragionevolmente supporre che la PA che voglia integrare un sistema di IA per processi complessi debba fare i conti con la “coabitazione” di uno o più fornitori di software ed algoritmi di difficile gestione.
Nel caso del deep learning, per esempio, emergono significativi rischi intrinseci, con particolare riferimento a quelli associati al “bias”. Questi sistemi, infatti, operano un raggruppamento della popolazione in base a correlazioni statistiche, spesso trascurando caratteristiche marginali che possono comunque portare a esiti discriminatori, sollevando un ampio dibattito accademico e pratico.
Approcci al problema della discriminazione nei sistemi di IA
Le opinioni in merito variano: un settore della ricerca considera la discriminazione un fenomeno strutturale e ineliminabile, intrinsecamente legato alla natura del deep learning. Al contrario, vi è una corrente di pensiero che sostiene la possibilità di gestire e mitigare tali rischi attraverso lo sviluppo di un’etica dell’AI. Questo secondo approccio postula che l’AI possa essere concepita come uno strumento neutro, valorizzabile in termini di razionalità strumentale, indirizzandone l’uso verso finalità socialmente benefiche.
La normativa europea sull’IA e la classificazione del rischio
La recente regolamentazione dell’Unione Europea sull’AI opera sulla classificazione del rischio, imponendo requisiti specifici ai fornitori e agli utilizzatori, noti come “deployer”, con l’obiettivo di contenere e gestire i rischi associati all’implementazione delle tecnologie AI. Tuttavia, si devono considerare anche aspetti non contemplati da tale regolamentazione.
Dipendenza dai dati e rischi di concentrazione del potere
In particolare, i sistemi di intelligenza artificiale sono fortemente dipendenti da un’ampia e costantemente aggiornata mole di dati, il che implica che l’implementazione dell’AI nel settore pubblico non può essere considerata neutra. Il modello di business adottato dalle grandi aziende tecnologiche, basato sul “surveillance advertising”, suggerisce che l’adozione dell’AI nel settore pubblico possa tradursi in un transito del potere verso queste corporazioni, ristrutturando la matrice del potere sociale. Le notizie recenti sembrano, se non confermare, quantomeno sollevare i primi accenni di una fisiologica promiscuità tra politica e il settore tech/IA.
Gdpr e trattamento dei dati: la relazione asimmetrica tra pa e fornitori
L’integrazione di sistemi di intelligenza artificiale (AI) nel settore pubblico, specialmente quando coinvolge il trattamento di dati personali, solleva questioni complesse che vanno ben oltre gli aspetti tecnici. Il Regolamento europeo GDPR stabilisce che il trattamento dei dati personali da parte di un’amministrazione pubblica è legittimo solo se strettamente necessario per svolgere compiti di interesse pubblico o esercitare poteri istituzionali. Se si torna alla relazione asimmetrica tra PA e fornitore, emerge subito che il fornitore detiene un potere decisionale significativo, mentre l’amministrazione pubblica, pur essendo formalmente responsabile, ha una capacità limitata di influenzare o modificare il sistema.
Non si tratta di considerazioni sediziose su un consapevole approccio di controllo da parte dei privati outsourcer, quanto di una conseguenza pratica della difficoltà di settare una IA in maniera tale da assicurare l’approccio rigoroso (e spesso non facilmente riconducibile a logiche algoritmiche) di una pubblica amministrazione.
Verso un approccio prudenziale: compliance by design e by default
La conclusione, come spesso accade quando si parla dei precipitati sostanziali dell’utilizzo dell’intelligenza artificiale, è la necessità di adottare approcci prudenziali e di accompagnare l’evoluzione tecnologica alle istanze sociali che caratterizzano il servizio offerto. In tal senso la normativa non può intervenire in maniera tecnica o puntuale – non come si desidera e quasi mai in via preventiva ma al massimo contenitiva – ma può sensibilizzare a modalità di sviluppo compliant by design e by default.