Regolare l’IA? Operazione molto filosofica. Tutti i temi sul tavolo - Agenda Digitale

la riflessione

Regolare l’IA? Operazione molto filosofica. Tutti i temi sul tavolo

Regolare l’IA, come la Ue sta tentando di fare con la sua recente proposta di regolamento, è un’operazione profondamente filosofica, e in quanto tale dovrebbe far riflettere sul ruolo e sull’importanza di una buona filosofia della tecnologia (e non solo) in una società altamente tecnologizzata

01 Giu 2021
Marco Fasoli

IUSS di Pavia

Regolamentare l’IA e le sue applicazioni è un compito arduo, soprattutto per la scarsità di punti di riferimento preesistenti e la complessità di questa tecnologia, o meglio di questa “famiglia di tecnologie”. La Proposta di regolamentazione delle tecnologie di IA promossa dalla UE, e recentemente resa pubblica, mira a colmare un vuoto legislativo che finora ha dominato il panorama internazionale e che ha spinto alcuni a denunciare una vera e propria “emergenza regolativa” [1]

Si tratta di un documento articolato, sicuramente promettente ma non esente da criticità, che si pone sulla scia di quanto fatto dalla UE nell’ambito della privacy e che mira a promuovere una IA centrata sull’individuo e rispettosa dei diritti fondamentali. Considerata quindi la portata della Proposta, il vuoto che la precedeva e la sua ambizione, non dovrebbe stupire che si tratti di un documento permeato da questioni profondamente filosofiche, a partire dalla definizione stessa di IA, sulla quale la filosofia si è concentrata da Turing in poi e a cui la Proposta offre una risposta di tipo “operativo”. Anzi, sembra proprio che il tentativo di tutelare i cittadini dalle criticità della IA stia mettendo in evidenza la necessità di riesaminare con attenzione diversi problemi filosofici ed etici, almeno nella misura in cui si intende creare un impianto regolativo sufficientemente solido attorno a questa famiglia di tecnologie.

Il concetto di trasparenza

Prendiamo il concetto di trasparenza, citato più volte come requisito necessario alla tutela dei cittadini da potenziali manipolazioni, e spesso discusso dai filosofi della tecnologia. In che senso una tecnologia può o deve essere trasparente? Se in alcuni punti della Proposta la trasparenza sembra soddisfatta ogniqualvolta viene comunicato all’utente che sta interagendo con un sistema di IA, evitando ad esempio che nell’interazione mediata si possa confondere un chatbot con un umano, in altri punti il riferimento è ad una nozione decisamente più complessa e controversa. Ad esempio, l’art. 13 stabilisce che “I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da permettere agli utenti di interpretare l’output del sistema e usarlo in modo appropriato”.

Regolamento AI, la “terza via” europea lascia troppi nodi irrisolti: ecco quali

Il problema è che spesso i sistemi di IA offrono risultati che non sono affatto facili da interpretare, nemmeno per i più esperti. Quanto devono essere istruiti o digitalmente competenti gli utenti per essere in grado di compiere questa interpretazione? Come possono essere supportati in questo compito? Inoltre, in alcuni casi sembra piuttosto debole il principio stesso secondo cui la consapevolezza di essere di fronte a un potenziale elemento di distorsione è di per sé tutelante rispetto a possibili tentativi manipolatori. Il fatto di essere consapevoli di aver a che fare con un potenziale truffatore, ad esempio, ci spinge ad avere un atteggiamento di cautela e a fare attenzione ma a volte non impedisce di cadere in qualche sua trappola.

Il concetto di manipolazione

È poi il concetto stesso di manipolazione a rappresentare una nozione filosofica centrale per ogni tentativo di regolamentazione della IA. Dove si pone, infatti, la linea di demarcazione tra un tentativo di persuasione e la manipolazione di un soggetto da parte di un sistema artificiale? Quest’ultima è inammissibile in ogni occasione o esistono delle eccezioni? Tali problemi erano già stati sollevati dallo sviluppo di tecniche pubblicitarie basate su elaborazioni di immagini sempre più raffinate, nei media tradizionali. Con le tecnologie digitali e l’intelligenza artificiale, la questione diventa assolutamente urgente a causa di almeno tre loro peculiarità, che aumentano nettamente il loro potenziale manipolativo: la capacità di memorizzare grandi quantità di informazioni sul comportamento degli utenti, la capacità di personalizzare i risultati e i contenuti (sulla base dei dati raccolti in precedenza) e infine la loro pervasività nella vita quotidiana. La Proposta sembra sposare una concezione di manipolazione come pratica di perversione delle decisioni dei soggetti attraverso “tecniche subliminali” e di “sfruttamento delle vulnerabilità specifiche” (p. 12-13) di categorie particolarmente fragili, ad esempio i bambini, ma questo non sembra certo esaurire tutto lo spettro delle manipolazioni possibili, come il documento stesso sembra ammettere poco più avanti. Inoltre, una riflessione sull’impiego di tecniche subliminali o di sfruttamento delle vulnerabilità ci dovrebbe spingere a mettere in discussione anche espedienti tecnologici spesso non basati su tecnologie di IA ma oggi estremamente diffusi nel web, come i cosiddetti dark pattern, trucchi usati dai web designer per spingere gli utenti all’acquisto o alla condivisione dei loro dati.

La presunta neutralità della tecnologia

I sistemi che impiegano tecnologie di IA per sviluppare tecniche subliminali o per sfruttare specifiche vulnerabilità, secondo la Proposta, hanno in livello di rischio “inaccettabile” e sono totalmente proibiti. Altra questione filosofica fondamentale che è possibile scorgere, in questo caso, riguarda la presunta neutralità della tecnologia. Una neutralità che in questo modo la Proposta nega in modo implicito ma netto: esistono tecnologie di IA in totale contrasto con i valori fondamentali della UE e per questa ragione il loro divieto è assoluto, non “a seconda dell’impiego che ne viene fatto”. Oltre alle IA manipolatorie, rientrano nella categoria a rischio inaccettabile le tecnologie di social scoring, attraverso cui governi e istituzioni possono cercare di elaborare delle misurazioni di parametri molto delicati, come l’affidabilità economica dei cittadini.

Insomma, regolare la IA è un’operazione profondamente filosofica, e in quanto tale dovrebbe far riflettere sul ruolo e sull’importanza di una buona filosofia della tecnologia (e non solo) in una società altamente tecnologizzata.

  1. https://www.wired.com/story/researcher-says-IA-not-artificial-intelligent/
@RIPRODUZIONE RISERVATA

Articolo 1 di 4