algoritmi e democrazia

“Algocrazia”: come l’intelligenza artificiale minaccia la libertà umana

Filosofi, umanisti, giuristi, religiosi insieme a imprenditori, tecnici, ingegneri stanno iniziando a ragionare sui limiti etici da inserire negli algoritmi, così come si sta ponendo il tema della trasparenza delle decisioni prese dai sistemi di intelligenza artificiale. Una svolta necessaria, per evitare scenari distopici

25 Set 2020
Giuliano Pozza

Chief Information Officer at Università Cattolica del Sacro Cuore


Sempre più governi utilizzano gli algoritmi e l’intelligenza artificiale sulla base di diversi modelli e con obiettivi diversi – dalla gestione delle infrastrutture critiche al controllo delle persone. Ma gli algoritmi, lo sappiamo, non sono neutri e possono creare danni collaterali molto seri, dovuti a errori di vario tipo. La buona notizia è che, per fortuna, il dibattito sta virando dalle questioni legate all’autocoscienza delle intelligenze artificiali ai temi etici dell’uso di questi algoritmi.

Dagli algoritmi all’intelligenza artificiale in azione

La definizione classica di algoritmo è quella di un procedimento per risolvere un determinato problema attraverso un numero finito di istruzioni elementari. Ovviamente questa è una definizione di senso comune e non matematicamente esatta, ma rende l’idea. Possiamo ulteriormente aiutarci a comprendere gli algoritmi con degli esempi. Per cucinare gli spaghetti allo scoglio c’è un algoritmo (i.e. ricetta) fatto da una serie di passi che ci portano al risultato. Lo stesso vale per compilare la dichiarazione dei redditi, per fare il bucato o per portare un equipaggio sulla luna. Il problema può essere più o meno complesso, ma la mente umana ha sempre lavorato suddividendo obiettivi complessi in sotto-passi elementari finiti (anche se molto numerosi, come per atterrare sulla luna) per raggiungere lo scopo. Noah Harari[1] va oltre e sostiene che tutta la biologia si possa descrivere come un insieme di algoritmi prodotti dall’evoluzione delle specie. Le nostre abilità fisiche, la capacità di un virus di adattarsi ad un nuovo ospite, anche le nostre abilità sociali e persino le nostre emozioni sarebbero algoritmi prodotti dalla selezione naturale: una forma di riduzionismo estremo, ma che dimostra l’onnipresenza degli algoritmi se non nella vita almeno nel pensiero di oggi.

Negli ultimi anni c’è stata una vera e propria fioritura di algoritmi artificiali. Che ne siamo coscienti o no, la nostra vita (almeno nei paesi ad alto tasso di digitalizzazione) è condizionata e pervasa dagli algoritmi. Gli algoritmi ci propongono quale musica ascoltare (Spotify, YouTube Music, iTunes…), ci suggeriscono quali film vedere (Netflix è certamente il caso più famoso), cosa acquistare (i consigli per gli acquisti di Amazon) e anche quali notizie leggere. Infatti, i vari servizi di intermediazione delle informazioni (Facebook, Linkedin, Google News…) funzionano in base ad algoritmi che ci mettono in evidenza quelle che (secondo loro) sono le notizie più interessanti per noi.

E l’aspetto più rilevante degli ultimi 2-3 anni è che gli algoritmi stanno diventando incredibilmente bravi in quello che fanno! Del resto, Martin Lindstrom, l’autore di “Small data”[2] (ottimo antidoto alla bulimia di Big Data di questi anni) e persona che viaggia per il mondo quasi 300 giorni l’anno, sostiene che “alla fine non esistono più di 1000 tipi umani diversi”. Pur se non crediamo a questa semplificazione forse estrema, è incontestabile che, incrociando le nostre scelte passate con le scelte di persone in qualche modo “simili” a noi, gli algoritmi di profilazione riescono a proporci il libro, il film o la canzone giusta spesso meglio dei nostri famigliare e amici. Del resto non è necessario che per funzionare gli algoritmi siamo perfetti: è sufficiente che ci conoscano appena poco di più di noi stessi e dei nostri parenti o amici (in molti casi operazione non difficile). E se volete un altro esempio, che siate già arrivati ad ammetterlo o no, le indicazioni di Google Maps sono mediamente più affidabili delle vostre intuizioni su quale strada prendere!

In effetti con gli algoritmi di profilazione abbiamo fatto un salto quantico: dall’algoritmo presentato nella definizione iniziale come procedura strutturata e immobile ad un algoritmo di tipo nuovo, che riesce ad imparare! Il machine learning e il deep learning hanno generato una classe totalmente nuova di strumenti, capaci di modificarsi e di evolversi imparando dai dati. L’algoritmo non è più statico come una ricetta da cucina. Nessuno ha pre-codificato le canzoni che vi verranno proposte la prossima settimana. Sfruttando i dati vostri e di altre persone simili a voi l’algoritmo impara e si modifica continuamente, seguendo anche i vostri cambiamenti di gusti con il passare degli anni.

Si è aperta l’era dell’intelligenza artificiale in azione, che modifica il nostro rapporto con le cose e le persone.

I nuovi algoritmi alla conquista del mondo

In “Sorry we missed you”, l’ultimo struggente film di Ken Loach, c’è un dialogo illuminante tra il protagonista e il suo capo. L’ambientazione è quella di una ditta di logistica che lavora per grandi clienti (anche Amazon ma non solo) per rendere possibile la “magia” della consegna in 24 ore. Il capo sta spiegando al nuovo arrivato come funziona quella macchina perfetta. Il cuore del sistema è il palmare che ogni autista deve avere sempre con sé e che serve a indicare le rotte, tracciare le consegne e identificare (e anticipare) ogni tipo di problema. La figlia del protagonista, qualche scena dopo, va oltre e fa domande intelligenti sui dati e sul modo di funzionare dello strano dispositivo. È evidente che il palmare è solo uno strumento, il vero cuore pulsante di un’azienda di logistica moderna sono gli algoritmi che manipolano i dati generati dal palmare e dagli ordini degli utenti. In effetti il manager non sembra fare molto se non urlare occasionalmente ai suoi collaboratori: gli algoritmi sono i veri manager dell’azienda!

Oggi sempre più gruppi umani si affidano ad algoritmi per governare la propria attività. Vi sono aziende che tracciano maniacalmente le attività dei propri dipendenti e usano algoritmi per coordinarli, altre che usano algoritmi per analizzare i propri clienti e definire le strategie. Se fino a qualche anno fa le buzzword erano “Big Data” e “Data scientist”, ora il modello che presupponeva un team di umani in grado di analizzare e interpretare i dati è in molti casi superato. Era comprensibile che accadesse: nessun essere umano potrebbe star dietro all’enorme e crescente quantità di dati generata. L’esempio forse più eclatante è l’High Frequency Trading. Se prima la tecnologia digitale veniva utilizzata per fornire dati e report a trader umani, da qualche anno siamo passati alla fase successiva. Sofisticati algoritmi non solo analizzano enormi quantità di dati, ma prendono anche decisioni sugli investimenti in frazioni di secondo. In alcuni casi il volume delle transazioni gestite da algoritmi arriva anche al 70% del totale. Ma è un dato temporaneo e destinato a crescere velocemente: gli algoritmi hanno già conquistato il mondo della finanza.

WEBINAR
Intelligenza Artificiale, Data Analysis e Image Recognition: i vantaggi concreti per l’azienda
Big Data
Intelligenza Artificiale

Allargando l’orizzonte da specifici ambiti alla società nel suo insieme, l’aspetto forse più interessante (e, come vedremo nel prossimo paragrafo, in molti casi inquietante) è l’utilizzo degli algoritmi da parte dei governi. Prendendo libera ispirazione da una metafora basata sulla gestione del traffico e utilizzata da A. Anesh, il professore di sociologia che per primo ha parlato di Algocrazia, possiamo parlare di tre modelli con cui i governi stanno utilizzando gli algoritmi e l’intelligenza artificiale:

  1. Modello base (gestionale): gli algoritmi sono utilizzati per realizzare sistemi di gestione di realtà complesse. Nella metafora “stradale” è l’analogo di un sistema computerizzato per la gestione intelligente dei semafori. Il verde e il rosso si alternano non in base ad una rigida logica temporale, ma considerando le condizioni del traffico. Estendendo la metafora possiamo pensare alla gestione del traffico aereo o ferroviario. Questi sono stati i primi algoritmi ad essere introdotti massivamente e ciascuno ne ha apprezzato più volte la potenza e l’importanza. Nessun essere umano potrebbe gestire senza l’ausilio di questi algoritmi i volumi di traffico dei nostri aeroporti. Così i governi hanno usato inizialmente gli algoritmi per le smart cities o per la gestione delle infrastrutture critiche.
  2. Modello integrato (gestionale e di controllo): ritornando alla metafora del traffico, è venuta quasi da sé l’introduzione di strumenti e algoritmi di controllo, per identificare e sanzionare gli automobilisti che non rispettavano i semafori. Lo stesso sta avvenendo in molti paesi, dove gli algoritmi sono diventati strumento di controllo della popolazione. Viene naturale pensare alla Cina e al suo progetto Skynet, di cui abbiamo parlato nell’articolo sul nuovo Panopticon, ma in realtà tutti i paesi si stanno muovendo in questa direzione. Si pensi a quanto ha fatto e sta facendo l’NSA (National Security Agency) americana e i servizi più o meno segreti delle altre nazioni tecnologicamente sviluppate. Gli algoritmi ci osservano, gli algoritmi ci conoscono, gli algoritmi ci controllano. Se questo vi sembra distopico, vi anticipo che il prossimo paragrafo si intitola appunto “Errori e distopie”.
  3. Modello evoluto (preventivo): il modello preventivo è la vera nuova frontiera. Gli algoritmi che eliminano gli errori alla radice. La metafora stradale ci offre un bell’esempio nelle auto a guida autonoma. Invece che controllare e punire gli umani per i loro molti errori alla guida, mettiamo gli umani in condizioni di non sbagliare più sostituendoli con algoritmi! A mio parere una bella evoluzione. In altri campi però gli scenari si fanno più inquietanti. Sempre Skynet viene usato come sistema di arresto preventivo delle persone sospette (spesso minoranze etniche come gli Uiguri) in base ad algoritmi che catalogano le persone in base al grado di potenziale pericolosità. Ad un livello di potenziale pericolosità elevata (anche in assenza di reati), gli Uiguri vengono internati in campi di rieducazione. Sempre in questo scenario rientrano diversi casi di manipolazione dell’opinione pubblica a vantaggio di parti politiche o governi, come il caso Cambridge Analytica ci ha insegnato.

Errori e distopie

In effetti, la notizia vera non è il fatto che gli algoritmi stiano conquistando il mondo, ma il fatto che gli algoritmi non sono neutri. L’esperienza di questi anni inoltre dimostra che possono creare danni collaterali importanti dovuti ad errori o problemi su come sono fatti, su come sono alimentati e su come vengono impiegati.

  1. Errori dovuti a come gli algoritmi sono fatti. Anche se usiamo termini come algoritmi o intelligenza artificiale, non dobbiamo dimenticarci che comunque stiamo parlando di software scritto da sviluppatori umani. E le statistiche di una fonte autorevole come CISQ sugli errori nel software sono impressionanti. Nel report pubblicato nel 2018 CISQ dice che “essendo un prodotto puramente intellettuale, il software è tra le tecnologie che richiedono più lavoro, che hanno la maggior complessità e il più elevato tasso di errori della storia dell’umanità”. I problemi di qualità del software hanno causato nel 2018 danni per 2.8 trilioni di dollari solo negli Stati Uniti. Uno sviluppatore medio introduce dai 100 ai 150 errori ogni 1000 linee di codice. I casi anche recenti di bug disastrosi sono molti, dall’NHS (il sistema sanitario inglese) ad American Airlines. Anche se uno degli ultimi trend è l’uso di algoritmi di intelligenza artificiale per individuare i bug, la strada è ancora lunga per arrivare ad un “bugs free” software. Nel caso di algoritmi usati per scenari in ambiti critici, il costo anche di un singolo bug può essere altissimo. Nel caso dell’NHS ad esempio 10.000 persone potrebbero aver ricevuto prescrizioni di farmaci sbagliate.
  2. Errori dovuti a come gli algoritmi sono alimentati. Gli algoritmi più potenti si nutrono massivamente di dati. Pensate a tutte le applicazioni di algoritmi di machine learning utilizzate per analizzare le immagini o profilare le persone. È dimostrato che i bias culturali degli sviluppatori, uniti ad esempio all’utilizzo di immagini con prevalenza di persone di uno specifico gruppo etnico, possono generare dei risultati errati in modo pericoloso. Alcune categorie di persone sono discriminate dai sistemi automatici di valutazione dell’affidabilità finanziaria, così come il riconoscimento dei volti funziona bene sui maschi bianchi caucasici, meno negli altri casi. Fornire agli algoritmi una dieta equilibrata ed abbondante aiuta, ma non azzera i rischi. Per quanto big siano i big data e per quanto sofisticati gli algoritmi, stiamo sempre parlando di rappresentazioni semplificate della realtà. E come tali fallaci.
  3. Distopie dovute a come gli algoritmi sono utilizzati. Gli algoritmi sono strumenti potenti che hanno dei benefici evidenti e che non hanno in sé un chiaro deterrente verso il loro uso ed abuso. Questa è una delle ragioni del loro successo ed anche della loro pericolosità. Ad esempio la bomba atomica è uno strumento potente, che ha in sé un forte deterrente all’uso, ossia il rischio di innescare una reazione a catena con distruzioni di massa. Gli algoritmi sono diversi, ma se impiegati in modo non etico non sono meno pericolosi di una bomba atomica. Il caso più eclatante è quello già citato della Cina. Il tema però è ben più vasto: in generale gli algoritmi di facial recognition, uniti a sofisticate tecniche di profilazione, sono la tecnologia che sta avendo più successo in moltissimi stati, soprattutto quelli privi di una legislazione tutelante rispetto ai diritti dei cittadini. La minoranza musulmana degli Uiguri in Cina è di fatto sottoposta ad un controllo totale e distopico. Le persone di questa comunità vengono profilate e monitorate in base a chi incontrano (ad esempio se si incontrano con persone sospette), a cosa mangiano (una diminuzione della spesa alimentare viene identificata come digiuno e quindi indizio di possibile radicalizzazione) e a cosa acquistano (in particolare libri o strumenti che possano essere ricondotti a pratiche religiose). In base a queste informazioni gli algoritmi del governo cinese costruiscono un profilo di rischio e se questo supera la soglia critica, si badi bene anche in assenza di reati dal punto di vista legale, gli Uiguri vengono rintracciati (grazie alle tantissime videocamere e al riconoscimento facciale), strappati alle loro famiglie e internati in campi di riabilitazione per mesi o per anni. La chiamano prevenzione. Recentemente la Cina, che su questa classe di algoritmi ha investito moltissimo, ha iniziato a vendere queste tecnologie ad alcuni regimi dittatoriali africani. E se ora vi sentite sollevati pensando che non vivete in un regime dittatoriale ma democratico, forse dovreste pensare alla massiva manipolazione elettorale perpetrata grazie ai sofisticati algoritmi di Cambridge Analytica per lo più in paesi democratici. E se pensate che sia un problema americano, ecco in rigoroso ordine alfabetico l’elenco dei pasi in cui Cambridge Analytica ha operato: Argentina, Australia, Repubblica Ceca, India, Italia, Kenya, Malta, Mexico, Nigeria, Filippine, Trinidad e Tobago, Regno Unito, Stati Uniti. In particolare, il caso Trinidad e Tobago è un esempio da manuale di come questi strumenti possono manipolare le masse e le democrazie. Per chiudere, non possiamo non citare il tema dell’utilizzo degli algoritmi di AI negli scenari di guerra, su cui recentemente alcuni ricercatori hanno pubblicato una lettera aperta.

Conclusione: gli sviluppatori sono i nuovi filosofi?

La risposta a questa affermazione[3] a mio parere è: “speriamo di no!” In generale credo che delegare aspetti così cruciali e con tali risvolti etici solamente a sviluppatori e ingegneri sia una pessima idea. E lo dico da ingegnere. Se è vero che “il software si sta mangiando il mondo”, come sostiene Marc Andreessen, forse è il momento di cominciare a porsi le domande giuste su come costruire, come nutrire e come utilizzare questi nuovi e potentissimi strumenti. Qualcosa si sta certamente muovendo, se anche il Vaticano ha recentemente tenuto un congresso su questi temi dal titolo: The “good” Alghoritm? Artificial Intelligence: Ethics, Law, Health”.

Non ho ovviamente delle soluzioni pronte, ma vedo con favore il fatto che filosofi, umanisti, giuristi, religiosi stiano iniziando a ragionare su questi temi. Non da soli, ma insieme a imprenditori, tecnici, ingegneri e sviluppatori, perché la complessità attuale non può essere abbracciata da nessuna competenza specialistica se non in collaborazione con le altre. Forse non abbiamo soluzioni, ma stiamo iniziando a porci le domande giuste. Stiamo iniziando a ragionare sul tema dei limiti etici da inserire negli algoritmi, così come si sta ponendo il tema della trasparenza e della conoscibilità delle decisioni prese dagli strumenti di intelligenza artificiale.

Credo sia solo un inizio e spero in futuro di vedere sempre meno dibattiti sull’autocoscienza delle intelligenze artificiali e sempre più conferenze sui temi etici dell’uso di questi algoritmi. Infatti l’autocoscienza è a mio parere un falso mito, ma soprattutto è irrilevante: quello che sta succedendo pone già adesso, pur di fronte ad algoritmi non autocoscienti, dei temi etici fondamentali. E se non li affronteremo in fretta (perché gli algoritmi si evolvono molto in fretta), rischiamo di giocarci in questa partita il nostro bene più prezioso: la libertà.

______________________________________________________________

  1. N. Harari – “Homo Deus. Breve storia del futuro” – Ed. Harvill Secker
  2. M. Lindstrom – “Small Data. I piccoli indizi che svelano i grandi trend” – Ed. Hoepli
  3. Attribuita a D. Hackethal e citata dal filosofo C. Accoto

@RIPRODUZIONE RISERVATA

Articolo 1 di 2