Algoritmi al potere, senza confronto pubblico né trasparenza: i problemi | Agenda Digitale

Automating Society Report

Algoritmi al potere, senza confronto pubblico né trasparenza: i problemi

L’Automating Society Report 2020 di Algorithm Watch analizza l’impatto dei sistemi decisionali automatizzati su individui e società. Gli autori criticano la mancanza di trasparenza, ma anche che le tecnologie sono state introdotte senza informare il pubblico e senza generare ampio sostegno sociale

04 Nov 2020
Diego Dimalta

Studio Legale Dimalta e Associati


In tutta Europa, Italia compresa, il rapido incremento nell’utilizzo di tecnologie di Intelligenza artificiale (IA) e di processi decisionali automatizzati (automated decision-making – ADM), raramente è stato accompagnato da un adeguato dibattito pubblico. Il soluzionismo tecnologico viene così, spesso, innalzato a valore incontestabile tanto che, chi si pone domande più approfondite viene quasi tacciato di complottismo.

Il problema, come quasi sempre accade, non è insito nella tecnologia ma nell’uso che se ne fa e nell’approccio scelto: molto spesso, infatti, i sistemi ADM hanno portato a risultati utili per l’intera società.

Esaminiamo, per capirne di più, i risultati dell’ultimo report pubblicato da Algorithm Watch dal titolo “Automating Society Report 2020”.

Gli esempi positivi

Viene quindi fatto l’esempio del sistema VioGén, implementato in Spagna dal 2007 per valutare il rischio nei casi di violenza domestica, che nel tempo ha mostrato “indici di performance ragionevoli” contribuendo a proteggere molte donne dalla violenza.

Allo stesso modo, in Portogallo, è stato implementato un sistema centralizzato automatizzato per ridurre le frodi nell’ambito medico. Questo sistema, da solo, è riuscito a ridurre dell’80% questi comportamenti illeciti.

I sistemi ADM non sono quindi necessariamente un male ma è necessario prestare attenzione nel loro utilizzo, individuando gli errori principali e ponendovi tempestivo rimedio.

Bisogna, insomma, evitare di ricadere nel paradigma che Algorithm Watch definisce “tecno-solution”, traducibile in “soluzionismo tecnologico”. Si tratta di quell’approccio, tipico di molti politici europei, che tendono ad individuare nella tecnologia la soluzione ad ogni problema.

L’ADM non è una panacea

Prendiamo ad esempio la gestione del COVID. Qualcuno pensa che la soluzione alla pandemia sia l’utilizzo delle app di contact tracing. Ma siamo davvero sicuri che sia così?

Il 29 ottobre a New York si è tenuta l’Assemblea Generale delle Nazioni Unite. Qui ha preso la parola – Joseph Cannataci, Relatore speciale delle Nazioni Unite sul diritto alla privacy ed ha affermato: “La sorveglianza onnipervasiva non è una panacea per Covid-19 […] Mentre le emergenze di salute pubblica hanno sempre fornito una base legittima per il trattamento dei dati e mentre il tracciamento dei contatti può essere classificato come una misura necessaria per contenere una pandemia, ricordo con urgenza agli Stati che qualsiasi risposta al coronavirus deve essere proporzionata, necessaria e non discriminatoria ”

Il punto è proprio questo. Non è sufficiente individuare un sistema ADM e premere start per far sì che i problemi si risolvano.

I “danni” da ADM

WHITEPAPER
Stop alle minacce informatiche grazie alla Threat Intelligence avanzata. Scopri come nel white paper
Sicurezza
Cybersecurity

Lo sanno bene anche i ragazzi di una scuola di Londra dove, a causa del Coronavirus, la scorsa primavera non è stato possibile concludere le lezioni. Anche in questo caso, qualcuno ha pensato che la soluzione potesse essere un sistema ADM al quale è stato affidato il compito di prevedere l’andamento dei singoli studenti (basandosi su dati dei trimestri precedenti) decretando così la promozione o meno all’anno successivo. Purtroppo, però, il risultato, anche in quella occasione è stato poco soddisfacente, viziato da “bias” che hanno portato privilegiare gli alunni provenienti da famiglie benestanti e a discriminare i ragazzi provenienti da famiglie di ceto medio/basso.

In sostanza, l’idea che vuole insinuare Algorithm Watch è che i sistemi di decisione automatica a volte sbagliano e, in questi casi, le conseguenze possono essere anche di portata non trascurabile.

Come limitare questi inconvenienti? La legge ci tutela?

I paletti del Gdpr

Anche se non c’è stato un grande dibattito sul riconoscimento facciale al momento della promulgazione del GDPR, il Regolamento è stato progettato in modo che potesse adattarsi nel tempo con l’evoluzione delle tecnologie. Il Garante della Privacy Europeo Wojciech Wiewiórowski, successore del compianto Giovanni Buttarelli, ritiene che “ora è il momento per l’UE per determinare se la tecnologia di riconoscimento facciale può essere consentita (o meno) in una società democratica. Se la risposta è sì, allora sarà opportuno porsi domande sulle garanzie e responsabilità nel suo utilizzo”. Si tratta di una premessa importante perché non ritiene in alcun modo scontata la legittimità dell’utilizzo di tali sistemi per il controllo della popolazione.

In Europa, come mostra il report, molti stati hanno già una regolamentazione che disciplina gli ADM e ciò, in alcuni casi ha portato anche ad ottimi risultati (ed esempio in Estonia dove questi sistemi hanno portato ad una riduzione considerevole del consumo di energia elettrica).

L’utilizzo dei sistemi ADM in Italia e i paletti del Garante

In Italia, sul punto, il 2 febbraio 2020 è intervenuto il Garante della Privacy il quale ha dichiarato illegittimo il trattamento effettuato, con sistemi di riconoscimento facciale, dalla città di Como, in quanto effettuato in mancanza di apposita previsione di legge che autorizzi il trattamento stesso.

Ed in effetti, in Italia, l’art. 7 del D.Lgs 51/2018 afferma:

“1. Il trattamento di dati di cui all’articolo 9 del regolamento UE è autorizzato solo se  strettamente necessario e assistito da garanzie adeguate per i diritti e le libertà dell’interessato e specificamente previsto dal diritto dell’Unione europea o da legge o, nei casi previsti dalla  legge,  da  regolamento,  ovvero,  ferme  le garanzie  dei  diritti  e   delle   libertà,   se   necessario   per salvaguardare un interesse  vitale  dell’interessato  o  di  un’altra persona fisica o se ha ad oggetto dati resi  manifestamente  pubblici dall’interessato.”

Di fatto, quindi, in Italia, il controllo generalizzato è, per ora, impedito dalla mancanza di una apposita legge. A dire il vero, come evidenzia il report di Algorithm Watch, a febbraio 2020 subito prima della pandemia, il ministro delle Politiche giovanili e dello sport, Vincenzo Spadafora, stava valutando di sperimentare e implementare “nuove tecnologie” – una massiccia distribuzione di riconoscimento facciale (unito a microfoni diffusi) – per individuare comportamenti razzisti all’interno dei nostri stadi.

Già nell’ottobre 2019 Gabriele Gravina, presidente della FIGC aveva ipotizzato l’adozione dei “radar passivi” -attualmente in uso da unità antiterrorismo- per “individuare fonti di rumore”, capaci però, allo stesso tempo di registrare le conversazioni private tra i sostenitori in tribuna, circostanza questa molto pericolosa sotto il profilo privacy.

Algorithm Watch ha quindi scritto diverse mail a Federcalcio ed ai funzionari competenti, non riuscendo ad ottenere le risposte che cercava.

Tuttavia, si evidenzia come la mancanza di una discussione pubblica su questo argomento non ha impedito al sistema S.A.R.I. (“ Sistema Automatico di Riconoscimento Immagini”) di essere descritto dai media mainstream come una misura di sicurezza necessaria, da implementare anche nel nuovo stadio in costruzione per le squadre di Milano. Qui, peraltro, non controllerebbe solo comportamenti razzisti, ma anche per “potenziali terroristi” e, secondo Corriere della Sera Milano permetterebbe di ” riconoscere comportamenti anomali, come “vagabondaggio” e “la presenza improvvisa di un oggetto in un determinato luogo”, aiutando così nella prevenzione da attacchi terroristici.

Ma quello degli stadi non è l’unico caso di utilizzo di sistemi ADM in Italia. All’aeroporto di Fiumicino, ad esempio è in corso una sperimentazione che permette di imbarcarsi sull’aereo senza usare documenti di riconoscimento ma solo la propria faccia. Esiste poi il progetto SOSE, algoritmo pensato per valutare l’affidabilità fiscale di un soggetto.

Non solo, anche la polizia si serve di sistemi ADM per predire eventuali comportamenti criminali.

Questo software, chiamato XLAW, è già stato schierato nelle città di Napoli, Modena, Prato, Salerno, Livorno, Trieste, Trento e Venezia (Business Insider 2019) dove ha già portato all’arresto di criminali in base alle previsioni che, stando ad Algorithm Watch, risultano affidabili per circa l’87/94% dei casi. Nessuno però sembra essersi posto il problema se questa percentuale sia sufficiente a rovinare la vita e la reputazione di una persona accusata ingiustamente.

Conclusioni

La verità è che le legittime domande di chi si rifiuta di subire un controllo costante da parte del governo sono spesso frutto della consapevolezza che chi decide di adottare tali sistemi non ha, nella maggior parte dei casi, approfondito i vari risvolti, positivi o meno nell’utilizzo di tali tecnologie che, seppur intelligenti ed automatizzate, come visto, sono spesso colme di controindicazioni.

Se la politica volesse davvero evitare queste critiche potrebbe intraprendere un dibattito più approfondito sulla materia, meritando una fiducia relativamente all’utilizzo dei sistemi ADM che, ad oggi, non c’è.

WEBINAR
Come aumentare il ROI e ottenere forecast sempre più precisi? AI & Deep Learning per il finance
Finanza/Assicurazioni
Intelligenza Artificiale

@RIPRODUZIONE RISERVATA

Articolo 1 di 4