Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

discriminazione algoritmica

Intelligenza artificiale, tutti i pregiudizi (bias) che la rendono pericolosa

Il futuro dell’intelligenza artificiale dipenderà dalla capacità di risolvere la questione dei bias. Pregiudizi algoritmici che causano discriminazioni sociali. L’aumento dei dati a disposizione e delle capacità di calcolo rischiano di renderlo un problema fondamentale per il futuro. Ecco il quadro e possibili soluzioni

26 Feb 2019

Davide Giribaldi

data protection specialist


I pregiudizi algoritmici sono una delle principali ombre che pesano sul futuro (già in molti casi “presente”) dei sistemi di intelligenza artificiale. I pregiudizi (bias) rendono inaffidabili, parziali e potenzialmente pericolosi. 

Perché i rischi in tal senso siano limitati il più possibile, serve un’etica dei dati. E in questo è importante il ruolo dell’Europa, che si appresta, appunto, a pubblicare una prima versione del Codice Etico secondo cui l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani, degli animali e della natura. Anche il Consiglio d’Europa, con una recente dichiarazione, mette in guardia contro il rischio di “discriminazione sociale” causata dagli algoritmi.

AI, riconoscimento facciale e giustizia: libertà a rischio?

Per comprendere il problema prendiamo due ambiti in apparenza molto distanti fra loro: i sistemi di riconoscimento facciale e la giustizia.

Nel primo caso, la loro diffusione è ormai tale per cui siamo propensi a considerarli sicuri, perché ci permettono di sbloccare le funzioni dei nostri smartphone o di sostituire i controlli umani alle frontiere o negli aeroporti.

Ma moltissimi studi in ambito scientifico ci dicono che il riconoscimento facciale può mettere in serio pericolo le nostre libertà.

Joy Buolamwini è una ricercatrice del MIT di Boston e tramite uno studio dal titolo “Gender Shades” ha verificato l’accuratezza di alcuni prodotti di riconoscimento facciale come IBM Watson, Microsoft Cognitive Services e Face ++, arrivando alla conclusione che questi sistemi trattino alcune etnie in modo più impreciso rispetto alle altre. Nel caso specifico la ricerca ha dimostrato una precisione del 99% per gli uomini bianchi e una del 34% per le donne dalla carnagione scura.

Perché? Fondamentalmente per il fatto che gli algoritmi usati da questi sistemi si basano su soggetti prevalentemente di tipo maschile e di carnagione chiara.

Istruzione degli algoritmi e bias, le criticità

La ricerca ha evidenziato che sono stati commessi errori nell’istruzione degli algoritmi e quindi in prima battuta si potrebbe pensare che sia sufficiente correggerli per eliminare il bias, ma non è cosi semplice come si possa credere almeno per due motivi:

  • il pregiudizio insito nel sistema è stato totalmente ignorato (tanto dall’uomo quanto dalla macchina) fino a quando non è stato fatto un audit indipendente;
  • la quantità di dati che gli algoritmi analizzano è costantemente in aumento e di conseguenza il rischio di nascondere l’errore sempre più nel profondo del codice è destinato a crescere.

Per capire meglio questo secondo aspetto, basti pensare che IBM, in risposta ai risultati della ricerca del MIT, ha rilasciato un miglioramento al proprio sistema, che consente di ridurre notevolmente l’errore, ma per poterlo fare ha dovuto realizzare un data set chiamato DiF (Diversity in Face) composto da 1 milione di immagini e da 10 schemi di codifica.

La soluzione di IBM non è nulla rispetto a quanto fatto nel 2014 da Facebook per il lancio del proprio sistema di riconoscimento facciale (Deep Face), in quel caso la base dati era composta da un set di 4 milioni di foto sulle quali erano stati individuati 120 milioni di parametri divisi in 9 distinti livelli di dettaglio. Oggi quelle foto (anche grazie alla recente trovata pubblicitaria di “ten years challenge”) sono decuplicate.

Le discriminazioni del software

Ovviamente anche Amazon non si sottrae dalla sfida nei sistemi di riconoscimento facciale e probabilmente è quella che si è spinta (per il momento senza ripensamenti) più nel profondo della questione fornendo la propria soluzione (Rekogniction) tanto a privati quanto ad enti governativi provocando non poche contestazioni.

Durante il 2018 è diventato famoso lo studio fatto da ACLU ( American Civil Liberties Union) un’associazione americana a difesa dei diritti civili, che usando Rekogniction ha mescolato le foto dei parlamentari americani in un database di circa 25 mila immagini, dimostrando che nel 5% dei casi emergeva un’inesistente corrispondenza tra criminali e gli stessi parlamentari. Il dato assurdo è che in mezzo a questi falsi positivi il 39% riguardasse deputati dalla pelle scura.

Bias algoritmici e assunzioni di personale

Il paradosso a cui stiamo assistendo è che la grossa responsabilità del peggioramento dei bias nei sistemi di intelligenza artificiale è della tecnologia e dei suoi continui miglioramenti.

L’allargamento della base dati non fa altro che automatizzare l’errore e standardizzarlo, soprattutto nei casi in cui gli algoritmi ereditino i pregiudizi copiando od imparando da altri sistemi già viziati.

E’successo cosi anche per il software di reclutamento del personale di Amazon che per una serie di “distorsioni” storiche privilegiava le assunzioni maschili rispetto a quelle femminili.

Ci sono voluti alcuni anni per rendersi conto dell’errore e moltissimi tentativi per riuscire a correggerlo.

AI nel sistema giudiziario: i rischi

A proposito di criminali e falsi positivi, da alcuni anni il sistema giudiziario americano utilizza l’intelligenza artificiale per aiutare i giudici nel calcolo delle probabilità che un determinato soggetto possa commettere nuovamente reati e quindi stabilire pene adeguate al contenimento del rischio.

Una cosa simile succede anche in Gran Bretagna dove alcune forze di Polizia, stanno usando o progettano di usare sistemi automatizzati per la prevenzione dei crimini.

Anche in questo caso, uno studio da parte di un’organizzazione a tutela dei diritti e la libertà nel Regno Unito ha posto in evidenza come la collezione di dati già discriminatori in origine, sia in grado di consolidare i pregiudizi mettendo in pericolo i nostri diritti.

Il dito è puntato contro due sistemi:

  • il primo si occupa di mappare alcune zone urbane considerate più a rischio ed indirizzando i controlli della polizia verso quelle aree,
  • il secondo analizza dati ed informazioni sia di potenziali criminali che di vittime, cercando di prevenirne le azioni.

La sovrapposizione di questi due sistemi e la possibilità di utilizzare enormi quantità di dati storici, uniti alla velocità con cui possono elaborare risposte, dovrebbero farci presupporre che con questa sorta di “risk assessment” del crimine, si possano dormire sonni tranquilli, ma anche in questo caso non si può escludere a priori che i dati statistici riferiti al passato riflettano le tendenze comportamentali del futuro, non fosse altro perché le condizioni sociali sono mutevoli nel tempo.

Allora ha senso parlare di intelligenza artificiale nella giustizia?

Probabilmente no e se ci pensiamo bene, affidare ad un algoritmo il giudizio su un crimine o sulla possibilità che questo si verifichi è già di per se stesso un’interferenza nel sistema giudiziario che per altro si basa su concetti che non hanno nulla a che fare con la matematica.

Quindi l’intelligenza artificiale è pericolosa?

Non è facile dare una risposta, di certo si può dire che non lo sarà nel momento in cui avremo imparato a conoscerla completamente, ma siamo ancora lontani da quel giorno e la velocità con cui le macchine ed i sistemi di AI stanno evolvendo può paradossalmente allontanarlo.

Proviamo a capire perché:

  • gli algoritmi sono progettati da esseri umani ed alla base delle nostre convinzioni ci sono i cosiddetti “bias cognitivi”, ovvero quelle scorciatoie mentali che ci inducono ad analizzare le informazioni per blocchi, creando in noi delle abitudini che una volta acquisite non vengono più messe in discussione anche se potenzialmente errate.
  • Gli algoritmi analizzano con approccio statistico e tramite un numero finito di operazioni un’enorme quantità di dati alla ricerca di elementi comuni dai quali fare previsioni comportamentali sempre più precise.
  • Il deep learning, alla base dei sistemi di intelligenza artificiale, consente di progettare, sviluppare, testare e soprattutto istruire le reti neurali tramite gli algoritmi.
  • Le reti neurali sono dei modelli matematici molto complessi che si ispirano al funzionamento del cervello umano e, proprio come questo, hanno ancora un lato oscuro.
  • Le tecnologie attuali non ci consentono di capire cosa avvenga realmente nelle fasi di lavorazione dei dati, le nostre competenze ci permettono soltanto di sapere che a fronte di un determinato input otterremo un risultato ma cosa ci sia in mezzo è totalmente ignoto, questo è il nodo da sciogliere.

AI e big del web, un approccio sempre più prudente

Quel che è certo è che la questione non è semplice e possiamo affermare che solo quando la conosceremo in tutte le sue angolazioni, l’intelligenza artificiale sarà davvero sicura. Ma quel giorno è ancora lontano. Quindi, visto che tutte le ricerche dimostrano che allo stato attuale è molto difficile liberarsi dalle distorsioni dei sistemi di AI, è meglio adottare politiche prudenti – soprattutto quando si tratta di riconoscimento dei volti e di giustizia – come stanno facendo anche i big del web.

Google che ha implementato le proprie policy aziendali vietando lo sviluppo di tecnologie di AI che possano trasformarsi in armi o in strumenti di sorveglianza ed ha sospeso la collaborazione con il Pentagono per lo sviluppo di droni dotati di intelligenza artificiale.

Etica dei dati e ruolo dell’Europa

Dovremo essere in grado di sviluppare rapidamente un’etica dei dati, creare normative di ampio respiro e da questo punto di vista l’Europa potrà giocare un ruolo fondamentale; forse è questo il senso con il quale tra poco più di un mese la Commissione europea pubblicherà la prima versione del Codice Etico secondo cui l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani, degli animali e della natura.

In fondo si tratta di buon senso, quello che ancora oggi manca all’AI, un concetto talmente importante che DARPA, l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie per uso militare, investirà 2 miliardi di dollari per insegnarlo alle macchine con il rischio di estremizzare ulteriormente la divisione tra gli entusiasti che vedono un futuro roseo e ricco di opportunità e quelli che si sentono minacciati dalla supremazia delle macchine rispetto all’uomo.

Per quel che mi riguarda, sono naturalmente portato all’ottimismo e penso che da qui a quando avremo sviluppato sistemi di intelligenza in grado di valutare e correggere i pregiudizi, avremo anche realizzato una coscienza collettiva ed una serie di regole universali per definirne con certezza i limiti e le opportunità.

In conclusione

Quindi, esistono o no soluzioni? Ci troviamo di fronte ad un bivio molto importante, decidere se continuare a sviluppare un certo tipo di tecnologia o iniziare a subirla.

Buona parte del futuro dell’intelligenza artificiale dipenderà dalla nostra capacità di risolvere questioni che con le crescenti potenze di calcolo e l’aumento smisurato dei dati a disposizione rischiano di travolgerci prima di rendercene conto.

Sicuramente la sfida è molto ardita ed i big dell’informatica stanno già lavorando a software per mitigare i pericoli dei pregiudizi che possono nascondersi all’interno dei sistemi di AI, ma siamo ancora lontani da soluzioni definitive.

Non sono d’accordo nel voler considerare l’intelligenza artificiale come il reale pericolo tecnologico del nostro futuro, pur con tutti i difetti è innegabile ad esempio che i sistemi di riconoscimento facciale, già oggi diano un grosso contributo in ambiti come la ricerca di persone scomparse piuttosto che nel retail marketing, ma è altrettanto vero che poco più di un mese fa, 85 associazioni di diritti umani hanno inviato una lettera aperta ai big della Sylicon Valley per chiedere di ripensare questi sistemi e non è possibile ridurre un tema cosi delicato ad una discussione tra società civile ed aziende.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4