Intelligenza artificiale: a chi spetta definire l'etica? La risposta dei ricercatori | Agenda Digitale

tecnologia

Intelligenza artificiale: a chi spetta definire l’etica? La risposta dei ricercatori

I temi etici, finalmente, stanno prendendo piede nei tavoli di discussione sull’intelligenza artificiale. Tutto il settore ha iniziato a considerare in maniera diversa questi argomenti, a partire da alcune conferenze che hanno attivato nuove procedure di revisione degli studi da presentare. Ecco perché

15 Mar 2021
Andrea Benedetti

Data strategist

L’attenzione etica agli sviluppi dell’intelligenza artificiale cresce, per fortuna, sempre di più. E, sebbene siano in molti a stigmatizzare una eccessiva intrusione dell’ideologia nell’ingegneria, dal momento che la scienza degli algoritmi etici è solo agli inizi, è certamente un fatto positivo che siano sempre di più a ritenere indispensabile che la “data science” abbia solide basi etiche.

Per comprendere l’importanza di ciò di cui stiamo parlando, partiamo da due studi – che hanno esaminato la possibilità di ricostruire il volto di una persona partendo dalla sua voce – le cui implicazioni danno un quadro delle opportunità e dei rischi che corriamo.

Ricostruire un viso partendo dalla voce

Nel giugno 2019, durante un’importante conferenza sull’intelligenza artificiale a Long Beach, in California, chiamata Computer Vision and Pattern Recognition, è stato presentato il risultato di uno studio di intelligenza artificiale chiamato Speech2Face.

WHITEPAPER
Quali sono i 4 modi per trasformare e migliorare la pianificazione IT?
Amministrazione/Finanza/Controllo
CIO

Nel lavoro è stato studiato il modo di ricostruire un’immagine del viso di una persona partendo da una breve registrazione audio di quella stessa persona che sta parlando.

Secondo i realizzatori del modello, esiste una forte connessione tra il suo del parlato e l’aspetto del viso del parlante, parte della quale è un risultato diretto dei meccanismi di produzione del linguaggio: età, sesso (che influenza il tono della nostra voce), la forma della bocca, la struttura ossea del viso, labbra sottili o carnose: tutte caratteristiche in grado di influenzare il suono che viene generato.

AI, serve una regolamentazione che parli anche alle macchine: gli scenari

Come spiegano i ricercatori, è stato realizzato un modello di intelligenza artificiale che è stato addestrato tramite milioni di video, presi da internet/YouTube, di persone che parlano.

Durante la fase di apprendimento, il modello è in grado di comprendere le correlazioni voce-volto che gli consentono di produrre immagini in grado di valutare vari attributi fisici dei soggetti parlanti.

Così facendo, i ricercatori sono stati in grado di sviluppare un algoritmo in grado di generare immagini di volti partendo dalle registrazioni dei loro discorsi.

Qualche mese più tardi, nel dicembre 2019, durante la conferenza Neural Information Processing Systems (Neurips), un altro importante appuntamento sui temi dell’intelligenza artificiale, a Vancouver (Canada), è stato presentato un differente lavoro: Face Reconstruction from Voice using Generative Adversarial Networks.

Alla base, di fatto, ci sono gli stessi ragionamenti dello studio precedente: si affronta la sfida di ricostruire il volto di qualcuno partendo dalla sua voce, ipotizzando di rispondere a una domanda simile a “possiamo immaginare un volto di una persona che parla ma che non vediamo?”.

La posta in gioco

A seguito di questa presentazione si scatenò un dibattito sulla rete con diversi commentatori che, tra le altre cose, sottolinearono come la posta in gioco nella ricerca dell’intelligenza artificiale non fosse puramente accademica.

Altri sostennero che quando le conferenze più importanti, più blasonate, sull’intelligenza artificiale accettano e fanno presentare questo tipo di studi diventano meno credibili nel voler respingere potenziali applicazioni che vorrebbero presentare lavori e studi che consentono di valutare candidati (ad un colloquio di lavoro) tramite le loro caratteristiche facciali, oppure progetti che permetterebbero di “riconoscere terroristi dalle loro foto segnaletiche”.

Secondo Michael Kearns, scienziato presso l’Università della Pennsylvania e coautore di “The Ethical Algorithm”, siamo come dentro un nuovo Progetto Manhattan (come venne chiamato il programma di ricerca e sviluppo in ambito militare che portò alla realizzazione delle prime bombe atomiche durante la Seconda guerra mondiale) per l’intelligenza artificiale e l’apprendimento automatico.

Kearns sottolinea come “la ricerca accademica fatta nei campi del riconoscimento facciale può essere impiegata su vasta scala nella società e, per questo, bisogna avere una maggiore responsabilità.”

Nella stessa conferenza di dicembre, tipicamente sponsorizzata da aziende informatiche e tecnologiche, la presenza di uno stand della National Security Agency portò diversi partecipanti a sottolineare “la fatica di capire come questa presenza si adatti ai nostri ideali scientifici.”

Etica e AI, un territorio ancora tutto da esplorare

I temi di etica, finalmente, stanno prendendo piede e stanno portando sui tavoli di discussione molte domande: certamente è un tema abbastanza nuovo o, come dice qualcuno, un territorio che deve ancora essere esplorato.

Tutto il settore tecnologico ha iniziato a considerare in maniera diversa questi temi, iniziando da alcune conferenze che hanno implementato nuove procedure di revisione degli studi da presentare.

Nella conferenza Neurips 2020 – tenuta in maniera remota lo scorso dicembre – gli studi afferenti ricerche che potevano rappresentare una minaccia per la società sono stati respinti, decidendo di non presentarli.

È interessante notare come altre tipologie di ricercatori (si pensi a biologi, psicologi, antropologi, e così via) incontrano, durante i loro studi, diversi momenti in cui si interrogano su temi etici.

Questo non accade (o non accadeva) così spesso in ambiti puramente informatici.

La ricerca universitaria che coinvolge soggetti umani viene, generalmente, esaminata da un IRB (Institutional Review Board), ma la maggior parte dell’informatica non fa affidamento su queste modalità allo stesso modo.

Negli Stati Uniti, ad esempio, il Dipartimento della Salute e dei Servizi Umani chiede esplicitamente che un IRB valuti i possibili effetti a lungo termine dell’applicazione delle conoscenze acquisite nella ricerca, anche per evitare che i vari processi di approvazione possano poi essere bloccati all’interno del dibattito politico.

Nelle revisioni tra pari, poi, ci si aspetta che i revisori prestino attenzione a tutte quelle che sono le questioni metodologiche (come possono essere il plagio e il conflitto d’interesse) ma, tradizionalmente, non sono mai stati chiamati a considerare come un nuovo studio o una nuova invenzione potessero lacerare il tessuto sociale.

Da alcuni anni, diverse organizzazioni di ricerca sull’intelligenza artificiale hanno iniziato a sviluppare sistemi per affrontare l’impatto etico.

Un esempio è lo Special Interest Group on Computer-Human Interaction (SIGCHI) dell’Association for Computing Machinery che, in virtù del suo focus, si trova già impegnato a pensare al ruolo che la tecnologia potrebbe giocare nella vita reale delle persone.

La missione dichiarata del SIGCHI è il supportare la crescita professionale dei membri interessati a come le persone interagiscono con le tecnologie e come la tecnologia può essere in grado di cambiare la società.

A oggi, SIGCHI è la principale società internazionale per professionisti, accademici e studenti interessati alla tecnologia umana e all’interazione uomo-computer (HCI): dispone di un forum per la discussione di tutti gli aspetti dell’HCI attraverso oltre 20 conferenze sponsorizzate e oltre 40 in collaborazione, pubblicazioni, siti internet e altri servizi.

Già nel 2016 avviò un piccolo gruppo di lavoro che, nel tempo, si è trasformato in un comitato etico di ricerca: una commissione che esamina i lavori e i documenti che vengono presentati alle conferenze che vengono sponsorizzate o realizzate in collaborazione con il gruppo.

Nel 2019 le richieste ricevute furono solo dieci, per lo più riguardanti metodi di ricerca come, ad esempio, “quanto dovrebbero essere pagate le persone che collaborano alle ricerche?”, oppure “è lecito utilizzare i set di dati recuperati da siti web hackerati?”.

Dall’anno successivo divenne invece subito chiaro come le preoccupazioni dei ricercatori fossero ben più ampie e complesse, con domande precise sui possibili impatti che gli studi avrebbero potuto avere sulle persone.

I possibili impatti dell’intelligenza artificiale: quattro categorie

Secondo Katie Shilton – associate Professor, Information Studies, University of Maryland College Park – oggi presidente del comitato, sono quattro le possibili categorie da tenere in considerazione rispetto ai possibili impatti dell’intelligenza artificiale:

  • Algoritmi paragonabili ad armi contro le popolazioni: riconoscimento facciale, localizzazione, sorveglianza e così via.
  • Tecnologie, come potrebbe essere Speech2Face, che possono “inserire” le persone in categorie che non vanno bene, che non si adattano bene (come il genere o l’orientamento sessuale).
  • Ricerche relativa alle armi automatizzate.
  • Strumenti in grado di creare alternative alla realtà, come possono essere notizie / voci / immagini false.

Uno dei problemi alla base resta l’avere revisori che hanno buone conoscenze tecniche e che, quindi, possono essere molto utili alla comprensione delle ricerche, ma che non sono state addestrate ai temi dell’etica della ricerca.

Il livello di educazione etica che manca

Sapere quali domande porre (e quando porle) su uno studio può, di per sé, richiedere un livello di educazione etica che ancora manca a molti ricercatori. Inoltre, decidere se i metodi di ricerca sono etici è relativamente semplice rispetto alla messa in discussione degli aspetti etici dei potenziali effetti a valle di una tecnologia.

Una cosa è sottolineare quando un ricercatore sta facendo ricerche sbagliate, un’altra – molto più difficile – è dire “questa linea di ricerca non dovrebbe esistere”.

Da sottolineare che, se è vero che ci sono scienziati informatici che sembrano ignari delle preoccupazioni etiche, ci sono altri che sembrano essere contenti dei potenziali risvolti morali.

Un lavoro presentato alla conferenza Neurips del 2019, “Predicting the Politics of an Image Using Webly Supervised Data”, si basava su un algoritmo che aveva l’obiettivo di predire le tendenze politiche delle agenzie di stampa basate sulle foto che avevano deciso di pubblicare (l’algoritmo, tra le sue funzionalità, permette anche di ritoccare le foto per renderle più “liberali” o “conservatrici”, sostituendo micro-espressioni del volto, come potrebbe essere un cipiglio a un sorriso).

Il punto, notato da diversi ricercatori, era che sebbene l’algoritmo potesse essere utilizzato per identificare contenuti di parte, poteva anche essere utilizzato per generarlo.

All’inizio del 2018, durante la conferenza Ethics and Society, a New Orleans, un ricercatore ha presentato un modello in grado di utilizzare i dati della polizia per stimare se un crimine fosse legato a una gang.

Rispondendo a domande del pubblico, sulle possibili conseguenze non intenzionali della sua ricerca (ad esempio: i sospetti potrebbero essere etichettati erroneamente come membri di una banda?), lo studioso rispose – abbastanza scocciato – che era solo “un ricercatore”.

Nello stesso anno, un gruppo di ricercatori scrisse un post sul blog dell’Association for Computing Machinery (ACM), dal titolo “è ora di fare qualcosa: mitigare gli impatti negativi dell’informatica attraverso un cambiamento nel processo di revisione tra pari.”

Gli studiosi raccomandavano che il controllo etico che, fino a quel momento veniva applicato in maniera totalmente non strutturata, diventasse sistematizzato: “i revisori tra pari dovrebbero richiedere che i documenti e le proposte considerino rigorosamente tutti gli impatti più ampi sulla società, siano essi positivi o negativi”.

Brent Hecht, professore di informatica alla Northwestern University e tra gli autori del post, fece presente come “le persone non avevano pensato, almeno in alcun modo sistemico, di utilizzare le proprie capacità di revisione tra pari nel modo che noi suggeriamo”.

Le tecnologie di duplice uso e i mezzi per mitigare il rischio

Gli esperti di etica tecnologica chiamano le tecnologie che possono essere utilizzate sia per il bene che per il male come tecnologie di “duplice uso”. Quasi tutte le tecnologie sono in una certa misura a duplice uso: un martello può colpire un chiodo o rompere un osso, così come un cacciavite potrebbe essere usato come un’arma per ferire una persona.

La stessa polvere da sparo venne inventata in Cina nel IX secolo per scopi medicinali.

Per queste ragioni, i ricercatori hanno suggerito che, quando gli aspetti negativi sembrano prevalere su quelli positivi, i revisori tra pari dovrebbero richiedere agli studiosi di discutere di quali potrebbero essere i mezzi per la mitigazione dei rischi, anche attraverso altre tecnologie o decisioni politiche.

Per fare un esempio, è molto chiaro come – oggi – un governo repressivo potrebbe già utilizzare algoritmi in grado di stimare l’orientamento sessuale partendo dall’analisi delle foto del viso.

È però vero, come affermano diversi scienziati, che questo è inevitabile, per quanto ci si possa sentire offesi da modelli di intelligenza artificiale come questo. Certamente va accettato, ma va anche pensato a come affrontare questi problemi, anche se, come scrive ancora Kearns, “non vorrei vedere algoritmi che sono in grado di fare cose come queste con una giustificazione simile a ‘sviluppo questi modelli solo per far notare queste cose.’”

Da considerare poi, tra le altre cose, che (nel mondo informatico) la mitigazione funziona in modo diverso negli ambiti della sicurezza e dell’IA: la divulgazione di una vulnerabilità di sicurezza aiuta gli esperti di questi temi permettendo di realizzare e rilasciare le correzioni software in maniera rapida così da correggere l’errore.

Parlando di intelligenza artificiale, invece, è vero il contrario: potrebbe essere impossibile “correggere” un governo che, nel tempo, è diventato dipendente dalla sorveglianza oppure un pubblico che non vuole più fidarsi di ciò che legge, vede o sente – assuefatto da notizie di ogni tipo.

C’è chi propone che enti regolatori dovrebbero essere autorizzati a eseguire esperimenti sugli algoritmi, testando, ad esempio, i pregiudizi sistematici (come avvengono nella pubblicità) ma le riforme nell’ambito dell’informatica accademica sono importanti, ma sono pur sempre solo una parte del problema complessivo.

Per adesso, la ricerca negli ambiti dell’intelligenza artificiale è per lo più autoregolata anche se, in alcune conferenze, vengono formalizzate nuove norme: l’anno scorso, per la prima volta, l’Association for Computational Linguistics ha chiesto ai revisori di considerare gli impatti etici delle ricerche presentate.

La Association for the Advancement of Artificial Intelligence ha deciso di fare lo stesso seguendo l’esempio. Così, la conferenza Neurips ora richiede che i documenti discutano “il potenziale impatto più ampio del loro lavoro…sia positivo che negativo.”

Il dibattito tra tra ricercatori, sviluppatori, data scientist

Com’era prevedibile, questi nuovi requisiti sono diventati oggetto di accesi dibattiti tra ricercatori, sviluppatori, data scientist.

Se qualcuno ha sottolineato come questo requisito sia un’importante opportunità per “riflettere”, c’è anche chi ha considerato la cosa come uno scherzo aggiungendo “se mi fosse piaciuto scrivere narrativa, avrei scritto romanzi”.

Joe Redmon, un brillante ricercatore che, nel 2016, aveva sviluppato un pionieristico algoritmo di riconoscimento degli oggetti chiamato yolo (“You Only Look Once”), ha rivelato di aver smesso del tutto di fare ricerche sulla visione artificiale, a causa delle sue applicazioni in ambiti militari e di sorveglianza.

Andando nella direzione di un’analisi etica sempre più approfondita, c’è chi oggi ha implementato un secondo livello nel processo di revisione dei progetti e delle pubblicazioni: qualsiasi revisore può contrassegnare un documento in modo tale che venga analizzato da una giuria di tre esaminatori con esperienza negli ambiti dell’impatto sociale.

Nel 2020, su circa diecimila contributi, i revisori ne hanno segnalati alcune dozzine e, tra questi, quattro documenti che erano tecnicamente molto validi, sono stati respinti sulla base del feedback dei revisori etici.

È da notare che alcune persone, su Twitter, hanno protestato contro quella che hanno definito un’intrusione dell’ideologia nell’ingegneria ma, se sembra che ci sia una maggioranza silenziosa molto ostile all’etica, in realtà si percepisce quasi un senso di sollievo tra molti ricercatori per il fatto che queste cose possano finalmente essere discusse.

Conclusioni

Che sia importante lavorare sui temi etici è, ormai, un dato di fatto: problematiche legate ai social network, temi di pregiudizio, correttezza delle informazioni e razzismo – per citarne alcune – hanno certamente cristallizzato una consapevolezza importante.

La storia ha insegnato che gli scienziati fanno tipicamente un esercizio di cautela in anticipo: nel 1941, ad esempio, i ricercatori ritirarono i documenti che avevano presentato a Physical Review sul plutonio, trattenendoli fino alla fine della Seconda guerra mondiale, così come l’American Society for Microbiology ha un codice etico che vieta la ricerca sulle armi biologiche.

È vero che potrebbe essere impossibile allineare il comportamento di decine di migliaia di ricercatori che hanno motivazioni, background, finanziatori e contesti differenti e che, tra le altre cose, operano in un ambito in rapidissima evoluzione.

Eppure, di fatto, stiamo assistendo alla nascita di regole, norme, principi con un’attenzione mai vista prima.

candidati entro il 20/5
Tornano i Digital360 Awards! Partecipa al contest: oltre 160 CIO valuteranno il tuo progetto
@RIPRODUZIONE RISERVATA

Articolo 1 di 3