Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

progressi e pericoli

L’Intelligenza artificiale sfida il buon senso e le emozioni: ecco perché

Da Tay di Microsoft a Bert di Google, passando per le chatbot di Facebook e Allen Institute, si moltiplicano i sistemi in grado di riconoscere forme di linguaggio parlato e auto-organizzare modelli conversazionali, ma i rischi sono molti, soprattutto quando entrano in gioco tecnologie di riconoscimento facciale ed emotivo

13 Dic 2018

Mauro Lombardi

Laboratorio di Economia dell’Innovazione L.E.I “Keith Pavitt” (PIN-UNIFI)


L’intelligenza artificiale compie progressi importanti ogni giorno che passa: migliorano notevolmente le performance nel riconoscimento delle forme di linguaggio parlato e le tecnologie di riconoscimento facciale e comportamentale delle persone. Ma mai come in questo caso vale la pena non andare di fretta. Farsi una piacevole chiacchierata con l’AI potrebbe essere interessante ma è meglio procedere con cautela per tutta una serie di motivi che andremo ora a esaminare.

Il mondo dell’Intelligenza Artificiale (IA) è in perpetuo subbuglio: nuovi e sempre più “intelligenti” sistemi di software sono in grado non solo di apprendere forme più complesse di linguaggio naturale, ma anche di completare frasi incompiute, sia pure di livello ancora elementare (Metz, Finally, a Machine That Can Finish Your Sentence, New York Times, 18-11-2018) (al momento si assiste a un scontro tra gli assistenti vocali di Alibaba e Google Duplex, che un po’ riassume anche lo scontro Cina-Usa sull’AI, ndr.)

Zellers et al. (2018) hanno recentemente presentato SWAG, un meccanismo inferenziale basato sul buon senso e capace di dedurre –in base a dataset organizzati in contrasto tra loro (adversarial, controfattuali) – conclusioni ragionevoli da 113.000 domande a scelta multipla.

Tay, Bert e le chatbot conversazionali

Manca poco allora, secondo la battuta di alcuni esperti, per concedere all’IA il piacere di una chiacchierata? (Metz e Collins, To Give A.I. the Gift of Gab, Silicon Valley Needs to offend You, New York Times, 21-2-2018).

Microsoft ha in effetti tentato tempo fa l’esperimento di un agente artificiale dialogante, chiamato Tay. Questo sistema conversazionale computerizzato, progettato per dialogare con persone spigliate e abbigliate secondo stili non convenzionali (giovanili e altro), ripetendo ciò che apprendeva, ha mostrato qualche difetto di costruzione, perché non ha lesinato forme espressive volgari, razziste e in qualche caso offensive. Ritirato, per evitare situazioni imbarazzanti e quasi certe azioni legali, i ricercatori di Microsoft e l’industria dei chatbot hanno poi sviluppato più sofisticati sistemi algoritmici essenzialmente basati su reti neurali a molti strati (Deep Learning, DL), che scoprono configurazioni o “pattern” (schemi) linguistici, sulla base dei quali si auto-organizzano modelli conversazionali.

Ricercatori di Google hanno recentemente pubblicato BERT (acronimo di Bidirectional Encoder Representations from Transformers), che di fatto perfeziona gli strumenti inferenziali utilizzati a livello internazionale (circa 11 sistemi di Natural Language Processing) migliorando notevolmente la performance nel riconoscimento delle forme di linguaggio parlato, soprattutto interpretando correttamente le ambiguità e le incertezze.

BERT può superare “test di buon senso” dell’Allen Institute, partner del progetto, così come il sistema elaborato da OpenAI, associazione di ricercatori indipendenti: Open-AI system ha vinto l’ultima competizione internazionale tra chatbot, a cui ha partecipato anche il Facebbok AI-Lab (The Conversational Intelligence Challenge 2 (Conv AI2). Metz e Collins, citati prima, riportano l’opinione di Sam Bowman, professore presso la New York University: “sono stati fatti notevoli passi in avanti nell’IA verso tecnologie che possono raccogliere e sintetizzare grandi e confusi volumi di informazioni, in modo da aiutare le persone nei loro processi decisionali”.

Una chiacchierata con l’AI

Siamo quindi vicini a sostenere una piacevole conversazione con agenti artificiali? Occorre procedere con una certa prudenza per ragioni di varia natura, che cercheremo di esporre brevemente.

Solo quattro anni sono passati da quando Jan Goodfellow, allora studente di dottorato all’Università di Montreal e ora ricercatore di Google Brain Lab, tirò fuori l’idea di reti generative antagoniste (Generative Adversarial Networks, GANs). L’idea è stata concepita durante una discussione, dopo una bevuta con amici in un bar di Montreal. Tornato a casa un po’ deluso dalla diffidenza dei suoi compagni, ha invece dato seguito alla sua ipotesi e nel corso della notte ha creato sul suo laptop un GAN, che essenzialmente consiste nel mettere una contro l’altra due reti neurali, in modo che l’una estragga informazioni da un enorme ammontare di dati (ad esempio una foto e la comprensione di linguaggio parlato), e l’altra contrasti gli output, cercando inserire nella prima le sue valutazioni. Il fatto che reti a molti strati siano capaci di distinguere foto vere da quelle false le rende altresì abili nel produrre direttamente fake photos (Metz e Collins, How an A.I. ‘Cat-and-Mouse Game’ Generates Believable Fake Photos, New York Times, 2-1-2018).

Da Tay a Bert, il numero crescente di chatbot prossimi ad una conversazione accettabile per gli umani sembra indicare un progresso continuo verso interlocutori artificiali sempre più gradevoli per l’intelligenza umana. È proprio così?

Per rispondere al quesito prendiamo in esame qualche altro aspetto, che dovrebbe indurre esperti, autorità del mondo tecnico-scientifico e dell’apparto istituzionale, filosofi e politici ad una attenta riflessione. Dall’esperienza di Tay abbiamo appreso l’esistenza del rischio che queste forme di apprendimento automatico “non supervisionato” possano riprodurre in modo amplificato tendenze e comportamenti non proprio accettabili da tutti gli esseri umani. La prospettiva diviene ancora più problematica se si osservano gli sviluppi delle tecnologie di riconoscimento facciale e comportamentale delle persone. È infatti crescente l’impiego di reti neurali di varie tipologie (in primo piano i GANs di Goodfellow) per analizzare emozioni e sentimenti (feelings) delle persone nelle più varie situazioni.

Kuntz et al (2018) hanno analizzato le espressioni facciali di persone impegnate nella risoluzione di problemi: giocatori di scacchi sono stati esaminati attraverso la messa a fuoco di canali non verbali, valutando la concentrazione (dilatazione delle pupille), i movimenti di parti del corpo, osservazione di Facial Action Units, fissità dello sguardo, micro-espressioni facciali rivelatrici di eccitazione, variazioni del ritmo cardiaco, lettura delle labbra, ecc.

Un insieme di tecnologie, dirette a catturare le emozioni mediante analisi multimodali, cioè molte variabili riferite a micro-manifestazioni corporee, si stanno diffondendo negli Stati Uniti e in Paesi meno attenti sul piano delle libertà democratiche (Cina e Venezuela su tutte).

Riconoscimento facciale ed emotivo, i rischi

Il Rapporto 2018 del AI Now Institute, che comprende persone che lavorano per molte società impegnato nell’IA, tra cui Google e Microsoft, indica chiaramente i rischi della diffusione di sistemi di riconoscimento facciale ed emotivo (affect recognition) in vari ambiti: operazioni di polizia, finanza, processi formativi, sanità, welfare, amministrazione della giustizia. Vi sono pericoli reali, già concretizzatisi negli Stati Uniti, di meccanismi ingiusti di esclusione dal welfare e di valutazioni errate di prestazioni degli studenti, oppure ancora di identificazioni del tutto fuorvianti di persone, di decisioni prese sulla base di non corrette interpretazioni delle personalità, come nel caso di crediti rifiutati, servizi di welfare discriminanti, ecc.

Per non parlare degli errori o deformazioni clamorose: l’applicazione di algoritmi di mapping tra database facciali di persone arrestate e foto dei membri del Congresso ha portato ad individuare false corrispondenze in decine di casi, in prevalenza di pelle scura.

Le tre obiezioni dell’AI Now Institute Report

Le obiezioni dell’AI Now Institute Report sono essenzialmente di tre tipi:

  • gli sviluppi dell’IA avvengono senza alcun esercizio di funzioni di monitoraggio e controllo da parte di organismi indipendenti, onde evitare ingiustizie, iniquità, sperimentazioni senza regole con bias incorporati. La conseguenza è che vi è un gap crescente tra ricerche in IA e responsabilità verso gli effetti delle scelte strategiche, con evidente mancanza di imparzialità e trasparenza.
  • Le conoscenze tecnico-scientifiche alla base delle recenti innovazioni sono parziali, incomplete e difettose, come dimostra l’esempio appena citato, per cui siamo di fronte a una serie di black box al momento verificabili solo a posteriori. Non è peraltro da sottovalutare il fatto che non siano evitate traiettorie di ricerca tali da reintrodurre in forma diversa visioni pseudo-scientifiche, incorporate nella fisiognomica e nella frenologia, screditate e giustamente abbandonate dall’evoluzione scientifico-culturale dell’umanità begli ultimi secoli.
  • L’IA, da ambito interdisciplinare sta sempre più trasformandosi in disciplina esclusivamente tecnica, che esclude ogni considerazione di temi e questioni poste da altre discipline come quelle umanistiche e sociali. L’effetto complessivo è quello di generare spinte verso un crescente impiego, da parte delle Istituzioni, di sistemi decisionali automatizzati, per decisioni basate su insiemi strutturati di regole che codificano mediante tassonomie non adeguatamente fondate comportamenti e processi di selezione, con una perdita complessiva di controllo da parte degli umani.

A questo punto sarebbe necessario sviluppare una riflessione approfondita sui processi decisionali umani e artificiali, che rinviamo ad un successivo contributo. Non possiamo però esimerci dal riprendere una interessante affermazione di Pedro Domingos, autore del volume “The Master Algorithm”:

“People worry that computers will get too smart and take over the world, but the real problem is that they’re too stupid and they’ve already taken over the world”.

____________________________________________________________

BIBLIOGRAFIA

Guntz, Crowley J.L., Vaufreydaz D.,, Balzarini R-., 2018, Philippe Dessus The Role of Emotion in Problem Solving: First Results from Observing Chess, arXiv:1810.11094v1 [cs.HC] 17 October.

Zellers T., Bisk Y., Schwartz R., Choi Y., 2018, Swag: A Large-Scale Adversarial Dataset for Grounded Commonsense Inference, arXiv:1808.05326v1 [cs.CL] 16 August.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4