L'intelligenza artificiale influenza la nostra vita: gli esempi 2020-2021 | Agenda Digitale

il bilancio

L’intelligenza artificiale influenza la nostra vita: gli esempi 2020-2021

Il bilancio dell’anno passato mostra una crescita del peso dell’AI nelle nostre vite. Ma anche segnali che ci permettono di essere moderatamente ottimisti circa il contrasto all’abuso dei sistemi di intelligenza artificiale. Ecco il quadro

11 Feb 2021
Danilo Benedetti

Security Solutions Architect

L’intelligenza artificiale nel 2020 si è introdotta con più determinazione nelle nostre vite. Nel bene e nel male.

Al tempo stesso, si vede aumentare il dibattito sui risvolti etici di questa tecnologia.

Certo nei prossimi mesi questa tendenza si confermerà. Tendenza che ha ricevuto un’ulteriore accelerazione a causa della pandemia Covid-19 e la conseguente espansione dell’uso di tecnologie informatiche per lo smart working e per la didattica a distanza.

Come l’AI ha influito sulle nostre vite nel 2020

Alcuni esempi di sistemi di intelligenza artificiale che possono influire molto sulle vite dei cittadini, come si è visto nei mesi scorsi.

  • Software per scoraggiare la pratica di “barare” agli esami, introdotti da alcune università, capaci di analizzare le espressioni del volto degli studenti ripresi durante i test accademici dalla telecamera dei propri PC, per individuare atteggiamenti che possono far sospettare il tentativo di copiare o ricevere aiuto nel completare il test[1].
  • Tecniche di riconoscimento del volto usate per identificare altre caratteristiche della persona. Ad esempio, in uno studio del 2017 gli autori affermavano di aver sviluppato un sistema di IA in grado di riconoscere, con affidabilità di oltre il 70%, l’orientamento sessuale delle persone partendo da una loro fotografia[2]. Su premesse analoghe, che potremmo far risalire alla Frenologia del Lombroso, si basa il prodotto commerciale HireVue, impiegato da aziende di primo piano per identificare i candidati all’assunzione che hanno più probabilità di divenire “top performer”, grazie all’uso di algoritmi per analizzare le espressioni facciali ed i movimenti del volto dei candidati[3].
  • Sistemi utilizzati per sorvegliare i dipendenti che lavorano da remoto e valutarne la produttività, utilizzando un ventaglio di indicatori che vanno dalle modalità di utilizzo di mouse e tastiera, all’analisi dei siti visitati, all’uso della telecamera del PC per verificare l’effettiva presenza del dipendente alla sua postazione[4] e così via.
  • Algoritmi “anti frode” introdotti da alcune pubbliche amministrazioni, anche in Europa, per profilare i percettori di benefici pubblici ed individuare eventuali situazioni che possono far sospettare un tentativo di frode.
  • Ma non dimentichiamo – per quanto riguarda l’influenza positiva sulle nostre vite – anche il ruolo dell’AI per trovare un vaccino e farmaci anti covid-19.

L’analisi big data che ragiona diversamente da noi

In realtà il tentativo di delegare all’algoritmo decisioni che sono state, e forse dovrebbero restare, appannaggio degli umani non è una deriva recente, ma piuttosto un elemento che ha accompagnato l’evoluzione dell’Intelligenza Artificiale e prima ancora dei big data. In parte questi tentativi nascono dalla necessità di automatizzare il trattamento delle moli sempre più cospicue di dati che vengono generati, ed in parte dalla convinzione che l’algoritmo permetta di ottenere prestazioni migliori – più veloci, più precise, più equilibrate – di quelle umane, proprio grazie alla grande mole di dati da cui può attingere.

Infatti già nel 2008 la popolare rivista di tecnologia “Wired” pubblicava un articolo dal titolo “La fine della teoria: il diluvio di dati rende obsoleto il metodo scientifico”[5], in cui si sosteneva che l’analisi di tipo “Big Data” permetteva di superare la necessità di una teoria – ovvero una spiegazione coerente e ragionevolmente compatta di un insieme di fenomeni, tipica del ragionamento umano – come strumento per comprendere il mondo. Questo passaggio dell’articolo riassume benissimo il concetto: “Ora c’è un modo migliore [dello sviluppo di teorie]. I petabyte ci permettono di dire: “La correlazione è sufficiente.” Possiamo smettere di cercare modelli. Possiamo analizzare i dati senza ipotesi su ciò che potrebbero mostrare. Possiamo gettare i numeri nei più grandi cluster informatici che il mondo abbia mai visto e lasciare che gli algoritmi statistici trovino modelli che la scienza non riesce a trovare”.

Alcuni degli esempi visti sopra non sono altro che la logica evoluzione di questo pensiero: abbiamo i dati storici, quindi qualunque sia la nostra “domanda” (orientamento sessuale, prestazioni lavorative, inclinazione a profittare dei benefici pubblici[6]) possiamo “darli in pasto” ad un algoritmo che ci permetterà di vedere e prevedere efficacemente il comportamento umano.

AI e responsabilità aziendale: qualcosa si muove

Nonostante queste premesse poco rassicuranti, qualcosa inizia a muoversi sia nell’ambito della responsabilità aziendale sia – e forse è ancora più importante – nella percezione del pubblico. Un esempio del primo caso è stata la decisione, da parte di IBM, Amazon e Microsoft di sospendere la vendita delle loro tecnologie di riconoscimento dei volti alle polizie, dopo che a lungo gli attivisti dei diritti umani avevano denunciato l’inefficacia e la polarizzazione di questi sistemi, che finivano per penalizzare le persone di colore e le minoranze più in generale[7].

Dal punto di vista della percezione del pubblico possiamo citare una manifestazione di studenti di fronte al dipartimento dell’educazione inglese, avvenuta ad agosto dello scorso anno: al canto di “F**k the algorithms” gli studenti hanno spinto lo stesso dipartimento a sospendere l’utilizzo di un sistema automatico studiato per assegnare i voti degli esami agli studenti[8]. L’ironia di quest’ultimo caso è che l’utilizzo dell’algoritmo era stato sancito per limitare il fenomeno della polarizzazione dei voti assegnati dai professori in carne ed ossa, solo per poi scoprire che l’algoritmo stesso era affetto da una polarizzazione analoga che tendeva a premiare gli studenti di scuole private. Sempre in questo ambito, le recenti dimissioni del governo olandese presieduto da Mark Rutte dovrebbero costituire un campanello d’allarme per tutti quei politici che vogliano incamminarsi lungo la strada dell’automazione di scelte politiche e sociali.

Aiutare l’AI a crescere senza danneggiare l’umanità: cinque strategie

WHITEPAPER
Vuoi aggiungere valore ai tuoi prodotti? Scopri com'è possibile con l’Intelligenza Artificiale
Big Data

Conclusioni

Assistiamo con sempre maggior frequenza alla nascita di sistemi che fanno un uso moralmente spregiudicato dell’intelligenza artificiale.

Ciò non solo pone quesiti etici molto delicati, ma espone al rischio di sviluppare e promuovere l’uso di sistemi intrinsecamente “polarizzati”, come ad esempio il caso del sistema utilizzato da Amazon per valutare i curriculum dei candidati che, si scoprì, aveva una forte prevenzione anti-femminile.

Ai rischi ed ai danni derivanti da questi usi eticamente dubbi si aggiunge l’espansione della civiltà del controllo, con un proliferare di “piccoli fratelli” molto occhiuti, il cui scopo è sorvegliare i nostri comportamenti a scuola, sul lavoro, nelle strade e ovunque qualche esigenza, vera o presunta, di sicurezza, giustizia o efficienza possa fare da battistrada per l’introduzione di nuovi sistemi di monitoraggio dei cittadini, sempre ovviamente per il maggior bene degli stessi cittadini.

Nonostante questi innumerevoli elementi di attenzione, il bilancio dell’anno appena passato mostra anche segnali che ci permettono di essere moderatamente ottimisti.

Possiamo dunque affermare che le aziende, il pubblico e la politica sono sempre più coscienti delle potenzialità e dei rischi, per le libertà e il benessere delle persone, legati allo sviluppo e all’utilizzo di sistemi di Intelligenza Artificiale. L’obiettivo dei prossimi anni sarà dunque quello di consolidare le linee guida etiche e un corrispondente apparato normativo, capace di indirizzare lo sviluppo dell’IA in direzioni che possano essere davvero a beneficio di tutti, e non solo appannaggio di pochi.

_______________________________________________________________________

NOTE E BIBLIOGRAFIA

  1. Patil, A., Bromwich J. A.: “How It Feels When Software Watches You Take Tests”, New York Times, Settembre 2020
  2. Eang Y., Kosinsky M. “Deep neural networks are more accurate than humans at detecting sexual orientation from facial images.”, American Psychology Association, 2018
  3. Harwell D., “A Face-scanning algorithms increasingly decides whether you deserve the job”, Washington Post, Ottobre 2019
  4. Edelman, G. G., “Work-at-home AI surveillance is a move in the wrong direction”, VentureBeat, July 2020
  5. Anderson, C.: “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete”, Wired, Giugno 2008
  6. Il 15 gennaio 2020 si è dimesso il governo olandese presieduto da Mark Rutte, a causa di uno scandalo legato a false accuse di frode nella percezione di prestazioni di welfare per le famiglie, almeno in parte dovute ad analisi effettuate da algoritmi.
  7. Heilweil, R. “Big tech companies back away from selling facial recognition to police. That’s progress”, Vox, Giugno 2020
  8. Hao, K. “The UK exam debacle reminds us that algorithms can’t fix broken systems”, Mit Technology Review, August 2020

@RIPRODUZIONE RISERVATA

Articolo 1 di 3