Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

prospettive

Sviluppo etico dell’Intelligenza artificiale: ecco perché la Ue deve avere una sola voce

L’intelligenza artificiale ha un enorme potenziale per migliorare sviluppo, ricerca e l’innovazione, ma occorre assicurarsi che venga usata eticamente e in modo equo e che i potenziali rischi siano adeguatamente gestiti e mitigati. Perciò è indispensabile e urgente una regolamentazione a livello UE e non dei singoli Stati

18 Giu 2019

Michele Gentili

consulente ICT e Digital transformation


Accanto agli innegabili vantaggi, sono concrete anche le possibilità che l’intelligenza artificiale aumenti le disuguaglianze e generi perturbazioni economiche, disordini sociali e persino instabilità politica, soprattutto nei paesi in via di sviluppo e in quei paesi in cui è presente un alto tasso di analfabetismo funzionale.

E l’Italia, lo ricordiamo, è il paese europeo con la maggiore quota di analfabeti funzionali davanti a Spagna e Grecia e siamo quarti a livello globale preceduti solo da Giacarta, Cile e Turchia, come rilevano i risultati dei test Pisa Ocse.

E’ dunque evidente come sia determinante una regolamentazione a livello europeo che garantisca un utilizzo equo ed etico dell’intelligenza artificiale.

AI, gli ambiti di sviluppo più promettenti

L’AI sarà molto influente in quanto può integrarsi con altre tecnologie e si applica a quasi tutte le attività di tecnologia dell’informazione e della comunicazione.

Per capire meglio come implementare l’intelligenza artificiale in modo etico ed equo nel contesto dello sviluppo, l’International Development Research Centre (IDRC) canadese ha pubblicato un white paper dal titolo Intelligenza Artificiale e Sviluppo Umano. Descrive i potenziali benefici e i rischi di questa nuova tecnologia e presenta un programma di ricerca proattivo per affrontare le sfide poste dall’intelligenza artificiale che sono di particolare interesse, soprattutto nei paesi in via di sviluppo.

Ciò che rende l’intelligenza artificiale “intelligente” è che può apprendere nuovi comportamenti, migliorare le sue prestazioni man mano che acquisisce esperienza, prende decisioni e fa previsioni basate sui dati disponibili. Questo particolare settore di questa tecnologia viene definito machine learning, ed è fondamentale in questa fase anche l’interazione tra l’algoritmo e l’umano, che può correggere o migliorare decisioni prese in autonomia che vanno ad incidere sulle decisioni autonome che l’algoritmo prenderà in futuro.

Gli algoritmi al centro di alcuni sistemi AI sono sempre guidati dai grandi set di dati, Big Data, ora disponibili attraverso le recenti rivoluzioni dei nuovi data base destrutturati. Le “capacità intelligenti” dei sistemi di intelligenza artificiale consentono l’automazione di determinati compiti e decisioni che, fino ad ora, richiedevano l’intervento umano.

Esiste, quindi, un beneficio potenziale enorme che l’intelligenza artificiale può apportare in tantissimi ambiti, soprattutto nelle economie in via di sviluppo, guidandole anche al raggiungimento di obiettivi di sviluppo sostenibile.

Agricoltura

Le applicazioni di Intelligenza artificiale possono fornire approfondimenti e soluzioni essenziali per migliorare l’efficienza e la qualità delle attività agricole.

L’AI è già utilizzata per supportare la gestione delle risorse idriche in molti paesi del mondo oltre al monitoraggio e la predizione di azioni per far fronte alla siccità (soprattutto in Africa). In alcuni paesi africani, gli agricoltori hanno accesso a strumenti che consentono l’identificazione e il monitoraggio delle infestazioni di colture prevenendoli ed attuando piani di disinfestazione.

Sviluppo economico

L’intelligenza artificiale ha il potenziale per guidare la crescita attraverso l’innovazione, l’aumento della produttività e l’ottimizzazione dei processi aziendali.

Soprattutto le start up e le piccole imprese stanno creando e accrescendo il loro business “intorno” ad attività innovative basate appunto sull’intelligenza artificiale. Altre società utilizzano piattaforme mobile di intelligenza artificiale per fornire accesso a servizi per soggetti disagiati che non hanno o non possono accedere a questi servizi attraverso le tecnologie tradizionali (PC).

Assistenza sanitaria  

L’IA può svolgere un ruolo cruciale nell’aumentare la capacità di assistenza sanitaria colmando le lacune nelle competenze umane, migliorando la produttività e migliorando la sorveglianza delle malattie infettive soprattutto nei paesi ad alto rischio di diffusione del contagio.

Efficienza e trasparenza del governo 

La fornitura di servizi e informazioni governative potrebbe essere migliorata utilizzando i sistemi di intelligenza artificiale per massimizzare i rendimenti sociali riducendo al minimo i costi finanziari. I sistemi AI possono fornire accesso automatizzato in più lingue e il processo decisionale di alto livello potrebbe essere migliorato automatizzando valutazioni complesse fondendo una serie di fattori tecnici, organizzativi e sociali, cosa molto complessa, se non impossibile, da fare in altro modo.

Istruzione e formazione

Le tecniche AI ​​possono essere utilizzate per supportare i ruoli di insegnanti, tutor e amministratori offrendo opportunità di apprendimento personalizzate su larga scala, come i sistemi di tutoraggio intelligente sviluppati in varie parti del mondo.

Riconsiderare i rischi e le debolezze dell’IA

Molti dei rischi dell’intelligenza artificiale sono già stati documentati nelle applicazioni del mondo reale, ma vale sicuramente la pena prendere in considerazione i più pericolosi:

Aggravare i pregiudizi sociali

I sistemi IA possono riflettere i pregiudizi e le assunzioni della società detenute dai progettisti o inerenti ai set di dati su cui si basano i loro algoritmi di base. L’uso di sistemi ingiusti per automatizzare i processi decisionali potrebbe amplificare l’impatto di queste distorsioni producendo sistematicamente risultati che svantaggiano particolari individui e gruppi, specialmente quelli che sono emarginati o che comunque hanno meno possibilità di anteporre una reazione a questa distorsione. Ad esempio, un programma utilizzato negli Stati Uniti per valutare il rischio di reiterazione di reato delle persone coinvolte nel sistema di giustizia penale ha riferito che gli imputati neri avevano quasi il doppio delle probabilità di essere ad alto rischio rispetto agli imputati bianchi. Un sistema di intelligenza artificiale autore di discriminazioni sarebbe incredibilmente dannoso anche nel campo del mercato del lavoro, se ad esempio fosse usato per scegliere i candidati più adatti per un data mansione o per altre scelte che arrechino un danno ad una razza rispetto ad un’altra.

Violazione della privacy

L’intenso uso di algoritmi di intelligenza artificiale può intensificare, in modo incontrollato, la capacità di sorveglianza e quindi portare delle minacce concrete alla privacy degli individui. Ad esempio, integrando il software di riconoscimento facciale con intelligenza artificiale, i sistemi TV a circuito chiuso, possono seguire le persone mentre si muovono attraverso le aree urbane. Tale monitoraggio generale potrebbe facilmente essere sfruttato per gli usi più disparati, sia sociali che politici. La sorveglianza incontrollata ha il potenziale di erodere la privacy in modo rapido e consistente, e capire e normare questo è di fondamentale importanza per i diritti fondamentali quali la libertà di espressione, di associazione e di dissenso rispetto a determinate politiche dominanti.

Ad esempio, SenseTime, l’azienda con head quarter ad Hong Kong, è una delle startup più attive nel campo dell’intelligenza artificiale. Grazie ad ingenti investimenti da parte di una cordata di investitori cinesi (soprattutto del colosso dell’e-commerce Alibaba) sta collaborando con le agenzie governative di Pechino soprattutto sul riconoscimento facciale. Il suo software è presente in oltre 100 milioni di dispositivi mobili made in Cina. Ed è presente anche in moltissime telecamere di sicurezza. Come ha scoperto la Bbc, in Cina esiste una rete di 176 milioni di telecamere di sorveglianza che controllano 1,3 miliardi di persone. Questa rete si sta espandendo rapidamente e le conseguenze per la privacy dei cittadini cinesi, ma potenzialmente di noi tutti, è veramente un incognita intollerabile.

Ricambio delle tipologie di lavoro

Con l’uso crescente dei sistemi di apprendimento automatico e di intelligenza artificiale in quasi tutti i settori dell’economia, l’automazione diffusa si estenderà oltre la produzione manifatturiera per influire soprattutto sui ruoli basati sul “possesso” della conoscenza e sulle decisioni prese sulla base della conoscenza stessa. Molte di queste figure/posizioni potranno essere parzialmente o interamente automatizzate, riducendo la necessità di lavoratori umani. Le stime sull’entità delle perdite di posti di lavoro dovute all’automazione variano notevolmente, ma si prevede che il ritmo del cambiamento sarà rapido, dando alle società e ai governi un tempo limitato per adeguarsi. E’ evidente che questo riscolto negativo dell’utilizzo della tecnologia è solo una faccia della medaglia. L’importante sarà intervenire nella giusta direzione per mettere in luce anche il risvolto della medaglia e cioè la possibilità di dedicare il lavoro umano a nuovi e più produttivi ambiti. Per questo però, serve rapidamente la cultura e la formazione altrimenti sarà impossibile non accusare la perdita di determinati tipi di lavori.

False notizie e disinformazione

In un mondo altamente connesso e dipendente dalle fonti di informazione online, la disinformazione è una vera e crescente minaccia alla stabilità e alla democrazia. Sfruttando la grande quantità di dati personali raccolti tramite i social media, le applicazioni AI possono facilitare e automatizzare campagne di propaganda comportamentale e di manipolazione di vasta portata. Le elezioni presidenziali americane del 2016, così come la Brexit nel Regno Unito, sono diventate dei noti esempi del ruolo della disinformazione mirata.

AI e Paesi in via di sviluppo: le ripercussioni

L’intelligenza artificiale, come abbiamo visto, può migliorare la produttività e l’innovazione in tutto il mondo e in tutti i settori. I benefici attesi promettono di essere disruptive, ma le ripercussioni negative potrebbero essere amplificate nei paesi in via di sviluppo, dove i mezzi di sostentamento di molte persone sono precari e le istituzioni a volte fragili. In più, ad aggravare le prospettive, c’è il fatto che mentre i rischi dell’intelligenza artificiale cominciano oggi ad essere affrontati dai paesi e dalle economie più avanzate, il mondo in via di sviluppo li sta totalmente trascurando.

La governance e la regolamentazione della tecnologia sono rudimentali, se non totalmente assenti in molti paesi in via di sviluppo che però, paradossalmente, stanno correndo molto sullo sviluppo della tecnologia.

L’Europa e gli interventi comunitari

Come abbiamo visto, è assolutamente indispensabile che l’unione europea e non i singoli stati provvedano a regolamentare questo ambito. Proprio per questo, l’8 aprile scorso è stata pubblicata la versione finale del documento “Ethics guidelines for trustworthy AI” la cui bozza era stata presentata il 18 dicembre 2018 (leggi qui per approfondire ). Il documento è stato redatto da un gruppo di esperti (High-Level Expert Group on Artificial Intelligence) nominato direttamente dalla Commissione Europea.

Lo scopo delle linee guida è stato proprio quello di promuovere l’implementazione di una AI “affidabile”. Per essere considerata tale sono tre gli aspetti che debbono essere considerati:

  • Conformità rispetto alla legislazione
  • Perseguimento di principi e valori etici
  • Corretta strutturazione tecnico e “sociale” per evitare che le migliori intenzioni iniziali di un sistema AI, non si traducano in effetti indesiderati.

Ciascuna componente è necessaria ma non sufficiente per raggiungere l’affidabilità ricercata. Solo se le tre componenti coesistono e vengono totalmente realizzate, si raggiunge un livello adeguato. La strada sembra quella che è stata imboccata con il GDPR (il regolamento per la protezione dei dati personali): Fissare regole che valgono per tutti e a tutela dei consumatori e delle aziende.

Bene dunque, ma che si arrivi fino in fondo e al più presto, prima che le norme non siano superate dallo stato dell’arte della tecnologia stessa.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4