Aiutare l'AI a crescere senza danneggiare l'umanità: cinque strategie | Agenda Digitale

le proposte

Aiutare l’AI a crescere senza danneggiare l’umanità: cinque strategie

Come può l’intelligenza artificiale continuare a innovare e innovarsi e al tempo stesso ridurre i rischi di discriminazione ed errore che spesso comporta? Dal mondo della ricerca dell’AI emergono cinque idee

11 Feb 2021
Danilo Benedetti

Security Solutions Architect

Possiamo proporre cinque strategie per aiutare l’Intelligenza Artificiale a crescere senza mettere in pericolo i diritti dei cittadini. Alcune idee che traiamo dal dibattito in corso negli Usa, in particolare quello promosso dal Mit Technology Review.

Ridurre l’influenza delle grandi aziende sulla ricerca

La ricerca nel settore dell’intelligenza artificiale è al momento guidata dai “giganti” di Internet, che la indirizzano verso quegli usi che ottimizzano i propri modelli di business e incrementano i profitti, privilegiando quegli algoritmi che meglio sanno mettere a frutto le grandi moli di dati di cui dispongono, realizzando modelli sempre più grandi, complessi e costosi. Questo lascia poche risorse disponibili per esplorare altri usi possibili e limita la possibilità di indagare sulle conseguenze che i risultati di tali ricerche possono avere.

WHITEPAPER
Come far crescere il business? Fai emergere tutto il potenziale dei dati!
Intelligenza Artificiale

Questa influenza è principalmente di natura finanziaria: la grande disponibilità economica di questi attori gli permette di attrarre i maggiori talenti nel settore e di finanziare i progetti più ambiziosi.

Per garantire che la ricerca possa muoversi anche su altre direttrici, è opportuno che i Paesi si dotino di proprie strategie relative all’intelligenza artificiale, finanziando la ricerca indipendente nel settore.

L’intelligenza artificiale influenza la nostra vita: gli esempi 2020-2021

Rifocalizzare la ricerca verso la comprensione piuttosto che limitarsi al riconoscimento di pattern.

La ricerca è stata recentemente indirizzata principalmente verso i sistemi in grado di riconoscere e/o replicare i pattern: i sistemi di IA di maggior successo, anche commerciale, sono sistemi capaci di identificare immagini, volti, linguaggio, utilizzando insiemi di apprendimento sempre più estesi.

Questo orientamento, anche grazie ai risultati spesso straordinari sin qui ottenuti, ha messo in ombra uno degli obiettivi originali degli studi di intelligenza artificiale, la comprensione. È vero che non è escluso che la crescita dimensionale dei modelli possa produrre capacità “emergenti” di comprensione simili al “buon senso”, ma ci sono altre direttrici di ricerca che provano ad inserire la comprensione fin nelle fasi di progettazione degli algoritmi, che meritano una maggiore attenzione.

Un esempio sono le ricerche sull’IA neurosimbolica[1], che tenta di fondere il deep learning con l’uso di sistemi di simbolici della conoscenza. In altri casi, si sta sperimentando la possibilità di utilizzare tecniche probabilistiche per effettuare il training utilizzando un volume minore di dati, traendo ispirazione dalla capacità dei bambini di imparare sfruttando pochissimi esempi.

La speranza è che queste ricerche possano produrre sistemi più robusti dal punto di vista tecnico ed anche meno suscettibili ad attacchi sferrati con tecniche di adversarial machine learning.

Creare gruppi di lavoro meno omogenei (più inclusivi)

Alcuni hanno fatto notare che la polarizzazione in alcuni casi presente nei sistemi di Intelligenza Artificiale può dipendere dalla mancanza di diversità negli stessi team di ricerca e sviluppo, spesso omogenei per sesso, estrazione sociale ed etnia. Questa omogeneità influisce negativamente sulla capacità dei ricercatori di identificare le scelte, spesso anche inconsce, che per loro natura possono portare allo sviluppo di un sistema intrinsecamente polarizzato. Un caso classico è il riconoscimento dei volti, che funziona con meno errori sui volti caucasici, mentre il tasso di errore cresce, a volte molto significativamente, nel caso del riconoscimento dei volti delle persone di colore[2].

Promuovere la presenza di ricercatori e specialisti di diversa estrazione può essere la strada corretta per identificare sin dalle fasi iniziali dello sviluppo, quelle “assunzioni nascoste” che inevitabilmente porteranno allo sviluppo di sistemi non adeguatamente bilanciati.

Riflettere sugli impatti che le tecnologie possono avere sulla comunità

Con obiettivi simili a quelli posti nel precedente punto, un’altra proposta recentemente avanzata è quella del cosiddetto machine learning partecipativo. L’obiettivo di questa iniziativa è ridisegnare il processo di sviluppo dell’IA per includere anche coloro che saranno i soggetti su cui gli algoritmi saranno applicati. La volontà di procedere in tal senso nasce dalla constatazione dell’asimmetria decisionale tra i progettisti degli algoritmi di machine learning (ML) rispetto agli individui che invece saranno influenzati dal sistema e dalle sue “decisioni”.

A luglio si è tenuta la prima conferenza dedicata a questo approccio[3], che ha raccolto un’ampia gamma di idee su come potrebbe configurarsi il machine learning partecipativo. I suggerimenti includono nuove procedure di governance per sollecitare il feedback della comunità, nuovi metodi di controllo dei modelli per informare e coinvolgere il pubblico e proposte di riprogettazioni dei sistemi di intelligenza artificiale per dare agli utenti un maggiore controllo delle loro impostazioni.

Introdurre leggi che regolamentino il settore

I tentativi di regolamentazione del settore sono, ad oggi, principalmente rappresentati da interventi ex-post tesi a limitare i danni causati da sistemi di IA impropriamente attivati senza adeguati controlli preventivi. L’obiettivo futuro è per le autorità nazionali e internazionali, l’introduzione di limiti e regolamenti più stringenti e, soprattutto, preventivi. Questa esigenza si è già fatta strada nella politica di molti paesi, che infatti promuovono ricerche e studi per garantire uno sviluppo armonico dell’Intelligenza Artificiale. Nel 2019 gli Stati Uniti hanno rilasciato una linea guida per la regolamentazione delle applicazioni di Intelligenza Artificiale, mentre l’Unione Europea attraverso il suo High-Level Expert Group on AI (AI HLEG) ha rilasciato due documenti, le linee guida etiche per una Intelligenza Artificiale affidabile[4] e, sempre nel 2019, il documento di raccomandazioni circa le policy e gli investimenti per un’Intelligenza Artificiale affidabile[5].

BIBLIOGRAFIA

  1. Ananthaswamy, A. “AI’s next big leap”, Knowable Magazine, Ottobre 2020
  2. Si veda, dello stesso Autore “Riconoscimento automatico del volto: i rischi della tecnologia”, pubblicato su Agenda Digitale ad aprile 2019
  3. Si veda il sito web dell’iniziativa: https://participatoryml.github.io/
  4. “Ethics guidelines for trustworthy AI”, Commisione Europea, Aprile 2019
  5. “Policy and investment recommendations for trustworthy Artificial Intelligence” , Commissione Europea, Giugno 2019
@RIPRODUZIONE RISERVATA

Articolo 1 di 4