Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

ia distribuita

L’Intelligenza artificiale nelle mani di pochi: i rischi che l’Europa deve sventare coi fatti

La Ue continua ad affrontare le sfide concrete dell’intelligenza artificiale sul piano teorico. Ben vengano le raccomandazioni degli esperti, spesso corrette e sensate, ma il governo dell’IA va posto sul piano operativo, evitando che lo sviluppo sia appannaggio di pochi monopolisti. Un approccio per coglierne i vantaggi

12 Lug 2019
Guido Vetere

Università degli Studi Guglielmo Marconi


L’Europa non sembra ancora aver compreso in pieno che l’unico modo per cogliere i vantaggi dell’Intelligenza Artificiale è quello di creare le condizioni di equilibrio del mercato: solo così si potranno infatti promuovere politiche di promozione di una IA affidabile e che non crei ulteriori diseguaglianze all’interno di società e tra Paesi.

Intelligenza artificiale e monopolismo dei dati

Di fatto, invece, di fronte alla possibilità, assai concreta, che la combinazione tra Intelligenza Artificiale e monopolismo dei dati porti a cambiamenti drammatici (non in senso anglosassone) nelle economie europee l’impressione, nel complesso, è quella di una Unione europea che non abbia altro da mettere in campo se non le proprie consuetudini: gruppi di studio, linee guida, monitoraggi, assessment, convegni, simposi, reti di ricercatori, piccoli finanziamenti.

Da una parte si parla, non senza toni enfatici o apocalittici, di quarta rivoluzione industriale, di nuovi equilibri geopolitici, di fine del lavoro, dall’altra si affidano discussione ed elaborazione strategica alla Direzione generale per le reti di comunicazione, contenuti e tecnologie (DG CONNECT) e a qualche steering commitee da cui esce, dopo mesi di lavoro, qualcosa che fatalmente si colloca tra la presa d’atto e il wishful thinking.

Anche alla sfida portata dall’Intelligenza Artificiale, che sta producendo cambiamenti profondi nella vita sociale, l’Europa risponde, al momento, schierando un gruppo di studio: l’High-Level Expert Group on Artificial Intelligence (AI HLEG). Gli Stati membri, dal canto loro, studiano già da qualche tempo l’avvento dell’IA, ed anche in Italia, dopo la Task Force AgID, è ora al lavoro un gruppo di esperti del MISE.

Una IA affidabile

Cosa dicono tutti questi esperti? Nel documento di raccomandazioni rilasciato recentemente dall’AI HLEG, la frequenza relativa (il rapporto tra frequenza nel documento e frequenza assoluta) del verbo foster (promuovere), dell’ausiliario should (dovrebbe) e dell’aggettivo trustworthy (affidabile) balza agli occhi di qualsiasi sistema di analisi statistica del linguaggio. Una IA potrebbe allora sintetizzare il documento che la riguarda in questo modo: l’Europa dovrebbe promuovere una IA affidabile.

Le raccomandazioni degli esperti sono corrette e sensate, talune perfino importanti, ma raramente varcano la soglia del generico (si può leggere un agevole fact-sheet). Il capitolo più incisivo è sicuramente quello dove si illustra, numeri alla mano, la sproporzione tra le risorse messe a disposizione dall’EU (circa 2,5 Miliardi per i prossimi anni) e gli investimenti pubblici e privati nelle economie concorrenti come gli USA e la Cina.

Eppure, i cambiamenti portati dall’intelligenza artificiale nelle economie Ue è concreta almeno quanto è concreta, e sotto gli occhi di tutti, l’incombenza del cambiamento climatico. Non abbiamo tuttavia una Greta Thunberg della catastrofe digitale: d’altra parte, se ci fosse, non potrebbe, per decenza, lanciare campagne su Instagram o Twitter, dunque (pensateci) sarebbe invisibile. In un micidiale cortocircuito, la percezione sociale e politica della posta in gioco nella trasformazione digitale è essa stessa oggetto della trasformazione digitale.

I pericoli di una IA concentrata nelle mani di pochi

Volendo portare il discorso del governo dell’IA su un piano concreto e operativo, si deve prendere avvio da una considerazione basilare: l’IA è un’opportunità tecnologica che diventa un pericolo se concentrata nelle mani di pochi. Dal momento in cui i monopoli digitali sono un dato di fatto, l’IA si configura attualmente come un potenziale moltiplicatore di disuguaglianze, disequilibri e conflitti.

Uno studio targato Oxford Economics mostra ad esempio che la robotizzazione impoverisce maggiormente (indovinate?) le regioni più povere. Le stime sulla elusione fiscale dei monopolisti informativi sono già da capogiro: si parla di centinaia di miliardi sottratti alle economie europee. L’IA, aumentando il valore estraibile dai dati, non può che peggiorare, e di molto, le cose.

Tuttavia, dal momento in cui esiste ed è di per sé accessibile a tutti (gli algoritmi di base sono per lo più di pubblico dominio), l’IA è inarrestabile e irreversibile. Le strade dell’imposizione fiscale e della deterrenza legale, dato il carattere immateriale del business informatico, appaiono impervie, ed eventuali politiche isolazioniste sarebbero difficilmente realizzabili anche sul piano tecnico.

Dunque, l’unico modo per cogliere le opportunità dell’IA e allontanarne i rischi è quello del superamento in avanti dei monopoli digitali. La politica di promozione di una IA affidabile non può essere disgiunta, e anzi deve prendere avvio, dal discorso sulla sua distribuzione, sulle condizioni di equilibrio del suo mercato. Un tema che, nel documento dell’AI HLEG, resta alquanto sullo sfondo. La presenza tra gli esperti EU di esponenti dei monopoli digitali, per quanto marginale, potrebbe significare che il problema non sia stato pienamente compreso.

L’interesse per una IA distribuita

L’interesse per una IA distribuita non riguarda (per fortuna) solo l’Europa, ma è vitale l’economia di tutti i Paesi liberaldemocratici, USA in primis. Un gruppo dell’Università di Stanford ha creato una piattaforma per assistenti virtuali decentralizzati il cui obiettivo è quello di “democratizzare l’IA per le interfacce linguistiche”, creando una “rete linguistica aperta e non-proprietaria” (testuale).

I ricercatori statunitensi sanno che sistemi come Amazon Alexa e Google Assistant possono rendere il collasso dell’infosfera ancora più drammatico. Dentro i cloud di pochi operatori sarebbe infatti racchiusa l’anima stessa dei popoli e delle culture: il linguaggio. La capacità di comprendere (in modo non banale) il linguaggio è legata ad un’attività estensiva di supervisione umana (se ne è parlato recentemente qui).

Amazon, non a caso, sta assumendo migliaia di annotatori linguistici per estendere le competenze della sua piattaforma. Ma è proprio la non scalabilità (replicabilità) della semantica linguistica che, se ben compresa, può essere sfruttata per contrastare i monopoli informativi. A Stanford lo hanno capito, speriamo che a Bruxelles non siano da meno.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2