Regolamento AI, l'Europa per un'ecosistema dell’innovazione aperto e decentralizzato | Agenda Digitale

il commento

Regolamento AI, l’Europa per un’ecosistema dell’innovazione aperto e decentralizzato

L’Europa dice no al divide tra chi detiene l’intelligenza globale e chi è costretto ad approvvigionarsene. No al destino di colonia che lo strapotere tecnologico dei grandi monopoli sembra oggi assegnarle. Il compito di trasformare questo pronunciamento in atti concreti spetta ora alla società europea nel complesso

26 Apr 2021
Guido Vetere

Università degli Studi Guglielmo Marconi

Sembra evidente che tutto quanto previsto dalla nuova proposta di regolamento ue sull’intelligenza artificiale richiederà l’allestimento di un grande e capillare apparato di verifica nei Paesi membri dell’Unione. Ci sono rischi ed enormi sfide, ma ne vale la pena: in ballo c’è la possibilità, diretta dall’Europa, di costruire un’ecosistema dell’innovazione che finalmente superi derive, asimmetrie e scompensi dell’attuale mercato tecnologico.

Lo sviluppo autonomo dell’AI in Europa

Ricordiamo cosa chiede il regolamento.

Qualunque sistema che sfrutti le nuove tecnologie a scopo manipolatorio o lesivo dei diritti delle persone verrà proibito. Alcune categorie applicative considerate ad alto rischio saranno sottoposte a processi di certificazione di conformità del prodotto (CE). Qualsiasi altro uso verrà comunque accompagnato da adeguata documentazione e dovrà aderire a linee-guida settoriali.

WHITEPAPER
Come far crescere il business? Fai emergere tutto il potenziale dei dati!
Intelligenza Artificiale

E’ lecito chiedersi se tutto questo non si configuri come l’applicazione del classico burocratismo europeo a fronte di un’innovazione trainata attualmente da sistemi geo-economici concorrenti. Riecheggia nella memoria il celebre motto di Keynes: il problema non è tanto quello di sviluppare idee nuove, ma di abbandonare quelle vecchie.

Tuttavia, il Regolamento prevede misure che, se attuate in modo ben calibrato, possono portare non solo ad una tutela dei diritti delle persone il linea con la nostra civiltà giuridica, ma anche ad uno sviluppo autonomo ed equilibrato delle nuove tecnologie, tale da sottrarre le economie europee al giogo dei monopolisti d’oltreoceano e in genere ai pericoli di etero-direzione delle nostre società.

Scorza: “Sulle regole AI l’Europa pone la prima pietra, ma sarà sfida enorme: ecco perché”

In sostanza, se il Regolamento andasse a regime, si tratterebbe di immettere risorse pubbliche e private nella costruzione di un sistema integrato di sperimentazione e ricerca in grado non solo di controllare, ma anche di promuovere e diffondere le sofisticate conoscenze che l’Intelligenza Artificiale oggi richiede.

L’accumulo di queste conoscenze, unito al possesso di dati e alla disponibilità di ingenti e concentrate risorse di calcolo, produce oggi un divario tra il sistema produttivo europeo (in particolare nei Paesi fragili come il nostro) e quello statunitense da un lato e cinese dall’altro. La necessità di conformarsi alle norme europee potrà porre le basi per un bilanciamento di questo divide.

Alcuni punti inattuabilità

La certificazione di conformità riguarderà infatti anche i prodotti e servizi di importazione, e dovrà essere condotta da enti accreditati comunitari. Accostarsi ai sistemi di AI come se fossero caschi per motocicletta che vanno collaudati prima di entrare in commercio può sembrare improprio, e tecnicamente, in certi casi, lo è. Alcune previsioni del Regolamento sono di fatto inattuabili su sistemi di certe complessità e dimensioni.

Come si può, ad esempio, collaudare una rete neurale dell’automa linguistico GPT-3, fatta di centinaia di miliardi di connessioni? Non certo in quelle sandbox (ambienti di collaudo) che il Regolamento prevede debbano essere allestite a scopo di sperimentazione.

L’intelligenza artificiale scrive sempre meglio, ma non sa che sta dicendo

Ci vorrebbe infatti, in questo caso, una sandbox grande come un oceano. Restando nel campo delle tecnologie linguistiche, sembra molto improbabile che i modelli addestrati in modo non supervisionato su grandi volumi di dati possano essere certificati come esenti da bias razziali o sessisti, o da effetti che possono risultare manipolatori per gli utenti.

Lo stesso vale per qualsiasi sistema costruito su dati di addestramento non supervisionati (cioè non prodotti o annotati da esseri umani) di dimensioni tali che una verifica esaustiva della loro qualità non potrebbe essere condotta se non a sua volta da una AI, entrando perciò in una regressione all’infinito.

Protezionismo made in EU

All’atto pratico, il Regolamento può dunque configurarsi come un apparato protezionistico: i sistemi geo-economici tecnologicamente più dotati o con minori vincoli etici avranno più difficoltà ad usare il loro vantaggio competitivo nei confronti dell’Europa.

L’impedenza burocratica della normativa europea potrebbe scoraggiare i grandi vendor e allontanarli dalle nostre sponde. Tuttavia, con buona pace di Keynes, non sembra sia emerso, negli anni di lavori preliminari, alcuna idea in grado di soddisfare al contempo gli assiomi del liberismo globale e quelli della tutela della cittadinanza europea. L’effetto protezionistico del Regolamento può essere visto in effetti come un epifenomeno di questa tensione. L’ideale della libera circolazione delle merci e dei servizi che ha caratterizzato l’economia globale gli ultimi trenta anni sembra, in una sorta di nemesi, incontrare un limite proprio nell’impiego delle tecnologie più avanzate.

Il rischio ovviamente è che l’ombrello protettivo della regolamentazione europea sull’AI faccia ombra alla competitività dei nostri sistemi in tutti gli altri ambiti, dalla manifattura al sistema bancario, dalla sanità alla sicurezza.

La giusta prospettiva

Questo rischio va affrontato guardando alla regolamentazione non solo come un dispositivo di vincoli e certificazioni, ma anche e soprattutto nell’ottica di un nuovo modello di sviluppo. Il documento della Commissione offre chiari spunti a supporto di questa chiave di lettura. Notevole è il richiamo alla necessità della produzione di risorse strategiche, come le basi di dati di addestramento conformi a standard e dunque verificabili, integrabili e interoperabili.

Stiamo parlando della nascita di un ecosistema dell’innovazione aperto e decentralizzato, in grado di riassorbire la mole dei giganti tecnologici.

Il modello di sviluppo che si profila richiama la necessità di orientare la ricerca verso alternative ai metodi basati sulla forza bruta e cieca di certi sistemi neurali. La trasparenza, la necessità di fornire spiegazioni intelligibili alle decisioni degli automi rappresentano problemi aperti su cui la comunità scientifica sarà chiamata a cimentarsi. In questa direzione, l’AI potrà riconnettersi alle proprie radici umanistiche e recuperare le capacità critiche dei soggetti umani, oggi messe all’angolo.

L’Europa dice no al divide tra chi detiene l’intelligenza globale e chi è costretto ad approvvigionarsene. Dice no, in definitiva, al destino di colonia che lo strapotere tecnologico dei grandi monopoli sembra oggi assegnarle. Il compito di trasformare questo pronunciamento in atti concreti spetta ora alla società europea nel suo complesso.

Ci sarà bisogno di competenza diffusa, che è cosa ben diversa dall’eccellenza accademica che per fortuna non ci manca. Le risorse del recovery plan destinate alla digitalizzazione dovranno essere impiegate anche per costruire la capacità umana necessaria all’uso consapevole delle tecnologie intelligenti. Ce lo chiede l’Europa.

WEBINAR
30 Giugno 2021 - 12:00
Taglio netto di costi e tempi: ecco il Webinar che svela i segreti della rivoluzione RPA
Intelligenza Artificiale
IoT
@RIPRODUZIONE RISERVATA

Articolo 1 di 4