ai readiness

Siamo davvero pronti per l’AI? Il framework ITU per misurarlo



Indirizzo copiato

Nel dibattito sull’intelligenza artificiale manca una domanda: siamo pronti a sostenerla nel tempo? Il report ITU “AI Ready” propone un framework misurabile basato su progetti reali: cinque pilastri e tredici dimensioni operative. Readiness significa ecosistema, inclusione, governance e minore dipendenza tecnologica

Pubblicato il 24 feb 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



sistemi di visione artificiale mempria dell'IA Intelligenza Artificiale Generale nuovi camaleonti ia AI e comunicazione ia e pensiero ignoranza artificiale Capitale Semantico arte IA ai readiness

Nel dibattito pubblico sull’intelligenza artificiale c’è un equivoco di fondo. Si parla di modelli, di chatbot, di regolazione, di investimenti miliardari. Si discute di chi sia più avanti nello sviluppo dei foundation models.

Ma quasi nessuno si ferma su una domanda preliminare, siamo davvero pronti per l’AI? Non pronti a sperimentarla. Non pronti a integrarla in qualche processo. Pronti a sostenerla nel tempo, a governarne gli effetti, a trarne benefici sistemici e inclusivi.

Su questo terreno si colloca il report 2.0 dell’International Telecommunication Union, intitolato AI Ready – Analysis Towards a Standardized Readiness Framework. Non è un documento tecnico per sviluppatori né una semplice guida per policymaker. Si tratta di un tentativo ambizioso di costruire un linguaggio comune per misurare la maturità di un ecosistema rispetto all’intelligenza artificiale, a partire dall’analisi concreta di progetti reali, non da categorie astratte.

La tesi di fondo è semplice ma non banale, l’AI non si adotta, si prepara.

Un approccio dal basso

La versione 2.0 si distingue dalla precedente per il metodo. L’ITU ha adottato un approccio bottom-up, invece di definire un framework teorico e calarlo dall’alto, ha analizzato decine di progetti reali presentati nell’ambito del pilot AI Readiness Plugfest, lanciato durante il GAIN Summit 2024 a Riyadh.

Ottantotto esperti provenienti da 38 paesi, in maggioranza da economie in via di sviluppo, con una quota significativa di donne, hanno contribuito a identificare pattern comuni, criticità ricorrenti e metriche applicabili.

Da questa analisi sono stati derivati tredici dimensioni operative, che trasformano il framework in uno strumento misurabile e adattabile a contesti diversi: paesi, imprese, organizzazioni non governative.

AI readiness oltre la tecnologia: l’ecosistema come condizione abilitante

Uno dei meriti del framework è spostare l’attenzione dall’algoritmo all’ecosistema. Un modello linguistico può essere sofisticato, un sistema di machine learning può essere accurato, ma se manca l’infrastruttura, se i dati sono di bassa qualità, se le competenze sono carenti o se la governance è fragile, l’AI rimane un’iniziativa isolata.

L’ITU definisce la AI Readiness come la capacità di raccogliere i benefici dell’integrazione dell’AI in modo sostenibile ed equo. Non basta implementare una soluzione, bisogna garantire che funzioni, che sia scalabile, che sia affidabile, che produca valore reale.

Per farlo, il report individua cinque dimensioni fondamentali del Basic Framework: Dati, Infrastruttura digitale, Competenze digitali, Ecosistema dell’innovazione e Policy sull’AI, articolate in indici e metriche specifiche.

Queste dimensioni non vanno lette come compartimenti stagni, ma come elementi interdipendenti di un’unica architettura.

I cinque pilastri del basic framework

Il dato è il primo pilastro, ma non nel senso più ovvio. Non si tratta solo di avere dataset disponibili. La vera questione è la capacità di trasformare i dati in materia prima utilizzabile: raccolta, pulizia, etichettatura, rappresentatività, gestione dei bias.

Un dataset incompleto o distorto non è solo un problema tecnico, è un rischio sistemico. I dati del report sono eloquenti, la copertura internet globale si ferma al 55,56%, il che significa che quasi metà della popolazione mondiale rimane fuori dall’ecosistema digitale necessario per la generazione di dati su larga scala.

I dataset per l’addestramento di modelli in ambito sanitario devono includere metriche di rappresentatività demografica e geografica, protocolli di etichettatura con misura della coerenza tra annotatori, e meccanismi di audit per rilevare bias.

Senza questi elementi, un modello di diagnosi addestrato su dati prevalentemente occidentali può risultare inefficace, o dannoso, se applicato in altri contesti.

L’infrastruttura digitale è il secondo pilastro. Qui il documento diventa molto concreto: la copertura 5G globale è al 55%, ma crolla al 4% nei paesi a basso reddito.

La disponibilità di energia elettrica pro capite nelle economie sviluppate è più che doppia rispetto a quella delle economie in via di sviluppo. Il mercato IoT nelle economie sviluppate è in media quattro volte più grande.

Non sono dettagli: sono limiti strutturali alla possibilità stessa di ospitare infrastrutture AI su larga scala.

Le competenze digitali rappresentano il terzo fattore, con una dinamica interessante: lo sviluppo delle skill accelera soprattutto nella fase di reddito medio.

I paesi a medio reddito mostrano spesso maggiore ottimismo e fiducia verso l’AI rispetto alle economie ad alto reddito, creando condizioni favorevoli per un’adozione su larga scala, ma solo se i gap di competenze vengono colmati.

L’ecosistema dell’innovazione è il quarto pilastro, comprende standard, open source, R&D e investimenti.

Il livello di contributo agli ecosistemi open source, non solo l’utilizzo, ma la partecipazione upstream allo sviluppo di architetture di modelli, pipeline di training, benchmark, è considerato una metrica di readiness.

Lo stesso vale per l’engagement nei processi di standardizzazione internazionale, chi partecipa alla definizione degli standard, di fatto, partecipa alla definizione del futuro dell’AI.

La policy sull’AI è il quinto pilastro, include una distinzione concettualmente rilevante tra Policies for AI, le regole che governano l’AI, e AI for Policies, l’uso dell’AI per simulare e valutare l’impatto delle regole stesse prima che vengano applicate.

Un sandbox virtuale per la sperimentazione regolatoria.

Le 13 dimensioni operative: dalla diagnosi all’azione

La vera novità della versione 2.0 è nell’introduzione delle tredici dimensioni operative, derivate direttamente dai progetti del Plugfest.

Si va dal Data/Model Marketplace alla Contextualization and Regional Impact, dalla Strategy Alignment alla Collaboration with AI, dall’AI for Inclusion ai Granular Priorities.

Ogni dimensione è accompagnata da metriche concrete, KPI misurabili, e da indici che funzionano come filtri o pesi, permettendo agli utenti di adattare la valutazione alle proprie priorità locali o settoriali.

Un paese con priorità sull’agricoltura calibrerà il framework diversamente da un’organizzazione sanitaria che vuole valutare l’integrazione dell’AI nella diagnosi.

Non si tratta più di chiedersi se un sistema usa l’AI, ma di misurare quanto l’AI sia integrata nei processi, quanto riduca i tempi tra inferenza e azione, quanto sia scalabile, quanto sia inclusiva per diverse popolazioni e lingue.

Metriche e casi: time-to-go-live, latenza e co-creazione

Per rendere concreto il framework, vale la pena scendere nel dettaglio di alcune dimensioni. La Strategy Alignment misura, ad esempio, il tempo medio che intercorre dalla progettazione di una soluzione AI al suo deployment operativo, un indicatore chiamato time-to-go-live.

Il report cita il caso della gestione degli incendi boschivi in Brasile, dove l’integrazione dell’AI ha permesso di ridurre il tempo tra rilevamento e mobilitazione delle squadre di intervento, la metrica usata è il detection-to-dispatch latency: misura il tempo che intercorre tra il momento in cui un sistema AI rileva un evento, in questo caso un incendio boschivo e il momento in cui viene inviata la squadra di intervento.

La dimensione Collaboration with AI valuta invece quanto gli esseri umani contribuiscano attivamente all’output dei sistemi AI, non solo come utenti finali, ma come co-creatori.

Una metrica concreta è il confronto tra la qualità dell’output generato solo dall’AI, quello prodotto solo dall’uomo e quello co-creato: in campo medico, ad esempio, si misura la percentuale di casi in cui il medico ha confermato o corretto la diagnosi suggerita dal modello e il tempo risparmiato nella selezione dei casi da esaminare.

La dimensione AI for Inclusion considera invece l’accessibilità linguistica: quante lingue locali sono supportate nelle interfacce AI, se esistono modelli addestrati su dialetti regionali, se le comunità con scarsa connettività hanno accesso a versioni offline.

Il report cita progetti specifici su lingue come il Kiswahili in Tanzania, lo Shona e il Ndebele in Zimbabwe, l’Amarico in Etiopia.

Readiness e dipendenza: il nodo implicito

Leggendo il report emerge una dimensione meno esplicita ma decisiva. I sistemi con alta AI Readiness non sono solo più efficienti. Sono anche meno dipendenti.

Il documento lo dice chiaramente, nei contesti con vincoli strutturali su tutte le dimensioni, il deployment dell’AI è frequentemente guidato da tecnologie importate, con rischi crescenti di dipendenza e capacità limitata di influenzare interoperabilità, sicurezza ed evoluzione dei sistemi nel lungo periodo.

La partecipazione ai processi di standardizzazione internazionale rimane bassa, riducendo ulteriormente la visibilità dei bisogni locali nei framework tecnici globali.

La AI Readiness diventa così anche una misura indiretta di sovranità tecnologica. Non è solo una questione di performance, ma di posizione nel sistema globale.

L’AI-RE Toolkit: dalla valutazione all’intervento

Per rendere operativo il framework, l’ITU ha progettato un AI Readiness Enablement Toolkit, il cui pilot è previsto per luglio 2026.

L’idea è fornire a governi e organizzazioni uno strumento di autovalutazione dinamico, capace di accettare documenti non strutturati come input, report di dominio, storie di deployment, best practice, trasformarli in knowledge records standardizzati e restituire una valutazione dello status quo, un gap analysis e raccomandazioni personalizzate.

Il toolkit è concepito per l’apprendimento iterativo, ogni nuovo materiale inserito aggiorna la knowledge base, rendendo la valutazione progressivamente più accurata.

I dati rimangono locali, non vengono trasferiti all’esterno del paese d’uso, le priorità regionali vengono catturate attraverso gli indici configurabili dall’utente.

Tre scenari d’uso tipici

Il report descrive tre scenari d’uso tipici. Un paese in via di sviluppo che vuole autovalutarsi può caricare i propri rapporti sull’agricoltura e sull’istruzione: il toolkit analizza i documenti, li mappa sulle dimensioni del framework e restituisce una valutazione di base, senza richiedere competenze tecniche avanzate.

Un regolatore che vuole testare l’impatto di una nuova norma sull’uso dei dati sanitari può usare il sandbox integrato per simulare scenari what-if su una timeline virtuale, prima di procedere con l’adozione.

Un’organizzazione non governativa può invece caricare il proprio report annuale ogni anno e ricevere un aggiornamento progressivo della propria valutazione, il toolkit impara iterativamente dai nuovi materiali.

Tre gap da colmare

Il report identifica tre categorie di gap che il framework intende affrontare. Il primo riguarda gli standard internazionali: mancano ancora framework condivisi per la data readiness multimodale, per la GenAI readiness e per la misurazione dell’impronta energetica dei modelli AI.

Il secondo riguarda le implementazioni, molti paesi hanno alta efficienza tecnologica ma infrastrutture insufficienti per tradurre le previsioni AI in applicazioni concrete; altri hanno dati locali ricchi ma privi di digitalizzazione.

Il terzo riguarda le policy: gli approcci alla governance AI differiscono significativamente tra paesi, e in contesti con risorse limitate le strategie nazionali rischiano di risultare frammentate tra ministeri diversi.

La vera domanda sull’AI readiness

Il valore del report non sta tanto nell’elenco delle dimensioni, quanto nello spostamento di prospettiva che propone. L’AI non è un oggetto che si acquista o si implementa.

Si tratta di un’infrastruttura socio-tecnica che richiede coerenza tra dati, energia, competenze, standard, governance e inclusione, inoltre richiede la capacità di contribuire attivamente alla sua evoluzione, non solo di subirla.

In un contesto europeo in cui si discute di competitività, regolazione e investimenti, la questione della readiness è cruciale. Non basta avere startup innovative o un quadro normativo avanzato.

Serve un ecosistema capace di sostenere l’AI nel lungo periodo, di formare competenze, di contribuire agli standard, di produrre dati rappresentativi della propria realtà.

La domanda allora non è più se utilizziamo l’intelligenza artificiale. La domanda è se siamo strutturalmente attrezzati per farla diventare parte del nostro sistema economico e istituzionale o se ci limiteremo a importarla.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x