il rapporto

IA e disuguaglianza: la nuova grande divergenza globale



Indirizzo copiato

L’intelligenza artificiale rischia di creare una nuova frattura globale tra Paesi ricchi e poveri. Il rapporto UNDP avverte che senza governance condivisa e infrastrutture adeguate, l’innovazione tecnologica amplierà le disuguaglianze esistenti invece di ridurle

Pubblicato il 21 gen 2026

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



IA e disuguaglianza

Lintelligenza artificiale sta accelerando trasformazioni profonde, ma non in modo uniforme. Un recente rapporto del Programma delle Nazioni Unite per lo Sviluppo (UNDP) avverte che l’innovazione rischia di consolidare e ampliare il divario tra Paesi ricchi e Paesi poveri, riaprendo scenari di disuguaglianza globale.

Oltre i confini nazionali: l’IA come questione globale

Il dibattito sull’intelligenza artificiale è spesso centrato sulle conseguenze interne agli Stati: le trasformazioni del lavoro, i rischi per la privacy, l’impatto sulla democrazia, la questione della responsabilità nel caso di danni causati da sistemi autonomi. È un dibattito legittimo, necessario, in larga parte inevitabile. Tuttavia, negli ultimi mesi sta emergendo una prospettiva diversa, che merita attenzione almeno quanto quella nazionale. Il recente rapporto UNPD, significativamente intitolato The Next Great Divergence: Why AI May Widen Inequality Between Countries, mette in luce un rischio globale che va ben oltre l’ambito strettamente tecnologico. La diffusione dell’IA, avverte il documento, potrebbe invertire il processo di convergenza tra Stati ricchi e Stati poveri e inaugurare una fase in cui il divario tra economie avanzate e Paesi in via di sviluppo aumenterà in modo sensibile.

Questo quadro non è il frutto di un semplice allarme, né di un pessimismo intellettuale. Al contrario, è la proiezione realistica di ciò che accade quando una tecnologia ad altissimo impatto si sviluppa in un contesto privo di una cornice regolatoria comune, con fortissime disparità nelle infrastrutture, nelle competenze e nel capitale sociale dei diversi Paesi. L’intelligenza artificiale non è una tecnologia come le altre: richiede investimenti ingenti, accesso a dati, capacità computazionale, sistemi educativi avanzati, stabilità politica e governance istituzionale. Tutti elementi che non sono distribuiti in modo uniforme nel mondo.

In questa prospettiva, il diritto non può più limitarsi a interrogarsi su come regolare l’IA all’interno degli ordinamenti nazionali. Deve compiere un passo ulteriore e chiedersi come evitare che l’innovazione diventi un fattore di esclusione globale. È una sfida nuova, che mette alla prova categorie tradizionali come la sovranità, lo sviluppo, la tutela dei diritti fondamentali. È, soprattutto, una sfida che richiede al giurista la capacità di guardare oltre il confine del proprio ordinamento per considerare l’IA come una questione multilivello e transnazionale.

La “nuova grande divergenza”: un fenomeno politico oltre che economico

L’idea che l’IA possa dar vita a una nuova “grande divergenza” richiama uno dei concetti più discussi nella storia economica globale. La prima grande divergenza, tra Otto e Novecento, segnò la separazione tra l’Occidente industrializzato e il resto del mondo, con un impatto enorme sui rapporti politici, economici e sociali che ancora oggi definiscono il sistema internazionale. Oggi ci troviamo di fronte alla possibilità di una frattura analoga, ma alimentata da fattori tecnologici e non più dal potere industriale. Secondo il rapporto UNDP, gli Stati ad alto reddito sono in grado di implementare sistemi di IA nei settori più strategici dell’economia e dell’amministrazione pubblica. Dispongono di infrastrutture, capitali, competenze e capacità istituzionali per farlo. Hanno università e centri di ricerca in grado di formare talenti, aziende capaci di attrarre investimenti e normatori che, pur con difficoltà, stanno cercando di governare l’impatto dell’innovazione.

Al contrario, i Paesi a basso e medio reddito non possiedono, nella maggior parte dei casi, le condizioni per far sì che l’IA diventi una leva di sviluppo. Spesso mancano infrastrutture digitali adeguate, i sistemi educativi non riescono a formare competenze specialistiche, le risorse pubbliche sono insufficienti e la governance è fragile. Anche quando esiste la volontà politica, i mezzi materiali e istituzionali mancano.

Un giurista non può non osservare che, in assenza di un quadro normativo internazionale, il mercato e la geopolitica finiranno per decidere chi potrà beneficiare dell’IA e chi invece ne sarà escluso. Il vuoto regolatorio non è mai un terreno neutro: è lo spazio in cui gli attori più forti impongono regole implicite, modelli standardizzati e architetture tecnologiche che gli altri Stati non possono che accettare.

Siamo dunque di fronte a una questione che non riguarda solo lo sviluppo economico, ma la distribuzione globale del potere e la capacità degli Stati di esercitare la propria sovranità nell’era algoritmica. L’IA, se non governata, rischia di diventare un acceleratore del disequilibrio geopolitico.

Infrastruttura digitale: il nuovo prerequisito per l’esercizio dei diritti

Una delle intuizioni più rilevanti del rapporto UNDP è la consapevolezza che l’IA non può funzionare senza una solida infrastruttura digitale. Internet stabile, connessioni veloci, data center, accesso a dispositivi adeguati, alfabetizzazione informatica: nessun Paese può aspirare a beneficiare dell’intelligenza artificiale senza queste basi. La tecnologia richiede un ecosistema, non un semplice insieme di strumenti.

Dal punto di vista giuridico, questa constatazione è cruciale. L’infrastruttura digitale non è più un elemento periferico dello sviluppo, né può essere considerata una semplice questione tecnica. È diventata il presupposto per l’esercizio concreto di diritti fondamentali. Senza infrastrutture adeguate, i cittadini non possono accedere a servizi pubblici digitali, ricevere informazioni in modo tempestivo, beneficiare di sistemi educativi supportati dall’IA, partecipare alla vita democratica, accedere a cure mediche avanzate, o semplicemente costruire competenze adeguate al mercato del lavoro.

La Corte europea dei diritti dell’uomo ha già affermato in più occasioni che l’accesso a Internet è una condizione essenziale per l’esercizio della libertà di espressione. Nel mondo globale, questo principio acquista una portata ancora più ampia: non è soltanto una libertà ad essere in gioco, ma la possibilità stessa di partecipare alla società dell’informazione.

L’infrastruttura digitale, dunque, deve essere considerata un diritto sociale globale. Non si tratta più di decidere se “investire” o meno in tecnologie digitali, ma di garantire a ogni Paese la possibilità di partecipare a un mondo in cui l’IA sarà parte integrante di ogni settore strategico. Senza questa prospettiva, la “grande divergenza” non sarà un rischio teorico, ma una realtà inevitabile.

Trasparenza algoritmica e responsabilità: i nuovi confini della tutela dei diritti

L’IA introduce questioni giuridiche complesse che non possono essere affrontate da un solo Stato in modo isolato. Il problema della trasparenza degli algoritmi, della discriminazione automatizzata, della protezione dei dati, della manipolazione informativa e della responsabilità in caso di errori tecnologici non riguarda solo le economie avanzate. Al contrario, rischia di avere un impatto ancora più forte nei Paesi con istituzioni fragili e sistemi di tutela dei diritti meno consolidati.

Il paradosso è evidente: gli Stati che hanno meno strumenti giuridici per governare l’IA sono proprio quelli che rischiano di subire sistemi algoritmici opachi, importati dall’estero, difficili da contestare e spesso disegnati senza tener conto del contesto locale. Nei territori dove la tutela dei diritti è più vulnerabile, l’IA può diventare un moltiplicatore di ingiustizie, anziché uno strumento di inclusione.

Per questo, molti giuristi iniziano a riflettere sulla necessità di sviluppare standard internazionali vincolanti in materia di IA. Le linee guida etiche, per quanto utili, non bastano. Occorre un sistema di regole condivise, capace di imporre limiti minimi alla discriminazione algoritmica, criteri di trasparenza, standard di sicurezza e meccanismi di responsabilità transnazionale. Senza una cornice comune, si rischia di lasciare che la qualità e la sicurezza dei sistemi dipendano unicamente dal mercato.

Inoltre, è necessario garantire che la governance dell’IA non diventi un privilegio dei Paesi più ricchi. La capacità di regolare la tecnologia non può essere considerata un lusso istituzionale: deve essere un diritto universale. Solo così si può evitare che l’IA crei nuove forme di dipendenza e disuguaglianza.

Sovranità digitale e dipendenza tecnologica: un nuovo paradigma geopolitico

L’intelligenza artificiale sta ridefinendo il concetto stesso di sovranità. Chi controlla le infrastrutture digitali, i dati e gli algoritmi controlla una parte crescente del potere economico, sociale e politico di uno Stato. In questo senso, l’IA può diventare uno strumento di emancipazione solo se gli Stati dispongono dei mezzi per svilupparla e governarla. Altrimenti, diventa una nuova forma di dipendenza.

Molti Paesi in via di sviluppo, privi di capacità tecnologiche autonome, rischiano di dover adottare soluzioni prodotte e controllate da attori esterni. Ciò può tradursi in un modello di sovranità limitata, in cui decisioni cruciali sono influenzate da sistemi che non possono essere modificati, contestati o interpretati in modo autonomo.

La dipendenza tecnologica, inoltre, non riguarda solo i sistemi algoritmici, ma anche la gestione dei dati. Se i dati di un Paese vengono estratti, elaborati o conservati all’estero, l’autonomia dello Stato ne risulta compromessa. In passato, la dipendenza economica si misurava in termini di energia, materie prime o beni di produzione. Oggi la dipendenza si misura in dati e capacità algoritmica.

Il diritto internazionale è chiamato a confrontarsi con questa realtà. Deve definire nuovi strumenti di tutela della sovranità digitale e garantire che gli Stati possano sviluppare una propria capacità tecnologica. Senza questa prospettiva, la dipendenza digitale rischia di diventare una forma moderna di subordinazione geopolitica.

Verso una governance globale dell’IA: un percorso complesso ma necessario

La domanda centrale è se sia possibile costruire una governance globale dell’IA. Al momento, esistono iniziative importanti, come quelle del G7, del G20, dell’OCSE, dell’ONU e dell’Unione Europea. Tuttavia, queste iniziative sono spesso caratterizzate da principi non vincolanti, che difficilmente possono incidere sulle profonde asimmetrie globali.

Il problema, ancora una volta, non è solo giuridico, ma politico. L’IA è al centro della competizione strategica tra grandi potenze. Ogni Stato vuole preservare il proprio vantaggio competitivo e difficilmente accetterà limiti troppo rigidi alla propria sovranità tecnologica. Tuttavia, una regolazione internazionale minima è indispensabile per evitare che l’innovazione si trasformi in una nuova fonte di disuguaglianza globale.

La costruzione di un quadro normativo internazionale richiederà tempo, negoziazione e una visione lungimirante. Non basterà un trattato, né una dichiarazione. Sarà necessario un approccio multilivello, capace di combinare regole vincolanti, assistenza tecnica, cooperazione economica e costruzione di capacità istituzionali nei Paesi meno digitalizzati. Non si tratta di imporre un modello unico, ma di garantire condizioni minime perché ogni Stato possa sviluppare una propria strategia digitale.

La governance globale dell’IA non sarà mai perfetta. Ma è l’unico modo per garantire che l’innovazione non riproduca, su scala planetaria, le disuguaglianze che abbiamo ereditato dal passato.

Conclusioni

Il rischio evidenziato dal rapporto UNDP è chiaro: la diffusione dell’intelligenza artificiale potrebbe inaugurare un nuovo ciclo di disuguaglianza globale, capace di separare in modo irreversibile Stati ricchi e Stati poveri. Non è un destino già scritto, ma è una possibilità concreta che dipenderà, in larga misura, dalle scelte normative che la comunità internazionale sarà in grado di compiere.

Come giuristi, dobbiamo riconoscere che l’IA non è solo una sfida tecnica, ma un crocevia politico e istituzionale. Richiede una nuova visione del diritto allo sviluppo, una nuova tutela dei diritti fondamentali e una riflessione profonda sul concetto di sovranità nell’era digitale. Non è sufficiente regolare l’innovazione; occorre orientarla verso un modello inclusivo.

L’intelligenza artificiale avrà un ruolo decisivo nel plasmare il futuro dell’umanità. Il diritto deve garantirsi un posto in questo processo, non come freno alla tecnologia, ma come strumento per distribuire i benefici dell’innovazione in modo equo. Perché, se il futuro sarà digitale, allora deve essere un futuro accessibile a tutti.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x