Nel contesto attuale, gli oligopoli dell’intelligenza artificiale stanno emergendo come una delle più grandi sfide geopolitiche e industriali del nostro tempo. Le implicazioni non sono solo tecnologiche: si tratta di un fenomeno che tocca l’accesso alla conoscenza, il controllo delle decisioni e la sovranità digitale.
A partire da questa concentrazione crescente, analizziamo i nuovi equilibri di potere che si stanno delineando.
Indice degli argomenti
Dai nuovi alchimisti agli oligopoli dell’intelligenza
Nel Medioevo, gli alchimisti inseguivano il sogno impossibile: trasformare il piombo in oro. Erano pochi, isolati, misteriosi. Lavoravano in laboratori nascosti, mescolando sostanze, invocando forze sconosciute. La loro ambizione era titanica: creare ricchezza dal nulla.
Oggi, a distanza di secoli, una nuova generazione di alchimisti digitali è all’opera. Ma questa volta, l’oro che cercano non è fisico: è intelligenza. In laboratori hi-tech, in data center grandi come città, i nuovi alchimisti costruiscono modelli di intelligenza artificiale così potenti da trasformare conoscenza, innovazione e denaro in forme mai viste prima. Nelle fredde stanze di remote server farm, riempite dal ronzio quasi impercettibile di migliaia di chip che lavorano senza sosta, miliardi di parametri vengono aggiornati ogni secondo, imparando a scrivere poesie, a progettare nuovi farmaci, a consigliare investimenti, persino a conversare come esseri umani. In quelle stanze si accumula il nuovo potere globale. Non si tratta di oro, petrolio o armi. Si tratta di intelligenza: costruita, addestrata, addomesticata da chi ha capitali, dati e infrastrutture per farlo.
Ogni algoritmo raffinato, ogni modello perfezionato, ogni bit di conoscenza compressa in quelle macchine segna una nuova linea di divisione nel mondo: tra chi potrà guidare il futuro e chi sarà costretto a seguirlo. Ogni miglioramento di un algoritmo, ogni incremento nei parametri di un modello, ogni perfezionamento di una rete neurale avvicina questi alchimisti al loro vero obiettivo: dominare la nuova economia cognitiva globale. Ma la corsa non è per tutti. E proprio come nel Medioevo, quando il sapere alchemico era custodito da pochi, anche oggi il dominio dei modelli sta creando nuove caste cognitive e nuovi oligopoli invisibili.
La frattura cognitiva tra chi possiede l’IA e chi la subisce
La narrativa dominante racconta l’intelligenza artificiale come una tecnologia dirompente, destinata a migliorare l’efficienza e l’innovazione in ogni settore. Ma questo non è un semplice cambiamento tecnologico. A differenza delle precedenti rivoluzioni industriali, non si tratta solo di inventare nuove macchine o accelerare i processi esistenti. Si tratta di catturare, automatizzare e privatizzare la capacità stessa di pensare, creare, decidere.
Come accadde per la scrittura, la stampa e l’industria, anche l’AI sta generando nuove élite.
Ma questa volta, il divario rischia di essere più rapido, più ampio e più irreversibile di qualsiasi altro nella storia. È l’inizio di una nuova architettura di potere, destinata a ridisegnare ricchezza, sovranità e libertà come mai era accaduto dalla prima rivoluzione industriale, creando una doppia frattura. Da un lato, una frattura geopolitica tra nazioni che dominano i modelli di AI e nazioni che ne diventano semplici utilizzatori. Dall’altro, una frattura economica interna: il passaggio da un capitalismo basato su finanza e produzione materiale a un capitalismo cognitivo, dove il vero valore è detenuto da chi possiede dati, modelli e capacità di automazione algoritmica.
Il dominio dell’intelligenza come nuova sovranità globale
Nel nuovo ordine che si sta delineando, la proprietà dell’intelligenza sostituirà la proprietà della terra, delle fabbriche, persino del denaro. Chi controlla l’AI controllerà non solo i mercati, ma le possibilità stesse di innovazione, crescita e sviluppo.
Se non affrontata con una governance lungimirante, questa dinamica rischia di accentuare disuguaglianze economiche, creare dipendenze strategiche e minare la stessa tenuta sociale delle democrazie.
Oligopoli cognitivi e fratture geopolitiche
A differenza delle tecnologie tradizionali, l’AI non si limita a essere adottata su larga scala: richiede infrastrutture, capitali e dati che pochi possono permettersi. Addestrare modelli su scala globale — come GPT-4, Gemini o Claude-3 — implica investimenti miliardari in potenza computazionale, accesso a dataset enormi e team di ricerca d’élite.
Questo ha generato un fenomeno senza precedenti: un oligopolio cognitivo, dove pochissime aziende (e nazioni) detengono una quota smisurata del valore creato dall’AI.
A livello geopolitico, la frattura è già visibile:
- Stati Uniti: leadership nell’innovazione dei modelli e nell’industria dei semiconduttori.
- Cina: inseguimento rapido con una strategia aggressiva sui dati e sugli investimenti pubblici.
- Europa: ritardo cronico nell’accesso autonomo a modelli di frontiera e infrastrutture di calcolo avanzate.
- Paesi emergenti: crescente dipendenza da piattaforme sviluppate altrove, senza capacità reale di adattamento o controllo.
La logica dietro l’IA: il vincitore prende tutto
Questo nuovo ordine crea un mondo a due velocità: chi possiede l’AI può scalare innovazione, produttività e influenza geopolitica; chi non la possiede resta vincolato a ruoli di consumo passivo o mera esecuzione.
Il vero divario digitale del futuro non sarà nella connettività. Sarà nella capacità di pensare, creare e agire attraverso l’intelligenza artificiale. Chi oggi sottovaluta queste dinamiche, domani rischierà di svegliarsi in un mondo dove non sarà più sovrano nemmeno in queste capacità di base.
La logica che sta plasmando il panorama dell’intelligenza artificiale non è lineare: più il modello è grande, potente e diffuso, più attira utenti, dati, capitale e potere. Un meccanismo di retroazione positiva che rende i vincitori sempre più forti, i secondi irrilevanti. Si chiama Winner-Takes-All: il vincitore prende tutto. E chi arriva secondo… spesso non esiste nemmeno nel mercato.
Addestramento ed energia: le barriere all’entrata che rafforzano la natura oligopolistica dell’IA
A ciò si aggiungono una serie di barriere all’entrata che rafforzano la natura oligopolistica di questo settore.
La prima riguarda l’addestramento, che non è semplicemente questione di talento tecnico. È un’impresa industriale e strategica, accessibile solo a chi possiede risorse finanziarie, dati e infrastrutture su scala globale, il cui costo è dell’ordine di grandezze delle decine (o persino centinaia) di milioni di dollari. Certo, l’architettura della rete neurale è importante, ma la vera differenza tra un modello mediocre e un modello eccellente non è solo la dimensione, ma la qualità e quantità di dati su cui viene addestrato. Questi devono essere selezionati, puliti, filtrati per qualità ed eticità, continuamente aggiornati. Inoltre, il processo stesso è lungo, costoso e incredibilmente delicato.
La seconda barriera è la disponibilità di energia. I modelli di AI consumano una quantità di energia impressionante. Ad esempio, GPT-3 ha richiesto circa 1.287 MWh solo per il suo addestramento iniziale: energia sufficiente per alimentare 130 case americane per un anno. Inoltre, L’addestramento di modelli multimodali (testo, immagini, video) richiede ancora più energia, con picchi difficili da sostenere senza reti dedicate.
Oggi un data center di nuova generazione non è più solo un “magazzino di server”.
È una cattedrale tecnologica progettata per un unico scopo: alimentare l’intelligenza artificiale. Deve disporre di alimentazione continua e ridondante, fornita da più fonti (rete pubblica, generatori diesel, impianti solari o idroelettrici, in prospettiva centrali nucleari modulari), oltre che di sistemi UPS (Uninterruptible Power Supply) per evitare anche millisecondi di blackout, sia per far funzionare file di GPU ad alte prestazioni (come NVIDIA A100, H100) che lavorano in parallelo e TPU (Tensor Processing Units) progettate su misura per il training di modelli AI massivi, sia per garantire il raffreddamento e la dissipazione dell’enorme quantità di calore generata.
Chi controlla la filiera dei chip tiene i fili dell’evoluzione dell’IA
Infine, la filiera dei chip, un vero e proprio collo di bottiglia tecnologico. Chi controlla questa filiera controlla la velocità di evoluzione dell’intelligenza artificiale. La competizione tra Stati Uniti e Cina per il controllo della produzione e della tecnologia dei chip rappresenta una delle sfide più significative del nostro tempo. La strategia degli USA si basa su investimenti colossali (CHIPS and Science Act, 280 miliardi di dollari) per rafforzare la produzione nazionale di semiconduttori e ridurre la dipendenza da fornitori esteri, oltre che su restrizioni all’export di tecnologie avanzate verso la Cina, colpendo aziende come Nvidia e AMD, e limitando l’accesso cinese a chip di ultima generazione. La Cina a sua volta sta investendo moltissimo per raggiungere l’autosufficienza nella produzione di chip, con l’obiettivo di ridurre la dipendenza dalle tecnologie occidentali e, soprattutto, per lo sviluppo di tecnologie domestiche e acquisizione di competenze attraverso la formazione e la ricerca. Anche l’Europa sta cercando di fare la sua parte per garantire l’accesso a tecnologie critiche e preservare la propria sovranità digitale (European Chips Act).
Non ci illudiamo: il futuro non sarà open source. Vero è che negli ultimi anni sono nati modelli AI open source sempre più potenti, come Llama, Mistral, Falcon, RedPajama, ecc, eppure i modelli proprietari come GPT-4, Gemini e Claude dominano ancora il mercato, grazie alla maggiore disponibilità di risorse industriali come potenza di calcolo, dataset esclusivi, cloud scalabili, servizi di supporto, velocità di aggiornamento.
Quali sono gli Stati che controllano l’intera catena del valore dell’AI
Sono pochi gli Stati che controllano l’intera catena del valore dell’AI. In primo luogo, USA, sia per i modelli leader sviluppati da OpenAI, Google, Anthropic, sia per la produzione di chip, sia infine per il cloud computing. Segue la Cina, che dispone di Big Tech come Baidu, Alibaba, Tencent oltre che di un enorme volume di dati, e sta attivamente perseguendo lo sviluppo di una autonoma produzione di chip avanzati. Poi Israele che ha una elevata specializzazione su AI militare e sicurezza informatica e riesce a creare condizioni favorevoli per la nascita di start up ad alto tasso di innovazione.
Il resto del mondo, Europa compresa, dipende da questi player per uno o più fattori critici come accesso ai modelli più avanzati, potenza computazionale, competenze e know how specifico. Ciò significa non poter definire in modo completamente autonomo strategie di innovazione, essere soggetti a limitazioni, sanzioni, cambiamenti di policy, subire standard tecnologici stabiliti altrove, esporre dati sensibili, infrastrutture critiche e capacità di difesa a vulnerabilità esterne, rassegnarsi al drenaggio del valore generato dall’economia cognitiva.
La sovranità nazionale nell’era dell’AI
Il termine “sovranità nazionale” è spesso abusato, tuttavia nell’era dell’AI la sovranità non riguarda più solo il controllo dei dati o delle reti, ma la stessa capacità di pensare e decidere autonomamente attraverso sistemi intelligenti. Possiamo valutare il nostro livello di sovranità digitale rispondendo a cinque domande chiave:
- Possediamo (o controlliamo direttamente) modelli di intelligenza artificiale avanzati? Non basta poterli utilizzare: dobbiamo poterli creare, modificare, adattare ai nostri obiettivi.
- I dati strategici sono archiviati, protetti e gestiti secondo regole che stabiliamo noi?
- Abbiamo accesso indipendente a potenza computazionale adeguata (GPU, TPU, data center)? Se è necessario ricorrere a server o infrastrutture altrui, siamo dipendenti nella capacità di innovare.
- Possiamo stabilire, aggiornare e applicare autonomamente le regole etiche, di sicurezza e di governance per l’AI? Subire norme esterne significa cedere pezzi dell’autodeterminazione tecnologica.
- Stiamo formando (e trattenendo) una classe di competenze AI-native nel nostro ecosistema? Senza ingegneri, data scientist, regolatori formati internamente, la sovranità è solo un’illusione.
I rischi di un potere troppo concentrato: i precedenti storici
In prospettiva, l’affermarsi di grandi oligopoli dell’intelligenza creerà fratture e squilibri anche all’interno delle economie più avanzate, le stesse che hanno generato questi fenomeni. L’AI introduce infatti nuovi tipi di concentrazione, molto più pericolosi dei monopoli tradizionali perché in grado di soffocare la concorrenza e di influenzare la politica, la produzione legislativa, le normative tramite imponenti azioni di lobbying. Non è la prima volta che ci si trova a fare i conti con un potere troppo concentrato. Già in passato, tecnologia e risorse strategiche hanno generato forme di dominio talmente pervasive da costringere le istituzioni a intervenire, con decisioni drastiche.
La Standard Oil di John D. Rockefeller
Una delle pagine più emblematiche si scrisse a cavallo tra Otto e Novecento, con la parabola della Standard Oil. Creatura colossale di John D. Rockefeller, l’azienda non si limitava a produrre petrolio: dominava l’intera filiera energetica degli Stati Uniti, dalla trivellazione alla distribuzione, controllando oltre il 90% del mercato. Attraverso fusioni aggressive e accordi esclusivi, Standard Oil piegava la concorrenza e imponeva le proprie condizioni. Il potere era tale da spingere il Congresso americano, nel 1890, a varare una legge completamente nuova: lo Sherman Antitrust Act. Ci vollero due decenni, ma nel 1911 la Corte Suprema degli Stati Uniti decretò lo smantellamento della Standard Oil in 34 società separate, da cui sarebbero nate, tra le altre, Exxon, Mobil, Chevron.
AT&T -American Telephone and Telegraph
Cinquant’anni dopo, la scena si ripeté in un altro settore: quello delle telecomunicazioni. AT&T -American Telephone and Telegraph – monopolizzò per decenni le conversazioni a distanza degli americani. Controllava le linee fisiche, i centralini, gli apparecchi telefonici, i servizi, persino i laboratori di ricerca (i leggendari Bell Labs, dove nacquero il transistor e il sistema operativo Unix). Per un periodo fu considerato un monopolio “buono”: aveva portato la telefonia in ogni casa americana. Ma nel tempo si fece evidente che quella centralizzazione stava soffocando la concorrenza, rallentando l’evoluzione tecnologica, impedendo l’emergere di alternative. Nel 1982, dopo un lungo contenzioso, il governo americano impose la separazione: nel 1984 AT&T fu smembrata in sette entità regionali — le cosiddette Baby Bells.
Microsoft
Poi arrivò l’era del software. Negli anni ’90, il nuovo impero si chiamava Microsoft. Con Windows installato su oltre il 90% dei computer, l’azienda di Bill Gates non vendeva solo un sistema operativo: dettava regole, standard, compatibilità. Soffocava concorrenti, integrava i propri prodotti preinstallandoli, rendeva difficile lo sviluppo di alternative. Quando il governo americano portò Microsoft in tribunale, nel 1998, era in gioco la libertà stessa del nascente ecosistema digitale. Nel 2000, un giudice federale ordinò lo smembramento dell’azienda in due entità distinte — decisione poi ammorbidita in appello. Ma l’impatto fu profondo: Microsoft fu costretta a cambiare approccio, a cedere spazio a vecchi concorrenti (Apple), a favorire la nascita di nuovi protagonisti (Google).
C’è poi un altro caso, più recente, in cui la concentrazione del potere è avvenuta sotto gli occhi di tutti, ma senza alcun intervento risolutivo: l’acquisizione, da parte di Facebook, di due delle piattaforme social più influenti al mondo. Nel 2012, l’azienda guidata da Mark Zuckerberg acquistò Instagram; nel 2014 fu la volta di WhatsApp. All’epoca, entrambi sembravano acquisti “difensivi”, mirati a rafforzare l’ecosistema di Menlo Park. Ma col tempo si è rivelato un disegno strategico molto più ambizioso: il controllo di fatto della comunicazione digitale globale, visiva e testuale, pubblica e privata. Instagram ha ridefinito la grammatica dell’immagine. WhatsApp ha sostituito la telefonia, gli SMS e persino le email per miliardi di persone. E Facebook — oggi Meta — ha così costruito un impero cognitivo senza precedenti, capace di raccogliere dati, orientare contenuti, modellare opinioni su scala planetaria. Questo caso rappresenta un precedente rilevante sotto il profilo antitrust, non solo per la dimensione economica o per la dinamica di mercato, ma per il cambiamento qualitativo della natura del potere esercitato. Attraverso quelle operazioni, Meta non ha semplicemente ampliato la propria quota di mercato: ha acquisito la capacità di controllare e modellare i flussi informativi e relazionali su scala globale, aggregando dati comportamentali, psicometrici e semantici in una struttura integrata. Tuttavia, le autorità di regolazione sono intervenute in ritardo e con strumenti inadeguati, lasciando che il consolidamento avvenisse senza un’analisi sistemica degli impatti.
Tre epoche. Tre settori. Quattro imperi. E in tutti i casi, lo stesso schema: crescita esponenziale di un attore dominante; controllo pervasivo di un intero ecosistema; rallentamento dell’innovazione; intervento pubblico per ripristinare equilibrio e aprire il mercato (tranne, come abbiamo visto, nel caso Meta).
AI: perché serve un Antitrust all’altezza della posta in gioco
Oggi siamo davanti a un potere ancora più sottile, ma infinitamente più profondo. Se la storia ci ha insegnato qualcosa, è che la concentrazione del potere, lasciata a sé stessa, si autoalimenta e, se inizialmente sembra favorire un elevato tasso di innovazione, molto presto finisce invece per costituire un freno allo sviluppo di nuove opzioni. È per questo che oggi serve una nuova generazione di strumenti regolatori: un AI Antitrust all’altezza della posta in gioco.
La necessità di separare le funzioni strategiche
Un primo principio dovrebbe essere la separazione delle funzioni strategiche. Nessuna entità dovrebbe avere il controllo simultaneo di modelli, dati e infrastrutture. Come un tempo si separarono produzione e trasmissione dell’energia (come premessa indispensabile alla liberalizzazione del settore elettrico), o i gestori delle infrastrutture ferroviarie dalle compagnie di trasporto, così oggi dovremmo impedire che chi costruisce i modelli sia anche il padrone dei dati che li alimentano e del cloud che li distribuisce.
Garantire l’interoperabilità e la trasparenza degli algoritmi
I grandi modelli dovrebbero poi garantire l’interoperabilità, essere cioè progettati per interagire con sistemi esterni, su base trasparente e documentata, per mantenere un reale pluralismo tecnologico, che consenta a startup, enti pubblici e università di innovare senza dover reinventare da zero l’intero stack cognitivo.
Un altro pilastro fondamentale è la trasparenza degli algoritmi. I modelli che superano determinate soglie di utilizzo, o capaci di influenzare mercati, elezioni, salute pubblica e processi decisionali, non dovrebbero restare scatole nere inaccessibili, giustificate da clausole di proprietà intellettuale, ma dovrebbero poter essere sottoposti ad audit indipendenti.
Una nuova disciplina sull’uso dei dati a fini di concentrazione cognitiva
Servirebbe poi una nuova disciplina sull’uso dei dati a fini di concentrazione cognitiva, limitando la possibilità, oggi ancora largamente incontrollata, di aggregare dati cross-platform senza consenso esplicito e sviluppando Data Trusts pubblici, in grado di custodire e valorizzare in modo collettivo i dati più strategici, come ad esempio quelli della sanità, dell’istruzione, dell’energia.
Antitrust Ue e Usa, qualcosa comincia a muoversi
Qualche segnale, timido ma significativo, sta emergendo. L’Unione Europea, con l’AI Act e il Data Governance Act, ha iniziato a riconoscere i rischi del lock-in tecnologico. Negli Stati Uniti, la FTC ha aperto le prime indagini su OpenAI e Anthropic, mentre il G7 ha avviato i primi tavoli sul tema dell’interoperabilità e dell’accesso equo.
Su un altro fronte, è molto importante, soprattutto in Europa, garantire un accesso equo a risorse critiche come chip, capacità di calcolo, dataset fondamentali, che dovrebbero essere resi disponibili anche per chi innova dal basso: PMI, università, startup, enti pubblici. In particolare, ciò permetterebbe alle PMI di giocare un ruolo fondamentale: anche se non hanno la scala per competere in grande, potrebbero acquisire la rapidità per innovare meglio, l’intelligenza per focalizzarsi sui bisogni reali, la flessibilità per adattarsi prima che i giganti si muovano. E soprattutto, la capacità di rischiare, di sperimentare, di costruire fuori dagli schemi.
Non è troppo tardi. In realtà, siamo appena all’inizio di una gigantesca trasformazione. È vero, i modelli attuali sono impressionanti. I transformer, i large language models, i foundation models dominano la scena. Sono veloci, versatili, persino affascinanti. Ma per quanto avanzati, sono ancora lontanissimi dall’essere intelligenze generali. Sono pattern recognizer estremamente raffinati, non ancora agenti cognitivi completi. E scalarli ulteriormente? Si può fare, certo. Ma il costo in energia e in hardware cresce più velocemente dei risultati. Ogni nuova generazione consuma risorse in modo esponenziale. Il rendimento, invece, comincia a flettere.
Verso l’esaurimento dei dati di qualità: e poi?
Senza parlare della progressiva scarsità di dati naturali di alta qualità. Secondo proiezioni condivise da realtà come EpochAI e DeepMind, il web “utile” — ovvero l’insieme di contenuti scritti in linguaggio naturale, coerenti, semanticamente ricchi e privi di rumore — potrebbe esaurirsi entro il 2026-2028.
Gli attuali ritmi di scraping e utilizzo determinano infatti un tasso di estrazione più veloce della produzione di contenuti, per cui il valore marginale dei nuovi dati umani aggiunti ai set di addestramento si avvia a diventare praticamente nullo.
Una parte crescente della comunità AI ha cominciato a riconoscere questo problema, come confermato anche da Elon Musk durante un’intervista recente, in cui ha affermato: “There’s not enough good-quality human data left. We’re running out.” L’ovvia contromossa è la più insidiosa: l’uso di dati sintetici. I modelli di nuova generazione (es. GPT-5, Claude 3, Gemini) stanno già incorporando dataset composti in parte da output generati da modelli precedenti: auto-generazione controllata, self-training, knowledge distillation su base massiva. Ma questa soluzione, solo apparentemente scalabile, comporta un rischio profondo di degenerazione cognitiva.
Bias, appiattimento e perdita di fondamento nei modelli AI
Se i modelli cominciano a essere addestrati — anche parzialmente — su materiale generato da altri modelli, si innescano tre fenomeni:
- appiattimento semantico, nel senso che i contenuti sintetici tendono a essere più prevedibili, più “medi” e meno informativi rispetto ai dati umani originari, riducendo la diversità del set;
- rinforzo di bias autoreferenziali, poiché i modelli iniziano a riprodurre i propri errori o idiosincrasie, rafforzandoli generazione dopo generazione;
- perdita di ancoraggio epistemico, in quanto viene meno il legame con fonti umane verificabili e con contesti reali, rendendo la conoscenza simulata ma non fondata.
Questo non significa che i dati sintetici siano inutili. Al contrario, possono essere validi per aumentare set di dati umani, per pre-addestramenti controllati, per il fine-tuning in contesti altamente specialistici. Ma non possono sostituire la varietà, le contraddizioni e la ricchezza del linguaggio umano non mediato.
Verso nuove architetture, nuovi paradigmi, nuovi materiali cognitivi
Tutto ciò impone una riflessione più ampia: il paradigma “più dati, più potenza di calcolo, più parametri” sta raggiungendo i suoi limiti strutturali. Da qui, l’interesse crescente verso nuove architetture, nuovi paradigmi, nuovi materiali cognitivi. Non sappiamo esattamente quali saranno i fondamenti della nuova “ondata” di AI; si parla di intelligenza neurosimbolica, in cui la rete neurale si fonde con la logica, di architetture ispirate al cervello umano, con meccanismi di attenzione, memoria a breve e lungo termine, apprendimento incrementale. Arriveranno chip neuromorfici, non progettati per calcolare, ma per funzionare come i neuroni biologici, abilitando modelli più leggeri, più intelligenti, più plastici, sistemi in grado di apprendere in continuo, senza dover riaddestrare tutto da capo, intelligenze che opereranno sul margine, che integreranno nativamente segnali multimodali — visivi, uditivi, testuali, sensoriali — in tempo reale.
Il futuro dell’IA, una speranza per l’Europa
Il futuro dell’IA, quindi, sarà molto più interdisciplinare dell’attuale paradigma deep learning-centrico. E questa è una buona notizia per l’Europa che può ancora giocare un ruolo importante con una politica di grandi investimenti mirati, con la formazione di professionisti interdisciplinari,
di istituzioni capaci di governare la complessità digitale con lungimiranza e lucidità, di una generazione di cittadini alfabetizzati all’AI.
Due direzioni:
- distribuire l’IA in tutti i settori vitali, dalla manifattura alla sanità, dalla mobilità ai servizi pubblici, non solo come tecnologia di punta, ma come infrastruttura operativa della società del futuro;
- scommettere con un massiccio sforzo di ricerca interdisciplinare sulla prossima generazione di AI.
Le ambizioni dell’Ue: l’AI Continent Action Plan
Un buon segnale in questa direzione è arrivato dalla Commissione Europea, che il 9 aprile scorso ha tracciato una delle roadmap più ambiziose mai delineate in campo tecnologico: trasformare l’Europa in un “continente guidato dall’intelligenza artificiale”. Non si tratta più di inseguire modelli esterni, adattarsi a tecnologie importate o rincorrere regolamenti. Il messaggio è chiaro: l’Europa intende costruire le proprie fondamenta cognitive.
Il piano prevede l’attivazione di almeno 13 “AI Factories” operative entro il 2026, supportate da 5 Gigafactories di nuova generazione, quattro volte più potenti delle strutture attuali. Questo investimento infrastrutturale sarà accompagnato dalla triplicazione della capacità europea nei data center nei prossimi 5–7 anni, a dimostrazione del fatto che la sovranità digitale passa anche per la capacità di calcolo locale.
Ma l’infrastruttura è solo una parte della strategia. L’Europa punta a semplificare l’accesso e l’uso dei dati per imprese e amministrazioni, attraverso regole più chiare e Data Labs inseriti nelle AI Factories, dedicati a raccogliere e curare dati di alta qualità da fonti eterogenee.
Grande attenzione è posta anche sul capitale umano: il piano prevede il potenziamento dell’istruzione e della ricerca in AI, la promozione di percorsi di reskilling attraverso i Digital Innovation Hubs europei, e un’azione coordinata per attrarre talenti globali.
La spinta non è solo tecnologica, ma anche giuridica e culturale: entro l’estate 2025 verrà lanciato l’AI Act Service Desk, un punto di riferimento per garantire supporto gratuito, strumenti personalizzati e certezza normativa a imprese e attori pubblici. Il tutto per rafforzare la fiducia dei cittadini e sostenere l’adozione dell’AI nei settori strategici, dall’industria ai servizi alla pubblica amministrazione.
L’IA e il futuro in cui vogliamo vivere
È sufficiente? Ancora no. Però il piano è una importante dichiarazione di intenti per una Europa che non vuole solo adattarsi all’AI o inseguire i leader dell’AI generativa per recuperare il ritardo, ma vuole investire nell’ecosistema europeo – ricerca, startup, hub di innovazione, infrastrutture sovrane – con una propria visione, proprie regole e propri modelli. Perché lo sviluppo dell’intelligenza artificiale non è solo una questione tecnologica, ma riguarda il futuro in cui vogliamo vivere. E forse, proprio per la sua complessità, la sua storia, la sua sensibilità pluralista, l’Europa potrebbe essere il posto migliore al mondo per provare a costruirlo.
Bibliografia
S. Russel, P. Norvig (2022, 4th edition) Artificial Intelligence: A Modern Approach, Pearsons.
M. Mitchell (2020) Artificial Intelligence: A Guide for Thinking Humans, Penguin Books.
H. Kissinger, E. Schmidt, D. Huttenlocher (2022) The Age of AI and Our Human Future, Hodder And Stoughton
I. Bremmer (2023) The Power of Crisis: How Three Threats – and Our Response – Will Change the World, Simon & Schuster.
K. Lee, C. Qiufan (2023) AI 2041. Ten Visions for Our Future, Penguin Random House.
Mukherjee et al. (Eds, 2023) Ethics in Artificial Intelligence: Bias, Fairness and Beyond, Springer
S. Zuboff (2023) The Age of Surveillance Capitalism, in W. Longhofer, D. Winchester (Eds) Social Theory Re-Wired, Routledge.
X. Huang, C. Jin, W. Ruan (2023) Machine Learning Safety , Springer
V. Dignum (2020) Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way, Springer
M. Mazzucato (2021) Mission Economy: A Moonshot Guide to Changing Capitalism, Penguin Allen Lane
G. Mulgan (2023) When Science Meets Power, Polity
R. Hoffman (2023) Impromptu: Amplifying Our Humanity Through AI, Dallepedia LLC
A. Azhar (2022) Exponential: Order and Chaos in an Age of Accelerating Technology, Penguin Random House
Debevoise & Plimpton. (2024). Navigating Antitrust in the Age of AI: Global Regulatory Scrutiny and Implications. https://www.debevoise.com/-/media/files/insights/publications/2024/06/navigating-antitrust-in-the-age-of-ai-global.pdf
Commissione Europea (2024) Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 sull’intelligenza artificiale. Gazzetta ufficiale dell’Unione europea.
Commissione Europea (2025). AI Action Plan for a Continent Driven by Artificial Intelligence. https://commission.europa.eu/topics/eu-competitiveness/ai-continent_en#:~:text=Main%20actions%20of%20the%20AI,initiatives%20around%20five%20key%20areas.
K. Ataliotou (2025). AI and Antitrust: What’s on the Agenda for the EU and the U.S. in 2025 and Beyond. https://trilligent.com/ai-and-antitrust-whats-on-the-agenda-for-the-eu-and-the-u-s-in-2025-and-beyond/