La Commissione europea sta valutando di rallentare l’attuazione dell’AI Act, la normativa cardine della strategia digitale dell’Unione sull’intelligenza artificiale.
Indice degli argomenti
AI Act rivisto nel pacchetto omnibus dalla Commissione UE, favore alle big tech
Secondo quanto rivelato dal Financial Times e dal Wall Street Journal, che hanno visto le carte, e confermato da più fonti europee, il pacchetto Digital Omnibus che sarà discusso il 19 novembre potrebbe prevedere:
- una moratoria di un anno per i sistemi di intelligenza artificiale ad alto rischio,
- il rinvio delle sanzioni fino all’agosto 2027,
- la creazione di un’unica autorità europea per l’AI,
- e una semplificazione degli obblighi di compliance per le imprese.
Bruxelles parla di “snellimento”, non di arretramento. Ma il momento scelto per questa revisione, tra le pressioni delle Big Tech e la necessità di non rallentare la crescita, rivela un problema più profondo: l’Europa rischia di rimanere senza un proprio spazio strategico nell’AI globale.
Il problema: l’Europa in ritardo su una tecnologia di potere
Dietro la possibile pausa dell’AI Act c’è una domanda di fondo: può l’Europa sopravvivere senza una propria intelligenza artificiale generativa? L’intelligenza artificiale non è più una “tecnologia”, è una infrastruttura di potere. Controlla il modo in cui si producono conoscenza, innovazione, sicurezza, crescita economica. Rinunciare a svilupparla o governarla equivale, per l’Unione, a rinunciare a una parte della propria sovranità tecnologica.
USA e Cina: due modelli di dominio
Nel nuovo equilibrio geopolitico, Stati Uniti e Cina incarnano due modelli opposti ma ugualmente dominanti.
- Gli Stati Uniti hanno adottato un approccio industriale: pochi grandi attori privati – OpenAI, Google, Anthropic, Meta, sostenuti da enormi investimenti pubblici in supercalcolo e difesa. L’AI è vista come un asset strategico nazionale, protetto da barriere all’export, incentivi fiscali e partnership militari.
- La Cina, invece, ha integrato l’AI nella pianificazione statale: il Next Generation AI Plan e il Regolamento sulla Sicurezza degli Algoritmi disegnano una governance centralizzata, con un forte controllo sui dati e una rete di hub regionali che alimentano la “AI sovereignty with Chinese characteristics”.
Entrambe le potenze non separano innovazione e geopolitica. Per loro l’AI è al tempo stesso strumento di potere economico, militare e culturale. L’Europa, invece, la tratta ancora come una materia da regolare, non come un pilastro della sicurezza e dell’autonomia strategica.
Rischio dipendenza da big tech: l’Europa come zona di utilizzo
L’80% della capacità di calcolo mondiale per l’addestramento dei modelli è concentrato negli Stati Uniti; la Cina controlla gran parte della produzione di chip avanzati e terre rare; l’Europa importa entrambe. Senza infrastrutture proprie, modelli nativi e un’industria del calcolo sovrana, l’Unione rischia di trasformarsi in zona di consumo dell’intelligenza artificiale, non in area di produzione. Una condizione che ricorda la dipendenza energetica del secolo scorso, ma con un aggravante, questa volta non si tratta solo di energia, ma di intelligenza, di capacità di decidere, prevedere, interpretare.
AI e regole, cosa potrebbe fare l’Europa
Per evitare questa marginalizzazione, servono scelte non burocratiche ma politiche.
Tre in particolare:
- Costruire una sovranità computazionale europea. Investire in infrastrutture di calcolo condivise, accessibili a PMI, università e centri pubblici. Il European AI Compute Facility non può restare sulla carta: serve una rete di supercomputer effettivamente operativa e interconnessa entro il 2026.
- Creare un “modello europeo” di AI. Promuovere Large Language Models multilingue e trasparenti, addestrati su dataset europei, rispettosi dei diritti fondamentali ma competitivi in performance. Un modo per non dipendere da GPT, Gemini o Claude, modelli che riflettono culture e priorità geopolitiche non europee.
- Integrare sicurezza e innovazione in una strategia unica. Non basta regolare, bisogna investire e coordinare. L’AI Act, il Data Act e il Cyber Resilience Act devono essere strumenti di un’unica politica industriale e di sicurezza. L’AI deve essere considerata parte delle infrastrutture critiche europee, al pari di energia e difesa.
AI Act nel pacchetto omnibus. Un equilibrio fragile
Il dilemma è chiaro, l’Europa non può permettersi né l’eccesso di rigidità né l’abbandono del proprio progetto normativo. Se cede alla logica del “ritardiamo per non bloccare”, consegna la leadership tecnologica agli altri. Se si chiude in un formalismo normativo, rischia di isolarsi da una corsa globale che procede a velocità esponenziale. Serve una terza via: regolare per crescere, non per frenare. Un modello di “AI regolata” che diventi la vera bandiera europea nel mondo.
L’AI come nuova geopolitica dell’intelligenza
Il dibattito sul “periodo di grazia” dell’AI Act è solo in apparenza tecnico. In realtà, definisce il posto dell’Europa nel mondo che viene. Gli Stati Uniti vogliono plasmare le regole, la Cina costruisce le infrastrutture; l’Europa rischia di restare lo spazio dove gli altri sperimentano le proprie intelligenze.
Se l’Unione non accelera, non sarà più questione di innovazione, ma di identità politica e culturale. Perché restare senza una propria AI significa cedere il linguaggio con cui penseremo, lavoreremo e decideremo nei prossimi decenni. In geopolitica, chi rinuncia a pensare con la propria testa, finisce per pensare con quella degli altri.











