Non c’è dubbio che l’Europa abbia una regolamentazione dell’Intelligenza Artificiale più rigorosa rispetto agli Stati Uniti. La normativa europea in vigore include il celebre AI Act e le leggi nazionali nate dal suo recepimento, che impongono grande cautela nell’adozione di sistemi di IA per le applicazioni a rischio.
Indice degli argomenti
Le normative europee e la neutralità tecnologica nell’intelligenza artificiale
Saggiamente, il legislatore europeo ha cercato di mantenere una certa neutralità tecnologica, basando le restrizioni alla messa in opera dei modelli di IA sul rischio che si corre usandoli e non sulla specifica tecnologia che utilizzano.
Nonostante il tentativo della Commissione Europea di mantenere la neutralità tecnologica, il quadro geopolitico sta causando una deriva che fa divergere le soluzioni tecniche usate in Europa, negli Stati Uniti e in Cina.
Architettura tecnica dei modelli di intelligenza artificiale
Per capire la natura del fenomeno e le sue conseguenze, bisogna considerare che gli odierni stack LLM sono costituiti da vari componenti hardware e software che sono utilizzati nelle diverse fasi del ciclo di vita dei modelli, dall’addestramento iniziale del modello fondazionale all’interazione con l’utente del modello finale, passando per la personalizzazione dell’addestramento e per l’esecuzione del modello LLM in produzione.
Oltre ai componenti che eseguono la raccolta dei dati di addestramento grezzi, ci sono quelli che eseguono la pulizia dei dati e la loro conversione in vettori da memorizzare in appositi database vettoriali. Grande importanza rivestono anche i moduli di orchestrazione che lanciano le attività di addestramento, personalizzazione e inferenza del modello, allocando le risorse necessarie [Al Qassem et al., 2024]. Il panorama dei componenti non sarebbe completo senza il sistema mono o multi-agente che viene usato per interagire con gli utenti.
Ai fini delle prestazioni, riveste particolare importanza l’architettura hardware disponibile per l’attività di inferenza. L’architettura comprende i chip set (GPU, CPU e TPU) ottimizzati per i carichi di lavoro IA, i bus veloci per portare i parametri dei modelli LLM a questi chip set e la memoria locale superveloce necessaria ai chip set per memorizzare parametri stessi e I risultati parziali. Questa architettura esecutiva non è una commodity; anzi, la sua struttura fa la differenza relativamente alle prestazioni in termini di latenza che si possono ottenere dall’implementazione di un LLM, indipendentemente da come è stato addestrato. [Li et al., 2024]
Strategie divergenti: efficienza cinese vs potenza americana nell’intelligenza artificiale
Consideriamo ora la deriva tecnologica facendo riferimento all’architettura esecutiva appena descritta.
Gli LLM cinesi, ed in parte anche quelli europei, privilegiano l’economicità e l’efficienza energetica in produzione, in parte a causa dei vincoli hardware. Ad esempio, i modelli cinesi DeepSeek R1 e V3 utilizzano architetture multi-modello detti Mixture of Experts (MoE), suddividendo modelli di grandi dimensioni in sottomodelli più piccoli. Questa scelta consente di ridurre le esigenze computazionali, e quindi i requisiti hardware per eseguire il modello.
Va notato che la scelta architetturale ha un impatto diverso sulle due principali tecniche per il progetto di LLM: GLM (General Language Model) e GPT (Generative Pre-trained Transformer). I modelli di tipo GPT seguono un approccio autoregressivo, cioè sono addestrati per predire il completamento di una sequenza, il cui prefisso è il prompt dell’utente. In generale i modelli GPT possono essere multimodali, ossia lavorare su sequenze vettoriali composte da testo e (rappresentazioni) di dati multimediali. I grandi modelli multimodali, che alcuni considerano la strada verso l’intelligenza artificiale generale dotata di autocoscienza, beneficiano molto dai chipset hardware avanzati.
I modelli GLM (General Language Model) sono invece progettati per essere capaci di affrontare una vasta gamma di compiti linguistici semplici, spesso frazionabili per l’esecuzione su architetture ibride o distribuite. Tra questi vi sono i modelli cinesi come ERNIE 3.0 Titan di Baidu, ma anche modelli open source come BLOOM e americani cone PaLM (Pathways Language Model) – di Google, usato in Gemini e LLaMA (Large Language Model Meta AI) di Meta, in cui si vede la strategia impostata da Yann Le Cun, il grande informatico francese premio Turing oggi scettico rispetto ai modelli GPT monolitici e miultimodali che prevedono l’elaborazione congiunta di testo e immagini.
Restrizioni hardware e impatto sull’intelligenza artificiale cinese
La scelta tra le due famiglie dipende anche dalla disponibilità dell’hardware adatto. Le restrizioni poste all’esportazione di tecnologie statunitensi, sono regolate dai Regolamenti sull’Amministrazione delle Esportazioni (EAR) amministrati dal Bureau of Industry and Security (BIS) del Dipartimento del Commercio degli Stati Uniti. Gli EAR limitano l’accesso della Cina ai processori di intelligenza artificiale più potenti, spingendo gli sviluppatori cinesi ad adottare architetture multimodello.
Consideriamo a titolo di esempio un chip set relativamente standard, la GPU NVIDIA A100 che ha una memoria locale fino a 80 GB, flessibile in base alle dimensioni e ai requisiti del modello. Questa capacità di memoria è fondamentale per la gestione simultanea dell’enorme quantità parametri coinvolti negli LLM. Inoltre l’A100 supporta comunicazione veloce multi-GPU e multi-nodo.
La GPU A100 è in libera vendita in Europa e diversi rivenditori la offrono in configurazioni con memoria locale d 40 GB e 80 GB, ma è stata inclusa negli EAR per limitare l’accesso della Cina a tecnologie avanzate di intelligenza artificiale.
DeepSeek V3 però non ne ha bisogno: comprende 671 miliardi di parametri ma ne utilizza solo 37 miliardi alla volta, raggiungendo prestazioni elevate a una frazione del costo dei modelli statunitensi di punta come GPT-4.
Anche l’industria europea, per motivi di costo, si sta concentrando su comunità di modelli linguistici più piccoli (Small Language Model) per applicazioni specifiche, come IoT ed edge computing, che richiedono meno potenza di calcolo ma offrono un’elevata accuratezza per attività mirate. Gli LLM statunitensi, GPT-4 e Claude 3.5, danno invece priorità alla scalabilità di modelli di grandi dimensioni e di uso simultaneo di centinaia di miliardi di parametri, richiedendo pero’ grandi (ed energivore) risorse computazionali anche in fase di inferenza.
Approcci normativi globali all’intelligenza artificiale
La normativa europea regola l’uso degli LLM rispetto all’applicazione in cui vengono impiegati, e apre la strada alla valutazione volontaria a posteriori dei modelli LLM attraverso metodologie, come quella HH4AI che abbiamo messo a punto all’Università di Milano {Ceravolo et al., 2025].
Gli LLM cinesi sono sottoposti a rigide normative statali, che richiedono l’approvazione governativa dell’addestramento di ogni modello a priori, ovvero prima della pubblicazione. L’autorità incaricata dell’approvazione è la Cyberspace Administration of China (CAC), che nel 2023 ha rilasciato il documento “Interim Measures for the Management of Generative Artificial Intelligence Services”, che specifica le procedure di test nencessarie per il rilascio dei modelli. Il primo gruppo di otto LLM approvati dslla CAC, compreso Ernie di Baidu, fu pubblicato nell’agosto 2023; il numero dei modelli approvati è salito a 117 a settembre 2024. Le normative cinesi impongono forti vincoli ai dati di training e agli output dei modelli, limitando la portata degli argomenti che i modelli possono affrontare.
Va notato che gli Stati Uniti non hanno ancora una legislazione federale completa in materia di intelligenza artificiale. Il più recente ordine esecutivo degli Stati Uniti sull’implementazione dell’intelligenza artificiale (AI), firmato dal presidente Donald J. Trump il 20 gennaio 2025, è intitolato “Rimozione delle barriere alla leadership americana nell’intelligenza artificiale”. Questo ordine revoca l’ordine esecutivo 14110, firmato dal presidente Joe Biden il 30 ottobre 2023, intitolato “Sviluppo e uso sicuro, protetto e affidabile dell’intelligenza artificiale”. Il nuovo ordine mira a eliminare le politiche che ostacolano l’innovazione americana dell’IA e a promuovere la leadership degli Stati Uniti nell’IA. Questo consente ad aziende statunitensi come OpenAI, Anthropic e Meta di sviluppare i loro LLM con meno restrizioni sui contenuti, sebbene siano sottoposti a controlli rigorosi per pregiudizi e sicurezza.
Specializzazione linguistica nei modelli di intelligenza artificiale
Il focus linguistico di un LLM dipende dalla combinazione di lingue in cui sono nativamente scritti i documenti su cui è stato addestrato. Gli LLM cinesi devono essere focalizzati su dati nativi (ovvero, addestrati usando materiale redatto in cinese e non materiale tradotto), perchè devono servire primariamente il contesto linguistico e culturale del loro (enorme) mercato principale, la Cina. Qwen (Alibaba), ERNIE (Baidu) e DeepSeek ottengono risultati eccezionali nei benchmark cinesi come ZeroCLUE, proprio grazie all’addestramento su dati cinesi nativi. Gli LLM statunitensi sono progettati per un pubblico globale ma hanno una forte enfasi sull’inglese, ed ottengono capacità multilingue attraverso l’addestramento su dati tradotti (sempre da LLM). In Europa, l’importanza dell’ottimizzazione degli LLM su contenuti nativi è stata compresa solo di recente, ma i ridotti bacini di utilizzo dei linguaggi europei, con la possibile eccezione dello spagnolo, rendono la prospettiva ancora incerta.
Performance e competitività nell’intelligenza artificiale globale
Quali sono le conseguenza della deriva tecnologica in atto in termini della qualità (e non solo della latenza) della risposta dei modelli? Un recente articolo di ricerca [Jones, 2025] ha analizzato la competizione tra Stati Uniti e Cina valutando le due categorie di modelli LLM, GLM e GPT, di cui abbiamo parlato. I modelli sono stati confrontati eseguendo benchmark classici come General Language Understanding Evaluation (GLUE). Lo studio ha rilevato che il divario tra i modelli dei due Paesi in termini dei benchmark classici si sta riducendo. Nel febbraio scorso, DeepSeek R1 ha ottenuto un punteggio di 1.362 sul benchmanrk LMSYS Chatbot Arena, solo l’1,7% in meno rispetto ai modelli statunitensi (1.385).
Gli LLM cinesi come DeepSeek R1 e Qwen sono convenienti. DeepSeek V2 che costa 1 RMB (la moneta cinese, circa 0,14 dollari) per milione di token di input, rispetto al costo di GPT-4, che è 100 volte superiore. Gli americani eccellono invece nelle capacità multimodali che – anche secondo chi è scettico sull’ intelligenza artificiale autocosciente -sono importanti per l’uso degli LLM nella ricerca scientifica e nelle attività di ragionamento evolute. GPT-4 mostra una supremazia indiscussa su benchmark complessi come Massive Multitask Language Understanding (MMLU), un benchmark in grado di valutare le capacità di dei modelli LLM in un’ampia gamma di materie, ben più impegnativo rispetto a GLUE.
MMLU è composto da 15.908 domande a risposta multipla che coprono 57 materie, dai complessi argomenti scientifici al diritto internazionale, fino all’alimentazione e alla religione. Quando MMLU è stato rilasciato, la maggior parte dei modelli LLM esistenti raggiungeva un livello vicino alla casualità (25%). Il modello più performante, GPT-3 175B, ha raggiunto un’accuratezza del 43,9%. Si stima che gli esperti umani di ciascun settore raggiungano un’accuratezza di circa il 90%. Va notato che l’accesso al codice software del modello riveste un’importanza inferiore rispetto a quello della disponibilità dell’hardware. Gli Stati Uniti sono leader nei modelli a codice sorgente proprietario con aziende come OpenAI che – malgrado il loro nome – si concentrano su sistemi chiusi, ma le iniziative open-source come Llama di Meta stiano guadagnando terreno e non sono soggette a restrizioni di esportazione.
Il futuro della competizione nell’intelligenza artificiale
La divergenza tra gli stack LLM statunitensi, cinesi ed europei è una tendenza significativa, radicata nel diversi quadri normativi e nella disponibilità di hardware, oltre che nelle diverse priorità culturali e obiettivi strategici. Gli LLM cinesi eccellono in termini di economicità e copertura della lingua cinese. Gli LLM statunitensi resteranno leader in termini di prestazioni, capacità multimodali e portata globale, finchè potranno sfruttare hardware di qualità superiore e un contesto normativo permissivo.
Tuttavia, il divario prestazionale si sta riducendo rapidamente, ed i modelli cinesi sfidano il dominio statunitense a costi inferiori. Le tensioni geopolitiche, in particolare i controlli statunitensi sulle esportazioni di semiconduttori, hanno reso più rapida questa divergenza, spingendo la Cina verso architetture di intelligenza artificiale alternative.
Per l’Europa, trovare una propria strada vista la divergenza dalle due superpotenze non è solo una scelta tecnica ma esistenziale: ciascun ecosistema integra i propri valori culturali e politici nei propri modelli, influenzandone i risultati e le applicazioni.
Bibiografia
[Al Qassem et al., 2024] Al Qassem, L. M., Stouraitis, T., Damiani, E., & Elfadel, I. M. (2024). Containerized microservices: A survey of resource management frameworks. IEEE Transactions on Network and Service Management.
[Li et al., 2024] Li, J., Xu, J., Huang, S., Chen, Y., Li, W., Liu, J., … & Dai, G. (2024). Large language model inference acceleration: A comprehensive hardware perspective. arXiv preprint arXiv:2410.04466.
[Ceravolo et al., 2025] Ceravolo, P., Damiani, E., D’Amico, M. E., Erb, B. D. T., Favaro, S., Fiano, N., … & Tamborini, M. A. (2025). HH4AI: A methodological Framework for AI Human Rights Impact Assessment under the EUAI ACT. arXiv preprint arXiv:2503.18994.
[Jones, 2025] Jones, Nicola. “AI race in 2025 is tighter than ever before.” Nature, Aprile 2025