Due anni fa, il fervore attorno a GPT-5 era palpabile; si parlava di un imminente salto verso l’Intelligenza Artificiale Generale (AGI), una promessa che, nel racconto di alcuni leader, sembrava a portata di mano.
Indice degli argomenti
Dal mito di GPT-5 alla realtà del mercato
Oggi, con GPT-5 dispiegato, l’analisi del settore ci impone una riflessione più sfumata.
Il modello di OpenAI è, senza dubbio, un traguardo notevole in termini di benchmark accademici e capacità di ragionamento, ma la sua performance, in un panorama che si è rapidamente popolato, non sembra rappresentare quel divario generazionale che molti si aspettavano. L’entusiasmo iniziale si è stemperato in una constatazione: pur essendo eccellente, GPT-5 si trova in una competizione serrata con modelli come Claude di Anthropic e Gemini di Google, spesso risultando marginalmente superiore o talvolta superato in specifiche aree applicative.
Ciò che emerge da questa osservazione non è un fallimento tecnologico, ma un ripensamento strategico. La rincorsa all’AGI, fondata sull’idea che l’intelligenza si ottenga semplicemente scalando all’infinito la potenza computazionale, appare oggi come una strada non sostenibile a lungo termine. La pressione non è solo di natura algoritmica, ma tocca il modello economico e la logistica stessa di questi front-end models.
La fragilità finanziaria della “gara al più grande”
L’incessante bisogno di potenza computazionale sta mettendo a dura prova la sostenibilità finanziaria delle aziende leader. I costi di training e deployment dei modelli di punta, come quelli di OpenAI, sono astronomici. Le notizie relative a massicci accordi di fornitura di chip e investimenti con un ingente ricorso al debito (un tema sollevato da diverse testate finanziarie, come Bloomberg in analisi sulla financial engineering del settore) sollevano interrogativi legittimi sulla solidità del modello di business.
OpenAI sta perseguendo una strategia aggressiva di acquisizioni, orientata spesso all’occupazione dello spazio di mercato consumer e alla costruzione di un vasto ecosistema di adozione. Sebbene l’obiettivo sia crearsi una posizione dominante, la storia del settore tecnologico ci insegna che il mercato consumer è estremamente volatile. La fedeltà degli utenti è effimera, e l’assenza di un fossato competitivo (un moat) garantito – perché un modello migliore e più economico può sempre nascere – rende la posizione attuale più precaria di quanto non sembri. Si tratta di un modello che scommette sull’accelerazione estrema, forse a scapito della profittabilità a breve termine, una strategia ad alto rischio che richiede attenzione.
Approcci divergenti nello sviluppo dei grandi modelli linguistici: Cina e Stati Uniti a confronto
Nel 2025, lo sviluppo dei grandi modelli linguistici (LLM) mostra una crescente divergenza tra Cina e Stati Uniti, non tanto in termini di capacità assoluta, quanto di orientamento strategico, scelte architetturali e modalità di integrazione con il contesto applicativo. Mentre i modelli statunitensi tendono a privilegiare la generalizzazione, la scala computazionale e la ricerca di capacità emergenti legate all’AGI (Artificial General Intelligence), quelli cinesi — ad esempio DeepSeek, Qwen (Alibaba) e Kimi (Moonshot AI) — mostrano una spiccata attenzione verso efficienza operativa, specializzazione funzionale e accessibilità pratica.
Questa differenza non va interpretata come un giudizio di superiorità, ma piuttosto come l’esito di contesti tecnologici, normativi e di mercato distinti, che plasmano priorità e vincoli differenti.
Efficienza e ragionamento nei modelli cinesi di intelligenza artificiale Usa e cinesi
I modelli cinesi si distinguono per soluzioni progettate intorno a problemi ben definiti, spesso legati al mondo reale del lavoro e della documentazione.
– DeepSeek, ad esempio, ha recentemente sviluppato un sistema OCR multimodale che va oltre il semplice riconoscimento del testo. La sua architettura — che combina un encoder visivo con un modello linguistico MoE — è ottimizzata per comprendere la struttura di documenti complessi (tabelle, formule, layout grafici). Una tecnica chiamata *Context Optical Compression* consente di ridurre drasticamente la lunghezza della sequenza in input, mantenendo al contempo un’elevata accuratezza. Questo approccio è particolarmente utile in contesti professionali — come analisi finanziaria o ingegneria — dove i documenti non sono testi lineari, ma oggetti strutturati. Questa tecnica è un importante avanzamento anche in termini di ricerca. La sua innovazione principale è la Context Optical Compression: mappa il testo visivo in token compatti tramite una rappresentazione 2D, riducendo la sequenza fino a 10× pur mantenendo una precisione OCR superiore al 96%. DeepSeek dopo aver inventato il reasoning si dimostra come un player rilevante nell’avanzamanto delle scoperte sull’AI.
– Qwen, il modello di Alibaba, punta invece su un tipo diverso di specializzazione: il ragionamento strutturato. La serie QwQ, ad esempio, è stata progettata specificamente per compiti di matematica e programmazione, con prestazioni competitive su benchmark tecnici. Ciò che colpisce è la scelta di rilasciare versioni open-source di questi modelli, consentendo a ricercatori e aziende di ispezionare, adattare e integrare le architetture senza dipendere da API chiuse. In particolare Qwen rappresenta un innovatore nel mondo del ragionamento “ibrido” resoning e non-reasoning.
– Kimi, sviluppato da Moonshot AI, adotta una strategia centrata sull’accessibilità. Offrendo gratuitamente un modello multimodale con capacità di ragionamento esteso e supporto per contesti molto lunghi, Kimi favorisce un’adozione diffusa da parte di utenti non specializzati. La sua multimodalità è progettata per scenari quotidiani — come l’estrazione di informazioni da slide, grafici o report — piuttosto che per dimostrazioni spettacolari in ambiti come il video o l’audio. Recentemente, Kimi ha introdotto kimi-thinking-preview, un modello esplicitamente dedicato al ragionamento multimodale. Infine il 30 ottobre ha introdotto “Kimi Linear”, una nuova architettura molto più efficiente di LLM che ottimizza le risorse hardware e aumenta le performance. Bisognerà verificare sul campo ma se l’annuncio fosse reale molti datacenter tremerebbero.
Al contrario, i principali modelli statunitensi (OpenAI, Anthropic, Google, xAI) tendono a investire in capacità orizzontali: agenti autonomi, simulazioni complesse, generazione multimodale avanzata (es. video con Sora), e architetture orientate a massimizzare il potenziale emergente. Questi sforzi sono spesso accompagnati da un approccio proprietario: i modelli più avanzati non sono open-source, e l’accesso avviene prevalentemente tramite API a consumo, con costi significativi.
| Dimensione | Approccio cinese | Approccio statunitense |
| Obiettivo principale | Risolvere problemi specifici con efficienza | Espandere i confini delle capacità generali |
| Architettura | Modelli ibridi, MoE specializzati, compressione contestuale | Modelli monolitici su scala estrema, training su dati eterogenei |
| Accesso | Ampio rilascio open-source (Qwen, DeepSeek) e offerte gratuite (Kimi) | Modelli chiusi, accesso controllato tramite API |
| Multimodalità | Focalizzata su testo + immagine + struttura documento | Estesa a video, audio, 3D, con enfasi sulla generazione |
| Ragionamento | Specializzato in domini formali (matematica, codice) | Basato su catene di pensiero lunghe e auto-riflessive |
| Vincoli | Minore orientamento consumer, minore enfasi su AGI | Costi computazionali elevati, dipendenza da hardware specifico (es. GPU NVIDIA) |
| Risorse | Forte orientamento alla ottimizzazione delle risorse hardware | Le risorse hardware o energetiche non sono un vincolo |
Questa tabella evidenzia scelte progettuali diverse, ciascuna coerente con il proprio ecosistema. In Cina, la combinazione di limiti nell’accesso a chip avanzati, una domanda interna orientata a strumenti produttivi e un contesto normativo che favorisce l’autosufficienza tecnologica spinge verso soluzioni efficienti e replicabili. Negli Stati Uniti, la disponibilità di capitale, infrastrutture cloud mature e un mercato globale incentivano scommesse su capacità generali e spettacolari.
Le innovazioni emerse nei modelli cinesi — dalla compressione contestuale intelligente al ragionamento aperto e alla multimodalità accessibile — non mirano a competere direttamente con i modelli statunitensi su scala o ambizione teorica (anche se non di rado ciò avviene), piuttosto si nota l’approccio differente e divergente.
Allo stesso tempo, i modelli statunitensi continuano a esplorare frontiere concettuali importanti, anche a costo di complessità operative e sostenibilità economica incerta.
In un momento in cui il settore dell’IA sta affrontando interrogativi crescenti sulla redditività, sull’impatto energetico e sulla reale adozione, entrambi gli approcci offrono spunti utili: uno per la sua concretezza, l’altro per la sua visione.
Leadership globale e tempo di ritardo tra le due sponde
Le opinioni dei leader del settore sulla disparità tra Stati Uniti e Cina sono divergenti ma stimolanti. Se il CEO di NVIDIA, Jensen Huang, tende a minimizzare, suggerendo che il divario sia marginale, l’ex CEO di Google, Eric Schmidt, ha espresso preoccupazioni più marcate, arrivando ad affermare in recenti forum e interviste (un tema ricorrente nelle sue analisi sulla geopolitica dell’AI) che gli Stati Uniti potrebbero essere in ritardo di circa un trimestre.
Schmidt avverte che, mentre l’America si concentra sulla caccia a risultati di frontiera, forse distratta dal miraggio dell’AGI, la Cina sta sistematicamente applicando l’AI a ogni settore dell’economia, con una meticolosa attenzione all’efficienza e alla commercializzazione. Inoltre, Schmidt ha messo in guardia sulla strategia cinese di promuovere modelli open-source con pesi e dati aperti, un approccio che, a suo dire, rischia di portare la maggior parte del mondo (e in particolare il Sud globale) ad adottare stack tecnologici cinesi, erodendo l’influenza americana. La sua preoccupazione si concentra sul fatto che, se i player cinesi riusciranno a dotarsi di GPU competitive – e le mosse di aziende come Huawei in questo campo suggeriscono che questo scenario non sia lontano – l’enorme disponibilità di talenti e la consolidata esperienza nell’ottimizzazione degli algoritmi potrebbero rendere la competizione estremamente ardua per gli Stati Uniti.
Business model, finanza e intelligenza artificiale negli Usa
Di fronte a questa pressione, i giganti americani stanno cercando di differenziarsi in aree strategiche ad alto valore aggiunto.
Google, con la sua linea Gemini e il modello “Nano Banana” (riferimento a un modello di image editing e generazione multimodale su cui l’azienda sta investendo, come descritto nelle documentazioni per sviluppatori), sta chiaramente puntando alla supremazia nella multimodalità, in particolare nella generazione e manipolazione di immagini e video. L’obiettivo sembra essere quello di superare i limiti di modelli concorrenti come SORA di OpenAI in termini di coerenza e controllo, consolidando una posizione di forza nel mercato dei contenuti visivi.
Anthropic, con il suo modello Claude, sta invece perseguendo una strategia di specializzazione mirata, focalizzandosi sul mondo dello sviluppo software e del supporto avanzato ai professionisti ICT. Questa nicchia, che richiede elevata accuratezza, affidabilità e capacità di gestione di long context, garantisce all’azienda una posizione di rilievo. Tuttavia, anche in questo segmento, si osserva una crescente diffusione e capacità di modelli open-source asiatici, che insidiano costantemente la supremazia occidentale.
La dinamica attuale del settore AI non è un racconto di vincitori e vinti, ma la narrazione di due approcci divergenti. Da un lato, l’Occidente rincorre la frontiera massima della potenza; dall’altro, l’Oriente definisce il nuovo standard dell’efficienza e dell’applicazione pratica.
Per il manager moderno, la lezione da trarre non è quella di scegliere una fazione, ma di adottare un approccio più critico e sofisticato. Non è più sufficiente adottare il modello più grande o più blasonato. È necessario valutare attentamente:
- L’economia del modello: Il costo marginale dell’inferenza, l’efficienza nel deployment e la capacità di operare su infrastrutture meno esigenti stanno diventando i veri key performance indicators (KPI) per l’AI in ambito aziendale.
- La pertinenza specifica: La specializzazione di un modello su un task di business (che sia il coding, la gestione documentale o la creazione di contenuti visivi) è spesso più preziosa della sua abilità generalista.
Il futuro dell’AI non sarà definito unicamente da chi arriverà per primo all’AGI, ma da chi riuscirà a industrializzare l’intelligenza artificiale rendendola efficiente, scalabile ed economicamente sostenibile. La vera sfida, oggi, è capire che la corsa si sta spostando dalla potenza dei chip alla raffinatezza degli algoritmi, un campo in cui l’ingegneria asiatica sta dimostrando una superiorità che non possiamo ignorare.
Mentre l’Occidente si è storicamente basato sulla pubblicazione e sulla revisione tra pari (peer-review) per accelerare il progresso scientifico, si sta assistendo a un cambiamento preoccupante nelle politiche di disclosure in Cina, che rischia di creare un vantaggio asimmetrico.
Quando GPT-5 è stato rilasciato, è emerso chiaramente che, come altri modelli closed-source occidentali, aveva adottato massicciamente le tecniche di reasoning descritte e rese pubbliche circa un anno prima da DeepSeek (il cui lavoro sull’ottimizzazione del ragionamento tramite RL è un riferimento scientifico, come documentato nelle pubblicazioni dell’epoca). Questo dimostra che la conoscenza scientifica di base continua a viaggiare rapidamente.
L’ultima ondata di innovazione proveniente dalla Cina sta mostrando un trend allarmante di minore trasparenza. Modelli come DeepSeek V3 o le nuove versioni di Qwen (con le loro architetture ibride e i sistemi MoE altamente ottimizzati) stanno introducendo scoperte che migliorano significativamente l’efficienza, la riduzione dei parametri e la capacità di training, ma la descrizione delle tecniche adottate è sempre più vaga o incompleta. Questo trend all’oscuramento scientifico ha una duplice implicazione: protegge il vantaggio competitivo di chi le scopre e contemporaneamente frena la capacità dei laboratori degli altri di replicare e migliorare rapidamente tali scoperte.
Se questa tendenza non viene “spezzata” da un nuovo, fondamentale impulso di ricerca statunitense che ristabilisca una chiara leadership, il gap di efficienza e di conoscenza di base potrebbe allargarsi a favore dei modelli cinesi, conferendo loro un enorme vantaggio sul mercato aziendale, che predilige costi e risorse computazionali contenuti.
Dalla vendita di inferenza ai nuovi ricavi
L’incessante bisogno di potenza computazionale sta mettendo a dura prova la sostenibilità finanziaria delle aziende leader, e non solo per OpenAI. I costi di training e deployment dei modelli di punta sono astronomici, e la semplice vendita di inferenza, ovvero l’accesso API per generare risposte, si sta rivelando insufficiente a garantire la profittabilità su vasta scala. Questa sfida finanziaria, che vede molte aziende del settore navigare in un mare di ingenti perdite operative, spinge a riconsiderare i modelli di revenue.
Le notizie relative a massicci accordi di fornitura di chip e investimenti con un ingente ricorso al debito (un tema sollevato da diverse testate finanziarie, come Bloomberg, in analisi sulla financial engineering del settore) sollevano interrogativi legittimi sulla sostenibilità. In questo contesto, la recente dichiarazione di Sam Altman, che ha espresso l’intenzione di esplorare nuove fonti di ricavo, inclusa la pubblicità, non è un dettaglio, ma un sintomo. Se l’azienda all’avanguardia nell’AI deve contemplare il modello pubblicitario, tipico delle piattaforme consumer, significa che la strada maestra della vendita di intelligenza come servizio (AIaaS) non è ancora in grado di reggersi in piedi da sola.
Il caso OpenAI e la corsa ai gigawatt
In un scenario in cui la supremazia sui modelli di base è sempre più difficile da mantenere, la strategia di OpenAI sembra virare decisamente sull’occupazione dello spazio di adozione e integrazione nell’ecosistema utente. Questo riposizionamento strategico si manifesta attraverso due azioni principali.
In primo luogo, l’enfasi su applicazioni come SORA e la sua app mobile non mira solo a mostrare una superiorità tecnologica nel video, ma a creare un mercato di massa per gli utenti che desiderano generare e condividere contenuti. L’obiettivo è stabilire uno standard di interazione, occupando una posizione difficile da scalzare anche se un concorrente dovesse rilasciare un modello video marginalmente migliore.
In secondo luogo, le acquisizioni mirate, come quella, per citarne una, della società che sviluppò “Windsurf” (nota per i suoi strumenti IDE), suggeriscono l’intenzione di incorporare l’AI direttamente negli strumenti professionali e di sviluppo. Non potendo forse competere indefinitamente sul modello più grande e potente, si cerca di rendere i propri strumenti indispensabili per la produttività quotidiana. Questo approccio riconosce implicitamente che la vera battaglia non è più solo nei laboratori di ricerca, ma nella conquista del workflow aziendale e personale. Tuttavia, come già accennato, questo approccio espone l’azienda a un rischio enorme: se nascono alternative migliori e più economiche, soprattutto in uno spazio consumer volatile, la base utenti può cambiare fornitore in un lampo.
Negli ultimi mesi, l’ecosistema dell’intelligenza artificiale generativa ha visto una serie di annunci di portata epocale[1]: OpenAI promette di costruire decine di gigawatt di capacità computazionale, stringe partnership miliardarie con Oracle e AMD, e annuncia investimenti che superano il trilione di dollari. Sul mercato azionario, questi annunci hanno generato ondate di entusiasmo: le azioni dei fornitori di chip e infrastrutture cloud sono salite in modo significativo, alimentando una narrativa di crescita inarrestabile. Tuttavia, un’analisi più attenta rivela un divario crescente tra la dinamica finanziaria e la sostenibilità economica e operativa di questi progetti.
Hardware, obsolescenza e rischio di bolla
Al cuore della strategia di OpenAI non vi è, almeno per ora, un prodotto scalabile e profittevole. ChatGPT, nonostante la sua popolarità, non genera ricavi sufficienti a coprire i costi computazionali, che si stima superino i miliardi di dollari l’anno. L’azienda non ha ancora dimostrato di poter convertire la sua tecnologia in un flusso di reddito sostenibile. Di conseguenza, la sua crescita dipende quasi interamente dalla capacità di attrarre capitali esterni e di trasformare impegni futuri in strumenti di finanziamento immediato.
Gli accordi recenti rivelano una logica peculiare. La partnership con Oracle, ad esempio, prevede che OpenAI “affitti” 4,5 gigawatt di potenza computazionale, con un valore stimato in circa 30 miliardi di dollari l’anno. Tuttavia, la capacità effettiva oggi disponibile nel sito di Stargate ad Abilene è di appena 200 MW, con piani per raggiungere 70 MW nei prossimi 20 mesi. Considerando che un data center con un carico IT di 1 GW richiede, in media, una potenza elettrica reale di 1,5–1,8 GW (a causa di un PUE — Power Usage Effectiveness — che, secondo l’Uptime Institute, si attesta intorno a 1,55–1,59 ), il divario tra annuncio e realtà fisica è abissale. L’accordo con AMD, che lega l’acquisto di GPU all’opzione su azioni a un centesimo, è un altro esempio: strutturato per massimizzare il beneficio per AMD, non prevede alcun ritorno economico diretto per OpenAI. Rimando ad analisi più precise di quanto sta accadendo.
Questi accordi assomigliano sempre più a strumenti di finanziamento strutturato, dove l’impegno futuro di spesa viene utilizzato per garantire liquidità o vantaggi azionari oggi, piuttosto che a partnership industriali basate su un piano condiviso di creazione di valore.
Anche ammesso che le infrastrutture venissero costruite nei tempi previsti, i piani di ritorno economico si scontrano con un problema strutturale: la rapida obsolescenza del capitale tecnologico. Le GPU NVIDIA, cuore di ogni data center AI, subiscono un deprezzamento verticale. Il prezzo orario di noleggio di una H100, che nel 2023 oscillava tra 8 e 16 dollari, è sceso a 1–2 dollari entro la metà del 2024, e a metà 2025 si attesta intorno ai 2,36 dollari. Questo crollo è dovuto a una combinazione di aumento dell’offerta, uscita di nuove generazioni (Blackwell, Rubin) e saturazione del mercato.
In questo contesto, un data center costruito oggi con H100 o Blackwell avrà un valore residuo molto basso tra tre o quattro anni. I modelli finanziari che presuppongono un utilizzo a lungo termine di questi asset a tariffe stabili appaiono, quindi, profondamente ottimistici. Il rischio è che gli investimenti miliardari si trasformino in beni immobilizzati con flussi di cassa decrescenti, minando alla base la redditività delle partnership annunciate.
Sempre che nel frattempo qualche azienda cinese, dove si sta investendo tantissimo in ricerca e sviluppo, non metta sul mercato una alternativa valida ed economica a NVIDIA.
Ciò che emerge con chiarezza è un meccanismo ormai consolidato: gli annunci servono innanzitutto a creare valore di borsa, non a descrivere una roadmap operativa. Le aziende coinvolte — OpenAI, NVIDIA, Oracle, AMD — hanno tutte beneficiato di rialzi azionari significativi in seguito a questi comunicati. La narrazione di un futuro alimentato da IA onnipotente funziona come un potente catalizzatore di aspettative, capace di attrarre capitali anche in assenza di profitti.
Tuttavia, questa dinamica sposta l’attenzione dal contributo reale dell’IA ai processi produttivi — che rimane limitato — verso una logica puramente finanziaria. Il rischio, come suggerito da più analisti, è che l’intero ecosistema si trovi a navigare in una bolla alimentata da promesse che, per loro natura fisica ed economica, non potranno essere mantenute nei tempi e nei modi annunciati. La vera sfida, per il settore, non sarà tanto costruire più potenza computazionale, quanto dimostrare che esiste un ritorno economico reale capace di giustificarla.

Figura 1 le principali acquisizioni ed accordi in un circolo chiuso
Talento, formazione STEM e geografia del capitale umano
La battaglia per l’AI non si combatte solo con i chip e gli algoritmi, ma soprattutto con il talento umano e la conoscenza applicata.
Negli Stati Uniti, la competizione tra giganti come Meta, Google e OpenAI per accaparrarsi i migliori ricercatori e ingegneri è diventata feroce e incredibilmente costosa. Le cifre richieste per attrarre e mantenere top expert si moltiplicano, rendendo il costo del personale scientifico una delle principali voci di spesa, quasi al pari dell’acquisto di GPU. La vera risorsa scarsa e strategica, in questo momento, si sta rivelando il talento specializzato e la conoscenza scientifica e manageriale in grado di tradurre la ricerca in prodotti efficienti.
L’importanza del capitale umano specializzato — in particolare di professionisti con formazione STEM (Science, Technology, Engineering, Mathematics) — è ampiamente riconosciuta come leva strategica nello sviluppo di tecnologie avanzate come l’intelligenza artificiale. A questo riguardo, i dati più recenti indicano un divario crescente tra Cina e Stati Uniti in termini di numero di laureati.
Scorrendo lo State of U.S. Science and Engineering 2024 si trovano dati molto interessanti a comprendere il profilo STEM degli USA e dei confronti con il resto del mondo.



Non servono grandi spiegazioni sulla fase storica nella quale ci troviamo di fronte.
Tuttavia, un’analisi critica richiede di guardare oltre i soli volumi. La qualità, la specializzazione e la capacità di trattenere i talenti sono fattori altrettanto rilevanti. Sebbene la Cina sforni un numero impressionante di laureati, gli Stati Uniti mantengono un vantaggio in termini di prestigio accademico, capacità di attrarre talenti globali e produzione di ricerca ad alto impatto. Il rapporto Science and Engineering Indicators 2024 della National Science Foundation conferma che gli Stati Uniti continuano a spendere di più in ricerca e sviluppo di qualsiasi altro paese, pur avendo perso il primato nel numero di dottorati STEM. Inoltre, un indice recente colloca ancora gli Stati Uniti al primo posto mondiale per qualità dell’istruzione STEM, con la Cina al secondo posto.
Va inoltre considerato che il sistema educativo cinese, pur massiccio, è fortemente orientato verso discipline tecniche a scapito delle scienze sociali e umanistiche, il che potrebbe limitare la capacità di sviluppare applicazioni AI interdisciplinari. D’altra parte, gli Stati Uniti affrontano sfide interne complicate sul fronte della formazione di base STEM che potrebbero minare la pipeline futura di talenti.
La Cina ha un vantaggio quantitativo significativo nella formazione di personale STEM — un fattore cruciale per sostenere grandi progetti di R&D in AI — non è tuttavia automatico concludere che questo si traduca in un vantaggio qualitativo o sistemico. Il confronto tra i due paesi riflette due modelli distinti: uno basato sulla scala e sull’efficienza del sistema educativo statale, l’altro sulla capacità di attrarre e valorizzare talenti globali in un ecosistema aperto (almeno prima delle recenti restrizioni della presidenza attuale). Entrambi presentano punti di forza e debolezze, e il primato futuro nell’AI dipenderà non solo da quanti laureati si producono, ma da come si coltivano, integrano e applicano le loro competenze.
Adoption, Europa e il futuro dell’intelligenza artificiale
Parallelamente, si sta aprendo una cruciale competizione sul fronte dell’adoption. L’Occidente, pur essendo all’avanguardia nella ricerca pura, sta faticando a integrare l’AI in modo pervasivo nei processi aziendali e nella vita quotidiana come un vero e proprio strumento di creazione di valore diffuso. Al contrario, la Cina, grazie a politiche governative e a una diversa cultura aziendale, sta diffondendo l’AI in modo capillare nelle proprie aziende e nella vita delle persone. Questa maggiore adozione si traduce in un immenso vantaggio:
- Maggiore conoscenza: una diffusione più ampia significa un flusso costante di feedback, una conoscenza più approfondita delle esigenze reali del mercato e dei problemi pratici.
- Focalizzazione della ricerca: questo feedback permette alle aziende cinesi di focalizzare i loro investimenti in ricerca e sviluppo su task che generano benefici immediatamente spendibili sul mercato, piuttosto che sulla rincorsa di obiettivi scientifici puri (come l’AGI).
La capacità di trasformare l’innovazione algoritmica in valore economico attraverso l’adozione su larga scala potrebbe essere la mossa definitiva nello scacchiere globale. Modelli come KIMI, che ha riscosso un considerevole successo nel mondo del coding in Asia, dimostrano che l’efficienza, unita alla vicinanza al mercato, può superare rapidamente il gap tecnologico iniziale, ponendosi come concorrente diretto dei modelli occidentali specializzati in coding.
La dinamica attuale del settore AI non è un racconto di vincitori e vinti, ma la narrazione di due approcci divergenti che stanno convergendo in un punto di svolta. L’Occidente deve interrogarsi sulla sostenibilità economica del suo modello di sviluppo basato sulla pura scala (modelli sempre più energivori e “GPUivori”) e sulla sua capacità di tradurre l’innovazione di frontiera in adozione diffusa e redditizia che cambia il modo di lavorare e di vivere nella società.
Per l’osservatore attento, la lezione da trarre è che la competizione per l’AI è ormai una battaglia di geometria del capitale e del talento. Non è più sufficiente adottare il modello più grande o blasonato, è cruciale valutare i modelli efficienti, la cui crescita in Oriente non è più solo un fenomeno tecnologico, ma un indicatore di un vantaggio strategico più ampio, radicato nell’ingegneria del software, nella gestione dei costi e nella capacità di integrare l’innovazione nella quotidianità del business. La nuova ondata della competizione sarà nell’adoption.
Il futuro dell’AI sarà definito non solo da chi arriverà per primo all’AGI, ma da chi riuscirà a industrializzare l’intelligenza artificiale rendendola efficiente, scalabile ed economicamente sostenibile. Il vento sta cambiando: è il momento di un’analisi critica che guardi oltre la Silicon Valley, per comprendere appieno le forze che stanno rimodellando il paesaggio tecnologico globale. È ancora più urgente prendere una iniziativa come Europa che non sia solo “fare ammuina”.
[1] https://www.wsj.com/tech/ai/big-tech-is-spending-more-than-ever-on-ai-and-its-still-not-enough-f2398cfe?st=4xNUwz&reflink=desktopwebshare_permalink&utm_source=tldrai













