intelligenza artificiale

Big tech, le mani su tutto lo stack AI: l’UE si svegli



Indirizzo copiato

Le grandi aziende dell’AI non competono più soltanto sui modelli. Acquisizioni anche anomale come quella di uno show da parte di OpenAI stanno spostando il potere verso chi controlla la filiera e i suoi colli di bottiglia. È qui che si decide il futuro dell’economia (digitale) globale e l’Europa deve accelerare i propri sforzi

Pubblicato il 8 apr 2026

Alessandro Longo

Direttore agendadigitale.eu



big tech filiera AI
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il 2 aprile 2026 OpenAI ha annunciato l’acquisizione di Tbpn, talk show tecnologico fondato nel 2024 da John Coogan e Jordi Hays.

A prima vista può sembrare un’operazione laterale: non un laboratorio di ricerca, non una società di semiconduttori, non un’infrastruttura cloud. Strano, però: una mossa così, in un momento in cui OpenAI si focalizza sul business, in vista della quotazione, e arriva a chiudere per questo motivo Sora.

Ma la mossa è organica nella nuova strategia globale su cui si confrontano ora i big dell’intelligenza artificiale.

Ovvero: il controllo di filiera. L’intero ecosistema su cui pensano che l’AI cambierà il mondo. Modelli, chip, software, certo. Ma anche cybersecurity. E public discourse, media: Tbpn, appunto.

Big tech AI per il controllo della filiera

Le grandi aziende stanno insomma cercando di controllare i passaggi in cui i modelli diventano prodotti, margini, influenza e potere di mercato: il calcolo, il software che orchestra i carichi, la sicurezza, l’inferenza, la distribuzione commerciale e persino i canali che orientano la conversazione pubblica. OpenAI, nel comunicare l’operazione, ha scritto che Tbpn manterrà l’indipendenza editoriale, ma entrerà nella Strategy org e riporterà a Chris Lehane; Reuters ha aggiunto che la società vede l’acquisizione come uno strumento per spiegare meglio i propri piani e incidere sul dibattito sugli effetti dell’IA.

Letta in questo quadro, Tbpn non è una stranezza ma un sintomo.

In questi stessi giorni:

  • Google ha completato l’acquisizione di Wiz per 32 miliardi di dollari, la più grande della sua storia;
  • Nvidia ha comprato SchedMD, la società dietro Slurm, uno dei software più usati per gestire i carichi nei supercomputer e in parte dei cluster AI;
  • Broadcom ha rinnovato fino al 2031 la partnership con Google sui chip AI personalizzati;
  • Amazon, Microsoft e Meta hanno accelerato sulle rispettive famiglie di chip proprietari.

L’IA sta entrando nella sua fase industriale, e nelle fasi industriali il vantaggio non dipende da un singolo prodotto ma dal controllo dei colli di bottiglia. È questo il terreno su cui si misurano oggi integrazione verticale, dipendenza tecnologica e capacità di catturare rendite lungo la filiera.

Tbpn: perché un media può diventare un asset industriale

Tbpn nasce come show online su tecnologia, startup e venture capital, con ospiti come Mark Zuckerberg, Satya Nadella, James Cameron e Sam Altman. Reuters lo descrive come un format capace di costruire in poco tempo una comunità molto seguita nella Silicon Valley; OpenAI, dal canto suo, lo definisce uno dei luoghi in cui la conversazione quotidiana su AI e builder “accade davvero”.

La società ha insistito sulla tutela dell’autonomia editoriale, ma ha anche spiegato che la struttura porterà dentro OpenAI competenze di comunicazione e marketing da usare oltre il programma. È qui che la mossa diventa interessante per un’analisi di economia politica: in un mercato in cui regolazione, reputazione e relazioni con i governi pesano quanto la tecnologia, il controllo della narrativa non è un elemento accessorio. È parte della catena del valore. Chi riesce a spiegare la propria visione dell’IA a sviluppatori, imprese, investitori e decisori pubblici costruisce consenso, abbassa frizioni regolatorie e rafforza il proprio posizionamento negoziale.

Quando la narrativa AI entra nello stack

Per anni la comunicazione delle piattaforme digitali è stata trattata come un livello separato rispetto all’infrastruttura. Oggi questa separazione regge meno. L’IA è una tecnologia general purpose, con effetti attesi su produttività, lavoro, servizi pubblici, sicurezza e difesa. OpenAI lo dice in modo esplicito nel proprio annuncio: la “standard communications playbook” non basta più per un’azienda che si percepisce al centro di una trasformazione sistemica.

Da qui l’idea di acquisire un canale già credibile presso l’ecosistema tech. La scelta segnala che il mercato dell’IA non si gioca solo nei data center ma anche nello spazio, più opaco, in cui si formano fiducia, agenda e legittimazione pubblica (vedi i grandi rischi sistemici associati all’AI, disinformazione, lavoro, armi di distruzione di massa…).

E in un settore dove i tempi della tecnologia corrono più dei tempi della regolazione, questa leva conta.

Google, Wiz e il ritorno dell’integrazione verticale

L’operazione più grande di questo ciclo resta Wiz. Il 10 febbraio 2026 Google ha ottenuto il via libera incondizionato dell’Unione europea all’acquisizione da 32 miliardi di dollari; l’accordo, annunciato nel marzo 2025, rafforza Google nel cloud e nella cybersecurity contro Amazon e Microsoft.

Il punto, però, non è solo difendersi meglio dagli attacchi informatici. Wiz presidia il livello in cui modelli, dati, workload e configurazioni cloud diventano un rischio operativo e regolatorio. Chi controlla quel livello controlla una parte crescente del valore generato dall’IA enterprise. Non a caso l’operazione si inserisce in una strategia più ampia di rafforzamento di Google Cloud come piattaforma integrata, non solo come fornitore di risorse computazionali.

Dal cloud al silicio

La stessa logica si vede nel fronte hardware. Il 31 marzo 2026 Google Cloud ha portato in disponibilità generale TPU7x, prima versione della famiglia Ironwood, presentandola non soltanto come potente ma come “cost-effective” per Llm, mixture of experts e modelli di diffusione. Il 6 aprile Reuters ha riferito che Broadcom ha firmato con Google un accordo pluriennale per sviluppare e fornire future generazioni di chip AI e componenti di rack fino al 2031. Tradotto in termini industriali: Google non vuole limitarsi a vendere cloud, ma a costruire una catena che va dal silicio al servizio gestito, passando per networking, orchestrazione e sicurezza. In questo modo prova a difendere i margini, ridurre l’esposizione al predominio Nvidia e trasformare il costo del calcolo in un vantaggio competitivo stabile.

La lezione di Nvidia: il potere sta nello stack

Il caso Nvidia chiarisce perché tutte le altre si muovono così. Per anni l’azienda è stata raccontata soprattutto come il campione delle gpu. Oggi quel racconto è insufficiente. Il 6 aprile Reuters ha riferito che l’acquisizione di SchedMD ha sollevato preoccupazioni tra operatori dell’AI e del supercalcolo: Slurm gestisce circa il 60 per cento dei supercomputer mondiali e viene usato anche da Meta, Mistral e Anthropic per parti dei propri workload.

Nvidia sostiene di voler mantenere Slurm open source e vendor-neutral.

Comprando un software di orchestrazione così diffuso, il leader dell’hardware entra in un livello capace di influenzare come e quanto bene funzionano anche i chip rivali. Reuters ricorda che alcuni operatori vedono in questa mossa il test più chiaro delle intenzioni di Nvidia dopo precedenti acquisizioni software come Bright Computing.

Interconnessioni e standard di fatto

Pochi giorni prima, il 31 marzo, la notizia dell’investimento da 2 miliardi di dollari in Marvell, legato alla volontà di rendere più facile l’adozione di chip custom disegnati con il networking e i processori Nvidia.

Qui si vede bene la grammatica della nuova fase: chi controlla il chip prova a controllare anche interconnessioni, standard software, strumenti di sviluppo, gestione dei cluster e integrazione nel data center. In termini di economia politica significa spostare il potere dal singolo prodotto allo stack. E quando il potere si concentra nello stack, aumentano le barriere all’ingresso, si rafforzano i costi di switching e diventa più difficile per clienti e concorrenti sottrarsi alla piattaforma dominante.

Cloud, chip e lock-in: il nodo che la politica deve guardare

Questa dinamica è già al centro dell’attenzione dei regolatori. Nel luglio 2025 la Competition and Markets Authority britannica ha concluso che nel mercato dei servizi cloud la concorrenza “non funziona bene”.

Nella sintesi della decisione finale, la Cma ha individuato problemi strutturali e ha formulato raccomandazioni; il 31 marzo 2026 ha poi precisato che Amazon e Microsoft detengono posizioni di significativo potere di mercato e che ostacoli come egress fees, scarsa interoperabilità e pratiche di licensing limitano switching e multi-cloud. Nello stesso annuncio, la Cma ha spiegato che l’integrazione dell’AI dentro il software d’impresa rende questo un passaggio critico anche per produttività, competitività e resilienza del settore pubblico e privato.

Concentrazione e dipendenza tecnica

L’Ocse arriva a conclusioni simili. In un rapporto del 2025 sul cloud, l’organizzazione parla di “high levels of market concentration”, economie di scala e di scopo che favoriscono gli hyperscaler, barriere elevate all’entrata ed elementi come egress fees e credit programmes che possono rafforzare il lock-in. In un secondo lavoro dedicato all’infrastruttura AI, l’Ocse definisce l’IA una tecnologia general purpose e avverte che la filiera fisica — chip avanzati, data center, cloud compute — presenta caratteristiche che la rendono esposta a problemi di concorrenza. È il passaggio decisivo: la questione non riguarda solo l’antitrust in senso classico, ma il modo in cui si organizzano i mercati di una tecnologia destinata a propagarsi in tutta l’economia.

Partnership sotto osservazione

Anche la Federal Trade Commission statunitense, nel rapporto pubblicato il 17 gennaio 2025 sulle partnership tra cloud provider e sviluppatori di AI, ha evidenziato elementi che meritano attenzione: diritti di equity e revenue sharing, diritti di consultazione e controllo, clausole di esclusività, accesso a input cruciali come il calcolo e persino piani di co-sviluppo di chip progettati dai cloud provider per i modelli dei loro partner. La Ftc non dice che ogni partnership sia necessariamente anticoncorrenziale. Dice però che la struttura di questi rapporti può incidere su accesso agli input, possibilità di switching e capacità delle imprese emergenti di crescere fuori dall’orbita degli hyperscaler. È un punto che riguarda direttamente anche il mercato europeo.

Trainium, Maia, MTIA: perché il chip proprietario è una leva politica oltre che tecnica

Amazon, Microsoft e Meta non stanno sviluppando silicio proprietario soltanto per inseguire Nvidia sul piano tecnologico. Stanno costruendo una leva politica e contrattuale.

Aws descrive Trainium come una famiglia di acceleratori progettati per training e inference su larga scala; a novembre 2025 ha annunciato che Project Rainier, sviluppato con Anthropic, è entrato in funzione con quasi mezzo milione di chip Trainium2, con l’obiettivo di superare un milione di chip entro la fine del 2025 tra uso diretto e Bedrock. Per Aws questo significa due cose: ridurre il costo unitario di una parte dei carichi AI e legare in modo più stretto i clienti strategici alla propria infrastruttura. Non a caso Reuters segnala che Anthropic usa una combinazione di hardware che include Trainium, tpu di Google e gpu di Nvidia: la multi-architettura cresce, ma dentro rapporti comunque fortemente mediati dai grandi cloud provider.

L’inferenza come leva economica

Microsoft si muove con una logica vicina. Nel presentare Maia 200 il 26 gennaio 2026, la società ha insistito sul miglioramento dell’economia della generazione di token, cioè sul costo dell’inferenza più che sul solo primato prestazionale. È un dettaglio che conta: nella fase del deployment di massa, l’inferenza rischia di diventare il vero collo di bottiglia economico. Se un provider riesce a comprimere quel costo attraverso chip proprietari, software ottimizzato e integrazione con il proprio cloud, guadagna spazio su prezzi, margini e capacità di servire clienti enterprise con contratti sempre più estesi. L’infrastruttura torna a essere la politica industriale dell’IA.

La diversificazione hardware di Meta

Meta offre forse l’esempio più netto di questa trasformazione. L’11 marzo 2026 ha annunciato di voler sviluppare e distribuire quattro nuove generazioni di chip MTIA in due anni, con un focus esplicito su ranking, recommendation, GenAI e soprattutto inference. La società afferma di avere già in produzione centinaia di migliaia di chip per workload di inferenza e presenta il proprio programma come il centro della strategia infrastrutturale. Pochi giorni dopo ha annunciato una partnership pluriennale con Amd fino a 6 gigawatt di Instinct GPUs e, il 24 marzo, un accordo con Arm per una nuova classe di cpu da data center.

Diversificare i fornitori, co-progettare silicio e software, ridurre dipendenze esterne e costruire un portafoglio hardware calibrato sui propri carichi. È un approccio industriale che punta a trasformare il controllo dell’infrastruttura in vantaggio competitivo nei mercati a valle: pubblicità, feed, agenti, strumenti di produttività, dispositivi.

Per l’Europa il problema non è solo regolare l’IA, ma avere accesso alla sua base materiale

A fronte di questo grande spostamento di pedine bisogna capire quanto l’Europa è pronta a giocare la propria partita.

Sono giorni di confronto e scontro su quale flessibilità dare all’esecutività dell’AI Act, con il digital omnibus (o AI omnibus).

Ma, come denuncia l’associazione Edri, il primo aprile 2026, “la Commissione ha confermato pubblicamente la propria intenzione di «avviare un dialogo per rafforzare la nostra cooperazione in materia di tecnologie e mercati digitali», al fine di «chiarire eventuali malintesi». “Per quanto innocue possano essere le intenzioni della Commissione, recenti dichiarazioni dell’amministrazione statunitense hanno chiarito che essa sta attivamente cercando modi per ridurre l’applicazione delle leggi dell’UE in materia di tecnologia”, scrive Edri.

Al tempo stesso, bisognerà vedere l’Europa dispone della base industriale necessaria per non dipendere interamente da infrastrutture, chip e cloud controllati altrove.

Dalla regolazione alla capacità produttiva

La Commissione UE lega ormai sempre più esplicitamente regolazione e politica industriale. Sulla pagina ufficiale delle AI Factories parla di una priorità strategica e prevede che tra 2025 e 2026 siano operative almeno 15 AI Factories con relative antenne, con l’obiettivo di dare accesso a startup e pmi.

Nella strategia “Apply AI”, pubblicata il 27 marzo 2026, Bruxelles collega la diffusione dell’AI alla competitività dei settori strategici e alla sovranità tecnologica, con un riferimento esplicito a un approccio “buy European” soprattutto per il settore pubblico e a strumenti come AI Factories, gigafactories, testing facilities e sandbox regolatorie. In parallelo, la Commissione annuncia per il 2026 il Cloud and AI Development Act, con l’obiettivo di almeno triplicare la capacità europea di data center nei prossimi cinque-sette anni.

Il rischio di una dipendenza materiale

Per un decennio l’Europa ha concentrato gran parte dei propri sforzi su regole di mercato, diritti, accountability e limiti ai gatekeeper. Quel filone resta essenziale, ma non basta più. Se compute, networking, software di orchestrazione e infrastrutture energetiche restano concentrati fuori dal continente, l’Europa rischia di regolare il piano applicativo rimanendo dipendente sul piano materiale.

In termini di economia politica, significherebbe accettare una posizione di subordinazione nella parte più remunerativa della filiera. L’IMF lo ha scritto con chiarezza nel marzo 2026: se l’adozione dell’IA resta concentrata negli hyperscaler e nei provider specializzati, i ritorni economici possono restare confinati e più fragili; se invece la diffusione raggiunge i settori produttivi in modo più ampio, l’effetto sulla crescita potenziale può diventare più duraturo.

Dma e antitrust

Anche il Dma – la nostra regolazione antitrust nel digitale – sta iniziando a misurarsi con questo spostamento. La Commissione ha aperto procedimenti per definire come Google debba garantire ai servizi e agli agenti AI di terzi un accesso effettivamente equivalente alle funzionalità di Android disponibili a Gemini; e l’8 gennaio 2026 ha pubblicato i contributi alla revisione periodica del Dma, che dovrà tradursi in un rapporto entro il 3 maggio 2026.

È un segnale importante: la politica digitale non sta più osservando l’AI come un settore separato, ma come un’estensione dei mercati digitali già presidiati dai gatekeeper. Interoperabilità, accesso alle funzionalità di piattaforma, portabilità e condizioni di integrazione non sono questioni secondarie. Sono i modi concreti in cui si decide se l’AI consoliderà i poteri esistenti o aprirà spazi a nuovi entranti.

Le priorità della nuova agenda digitale UE sull’AI

Da qui discende un’agenda più larga. Con quattro punti.

Controllo delle acquisizioni: non solo le maxi-operazioni come Wiz, ma anche quelle più piccole che spostano asset strategici verso player già dominanti.

Interoperabilità tra cloud, modelli e strumenti di sviluppo, perché senza mobilità tecnica non esiste vera concorrenza.

La capacità pubblica di acquistare calcolo, dati e servizi in modo da non rafforzare automaticamente i fornitori incumbents.

Energia, permitting e siti per data center: il Cloud and AI Development Act nasce proprio dalla consapevolezza che la sovranità digitale, in questa fase, passa anche da cavi, rack, consumi elettrici e tempi autorizzativi. Non è una correzione marginale della vecchia politica digitale. È un cambio di scala.

La questione ormai è quali imprese riusciranno a governare l’infrastruttura, imporre standard di fatto, abbassare i propri costi di inferenza, aumentare quelli di uscita per i clienti e trasformare la dipendenza tecnica in potere economico e politico.

È lì che si formeranno i nuovi equilibri tra innovazione e concorrenza, tra sovranità e subordinazione, tra apertura dei mercati e nuova concentrazione.

E per l’Europa, più ancora che per gli Stati Uniti, sarà da quella linea di frattura che passerà una parte decisiva della sua sovranità digitale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x