La discussione sul possibile scoppio della bolla AI è diventata onnipresente, ma raramente va oltre la speculazione su tempistiche e conseguenze. Marietje Schaake, ex europarlamentare e studiosa di tecnologia e democrazia a Stanford, propone una lettura diversa: il punto non è prevedere lo scoppio, ma capire chi sarà attrezzato per trasformare la correzione in opportunità strategica.
Indice degli argomenti
La scorciatoia narrativa della “bolla dell’AI”
La Schaake sostiene che una correzione dell’“AI trade” – la “scommessa di Borsa” sull’AI: l’allocazione di capitale basata sull’idea che l’intelligenza artificiale sarà il grande motore di crescita dei prossimi anni – aprirà uno spazio per un modello europeo fondato su fiducia, sicurezza e applicazioni settoriali.
Un argomento potente perché sposta la discussione dalla finanza alla governance: il vero rischio per l’UE non è lo scoppio della bolla, ma arrivare anche questa volta senza una linea univoca e senza strumenti operativi all’altezza.
L’idea di “bolla dell’AI” è infatti diventata una scorciatoia narrativa, un’etichetta che serve per spiegare l’euforia dei mercati, criticare le Big Tech o anticipare un imminente bagno di sangue. Marietje Schaake prova a sottrarre il tema a questa semplificazione e a ricondurlo alla sua dimensione più interessante: non tanto la domanda “scoppierà o no?”, quanto la domanda “chi sarà pronto quando accadrà?”.
Perché la strategia europea sull’AI non passa solo dalla scala
Schaake sostiene che il modello dominante dell’AI, quello hyperscale, resource-intensive, trainato da colossi americani e da una corsa infrastrutturale senza precedenti, non può durare indefinitamente nella forma attuale. Non perché l’AI sia una moda destinata a evaporare, ma perché una dinamica di mercato così concentrata, così costosa e così sbilanciata verso la scala tende inevitabilmente a incontrare un punto di discontinuità: un rallentamento dell’aspettativa, una revisione delle valutazioni, un riequilibrio dei capitali, una selezione degli attori.
Il passaggio decisivo, però, è il modo in cui Schaake trasforma la “correzione” in un argomento politico. Quando il ciclo si raffredda, cambiano le domande dei clienti e cambiano le metriche della fiducia. Una casa automobilistica tedesca non ha bisogno di un chatbot addestrato su tutto internet: ha bisogno di sistemi addestrati su dati ingegneristici di qualità, in grado di ottimizzare processi, prevedere manutenzioni, automatizzare reporting di sicurezza.
Un ospedale olandese non ha bisogno di un modello generalista che può “inventare” risposte mediche: ha bisogno di strumenti diagnostici che rispettino standard clinici e procedure. Una banca francese, dentro un perimetro regolatorio stringente, può cercare efficienza solo se i sistemi sono auditabili, robusti, conformi. È un modo semplice per dire che la scala non è l’unico parametro e che, nel mondo reale, la qualità conta quanto la potenza.
Schaake e la sovranità digitale: contrappesi al potere tech
Per capire l’enfasi di Schaake sulla governance bisogna ricordare da dove arriva. Europarlamentare per dieci anni, oggi lavora a Stanford su tecnologia e democrazia. La sua traiettoria è quella di chi ha visto dall’interno la frizione permanente tra istituzioni e potere tecnologico: norme che inseguono, piattaforme che anticipano, dipendenze che si consolidano prima che il sistema politico trovi un linguaggio comune.
Nel suo libro The Tech Coup: How to Save Democracy from Silicon Valley la tesi è netta: negli ultimi due decenni una parte crescente di funzioni “pubbliche” è stata di fatto delegata a imprese private globali, infrastrutture digitali, sicurezza, informazione, persino capacità di decidere cosa è visibile e cosa non lo è. Questa delega non è avvenuta con un atto formale, ma attraverso una somma di scelte implicite: procurement, outsourcing, incentivi, narrazioni sull’innovazione come bene in sé, e un’attitudine culturale a considerare la regolazione un intralcio.
Il “colpo di Stato” di cui parla Schaake non è un complotto ma uno spostamento di potere. Ecco perché, quando guarda alla bolla dell’AI, non la tratta solo come un ciclo finanziario ma come un passaggio in cui potrebbero consolidarsi nuove dipendenze infrastrutturali. Se l’AI diventa embedded in servizi pubblici, infrastrutture critiche e difesa, allora non è solo una tecnologia: è un pezzo di sovranità.
Dopo la correzione, la strategia europea sull’AI si gioca sulle infrastrutture
Pur parlando di “bolla”, Schaake non sembra interessata al gusto apocalittico del termine. La sua è una lettura funzionale: la fase di iper-investimento costruisce infrastrutture, la correzione le rende disponibili, meno care, più contendibili; la fase successiva decide se quelle infrastrutture produrranno valore diffuso o solo rendite concentrate.
Questa dinamica è molto vicina a un’idea classica: le rivoluzioni tecnologiche non diventano “età dell’oro” automaticamente. Nella fase iniziale si accumulano capitali, si alimentano aspettative, si costruiscono asset fisici e organizzativi spesso oltre la domanda corrente. Poi arriva una discontinuità, un crash, una correzione, un reset che smonta le illusioni ma lascia in piedi le infrastrutture.
Dopo, quando la tecnologia entra davvero nei processi e nei settori, si misura la produttività. In questa chiave, la domanda corretta non è “ci sarà una bolla?”, ma “che cosa resterà dopo la bolla?”. La risposta, oggi, è abbastanza evidente: resteranno data center, reti elettriche dedicate, filiere di componenti, competenze ingegneristiche, standard software, capacità di calcolo come nuova commodity.
Segnali di surriscaldamento e perché la strategia europea sull’AI deve guardare ai mercati
Se guardiamo ai segnali che hanno alimentato il dibattito, il quadro è quello di una corsa a due velocità: da una parte investimenti infrastrutturali giganteschi e coordinati; dall’altra ritorni economici ancora disomogenei, spesso difficili da misurare, e aspettative di mercato che si muovono con violenza. La volatilità recente, correzioni improvvise su semiconduttori e titoli “AI-exposed”, evaporazione di centinaia di miliardi di capitalizzazione in pochi giorni non dimostrano da soli l’esistenza di una bolla, ma dicono una cosa precisa: il mercato è diventato ipersensibile alle narrazioni.
Quando l’AI è la spiegazione dominante di una parte della crescita borsistica, qualunque variazione di aspettativa produce movimenti amplificati. In parallelo, si è affermato un playbook finanziario che ricorda, senza essere identico, quello delle fasi maniacali precedenti: accordi incrociati lungo la filiera, finanziamenti che riducono l’esborso iniziale dei clienti e consolidano vendite dei fornitori, strutture fuori bilancio che spostano rischio verso veicoli dedicati.
La differenza, enorme rispetto alle dot-com, è che oggi la “mania” poggia su imprese con flussi di cassa enormi e rating elevati. Il punto non è negare i fondamentali ma riconoscere che l’architettura del rischio sta cambiando forma.
Debito, capex e domanda di GPU: dove si concentra la tensione
Uno degli equivoci più frequenti è immaginare che, se esiste una bolla, allora la miccia debba essere il debito. In realtà, il mercato del credito racconta una storia più sfumata. Le emissioni obbligazionarie legate al ciclo AI sono massicce, ma per lo più investment grade, con scadenze lunghe e con emittenti che dispongono di una capacità di generazione di cassa fuori scala.
Gli spread che si muovono, in molti casi, riflettono anche fenomeni tecnici: la quantità di “carta” immessa in poco tempo, la necessità di assorbimento, la ricalibrazione dei rendimenti. Il rischio più coerente, oggi, è altrove: nelle valutazioni azionarie e nelle aspettative implicite. Se le capitalizzazioni incorporano già una crescita quasi perfetta, basta un rallentamento, non un fallimento, per innescare correzioni violente.
Poi c’è un aspetto più sottile, che spiega perché il ciclo sia così aggressivo: l’idea che la scarsità di capacità computazionale debba essere colmata “in anticipo”. Qui nasce quella che potremmo chiamare una bolla di domanda: non perché la domanda sia finta, ma perché è una domanda che guarda al futuro e pretende che il futuro arrivi subito.
Tutti vogliono GPU, cluster, regioni cloud, capacità di training e inference. Se l’offerta non tiene, si investe. Se si investe, si rischia sovracapacità. Se arriva sovracapacità prima che le applicazioni maturino, la correzione diventa più probabile. In altre parole, non è il debito in sé a essere fragile, ma la sincronizzazione tra infrastrutture costruite e valore reale estratto da quelle infrastrutture.
Se la correzione è selettiva, la strategia europea sull’AI può catturare valore
Immaginare uno scoppio “stile 2008” è probabilmente sbagliato: l’architettura del rischio oggi è più dispersa, spesso fuori dal perimetro bancario tradizionale, e legata ad asset specifici con ricorso limitato. Una correzione, se arriva, sarebbe più simile a una potatura dura che a un collasso sistemico.
Il taglio dei capex sarebbe il primo canale: cantieri rinviati, ordini congelati, supply chain che rientra, utility che riprogrammano. La seconda onda colpirebbe operatori ad alta leva nella periferia del sistema: neocloud, hoster fragili, veicoli che impilano debito su ipotesi di utilizzo aggressive. Il nucleo, hyperscaler con bilanci robusti, resterebbe in piedi, ma sarebbe costretto a selezionare e a rinegoziare, trasformando il ciclo da espansione indiscriminata a disciplina.
Questo scenario è importante perché ribalta la domanda politica: se la correzione è selettiva, allora apre finestre di opportunità. Diventano disponibili infrastrutture, competenze, capacità produttiva. Il problema, come dici, è chi le cattura.
Capacità, ecosistemi e potere: cosa serve alla strategia europea sull’AI
Qui l’argomento di Schaake diventa un test per l’Europa. Quando parla di “essere pronti”, non sta dicendo che l’UE debba tifare per il crash. Sta dicendo che il momento della correzione è uno spartiacque: o l’Europa ha una strategia, oppure continuerà a fare quello che spesso ha fatto nelle transizioni tecnologiche recenti, regolamentare ciò che altri costruiscono, acquistare ciò che altri vendono, dipendere da ciò che altri controllano.
Il punto più scomodo, ma anche più vero, è che l’Europa tende a confondere la strategia con la norma. L’AI Act è un tassello importante, ma non è un progetto industriale. Una cornice di regole può aumentare fiducia e ridurre rischi, ma non produce automaticamente campioni, infrastrutture e filiere. Soprattutto, non crea da sola una linea univoca tra 27 Stati con priorità diverse.
Capacità: compute sovrano e piattaforme operative
Capacità significa compute sovrano, infrastrutture condivise, accesso al calcolo per ricerca e imprese, AI factories non come slogan ma come piattaforme operative, data commons per settori strategici. Senza capacità, l’UE resta vulnerabile alle turbolenze geopolitiche e alle scelte commerciali altrui.
Ecosistemi: cluster e catena del valore completa
Ecosistemi significa cluster specializzati, collegamento stabile tra università, startup e capitale. Significa riconoscere che l’Europa ha eccellenze (robotica, automazione, ricerca di frontiera, digitale pubblico) ma spesso non le trasforma in una catena del valore completa. Se la strategia resta “ognuno per sé”, quelle eccellenze restano isole.
Potere: mercato unico, appalti e geopolitica
Potere significa usare gli strumenti della politica industriale e del mercato unico: appalti pubblici come leva di domanda qualificata, standard europei come vantaggio competitivo, accelerazione dell’unione dei mercati dei capitali per mobilitare risorse, politiche sui talenti più snelle. E soprattutto una disponibilità a giocare la partita geopolitica senza ingenuo moralismo.
Fiducia come architettura: security by design, audit e responsabilità
Schaake lega l’opportunità europea alla capacità di costruire sistemi “trusted”. Qui la fiducia non è una dichiarazione: è un progetto. Se l’AI entra davvero nei settori regolati e nelle infrastrutture critiche, la differenza competitiva può diventare la capacità di dimostrare, tecnicamente e giuridicamente, che un sistema è sicuro, auditabile, conforme, robusto.
Vuol dire portare i principi “secure by design” e “zero trust” dentro la filiera, non come patch a posteriori. Vuol dire progettare sin dall’inizio la tracciabilità delle decisioni, la gestione dei dati, i controlli sugli output, la governance dei modelli. Questo è un terreno dove l’Europa potrebbe davvero trasformare un vincolo in un vantaggio, ma solo se la fiducia è costruita come infrastruttura, non venduta come etichetta.
Il rischio di avere ragione e perdere: esecuzione e tempi europei
Qui sta il rischio finale, che Schaake mette in luce indirettamente. L’Europa può avere “ragione” sul piano dei valori — diritti, sicurezza, accountability — ma perdere sul piano dell’esecuzione. Perché tra l’avere ragione e costruire un’alternativa c’è un abisso fatto di tempi, capitale, procurement, standard, coordinamento.
Se la correzione dell’AI trade avverrà, il mercato rimetterà a prezzo infrastrutture e competenze. In quel momento, chi avrà strumenti rapidi di reazione, fondi, capacità di investimento, procurement, accesso al capitale, potrà catturare valore. Se l’Europa arriva con ventisette strategie nazionali, una discussione infinita sui confini delle competenze e una macchina decisionale lenta, la finestra si chiude.
La domanda non è “scoppierà?”, ma “che cosa farà l’Europa se e quando succede?”. Il merito dell’intervento di Schaake è spostare il baricentro della discussione: la bolla non è un pronostico da talk show, è un modo per nominare una fase di installazione maniacale che prepara infrastrutture e poi costringe il sistema a scegliere che cosa farne.
La correzione, se e quando arriverà, non risolverà nulla da sola. Può persino peggiorare le cose, se produce solo disillusione e tagli miopi. Ma può anche aprire la strada a una fase di diffusione più razionale, in cui l’AI smette di essere soprattutto narrazione e diventa soprattutto produttività.
Il punto è che questa transizione richiede istituzioni capaci di orientarla. Qui si misura il deficit strategico europeo: non mancano competenze, non mancano eccellenze, non manca la sensibilità sul tema della fiducia. Manca spesso la parte più difficile: la capacità di decidere insieme, velocemente, con strumenti coerenti, prima che le dipendenze diventino irreversibili.
Se l’Europa vuole davvero offrire un’alternativa “trust-based”, deve trattarla come una strategia industriale e geopolitica, non come un capitolo di regolazione. Altrimenti rischia di ripetere lo schema già visto: arrivare al punto di svolta, riconoscerlo, discuterlo, ma non compierlo davvero.













