Il blackout di Cloudflare di ieri, che ha causato problemi globali, rendendo irraggiungibili servizi come ChatGPT, Uber, e la piattaforma X, è conseguenza della concentrazione dei servizi in poche big tech cloud. L’hanno detto in molti. Certo, è l’analisi fattuale di quanto avvenuto. Ciò che non si dice abbastanza però è che questo status quo non va accettato come ineluttabile destino per l’attuale internet.
Non è inevitabile né desiderabile, soprattutto per noi europei, dipendere da poche infrastrutture cloud globale Usa-centriche.
Lo dicevamo anche per il recente analogo caso Aws.
Per una incredibile coincidenza, per altro, è di due giorni fa l’avvio di indagini della Commissione Ue su presunti abusi antitrust che starebbero dietro questo predominio di pochi sul cloud – leggi infrastrutture internet di base – globali.
Il down globale per via di un errore tecnico ai sistemi Cloudflare è il sintomo di un problema strutturale, reso evidente negli ultimi mesi da una sequenza di blackout digitali di portata globale.
Indice degli argomenti
La causa del guasto Cloudflare
Nello specifico il blackout globale di Cloudflare è stato provocato da un errore interno di configurazione, non da un attacco esterno. Tutto nasce da una modifica ai permessi di un database basato su ClickHouse, utilizzato per gestire i dati necessari al sistema di Bot Management dell’azienda. Questa modifica ha generato righe duplicate all’interno di un file di configurazione critico: il cosiddetto feature file, un archivio che controlla il comportamento del software che analizza e filtra il traffico.
A causa della duplicazione, quel file ha iniziato a crescere oltre le dimensioni previste dai sistemi che lo devono elaborare. Il risultato è che il file è diventato più grande della capacità di memoria di una componente centrale dell’infrastruttura di Cloudflare, quella che gestisce il proxy e il routing del traffico dei clienti. Quando il software si è trovato a dover caricare e interpretare un file così pesante, ha iniziato a fallire, causando errori a cascata.
La conseguenza è stata che, in pochissimi minuti, l’intera rete di edge nodes di Cloudflare — che è estremamente distribuita ma anche molto centralizzata nelle sue logiche di configurazione — si è trovata con una configurazione corrotta o ingestibile, portando alla caduta simultanea di servizi che dipendono dalla piattaforma. Da qui l’effetto domino che ha reso irraggiungibili piattaforme come ChatGPT, X, alcune autorità di trasporto statunitensi e numerosi servizi web minori.
Nelle prime ore del guasto si era ipotizzato un attacco DDoS di dimensioni eccezionali, vista l’ampiezza dell’interruzione. Ma Cloudflare stessa ha chiarito che non c’è traccia di attività dannosa: si è trattato di un errore introdotto durante una procedura interna di gestione dei permessi del database, sfociato in un malfunzionamento di propagazione globale.
La timeline del guasto conferma quanto l’incidente sia stato rapido e al tempo stesso difficile da risolvere: i primi problemi sono comparsi attorno alle 11:20 UTC, una parte significativa del traffico è tornata a scorrere poco dopo le 14:30, mentre la piena operatività è stata ripristinata solo nel tardo pomeriggio.
La concentrazione cloud che fa male a tutti: i casi
Qualunque sia il motivo episodico dei problemi, c’è una questione strutturale: l’infrastruttura che sorregge l’internet contemporanea è ormai talmente concentrata nelle mani di pochi operatori da trasformare qualunque loro errore, bug o malfunzionamento in un evento sistemico, capace di interrompere attività economiche e servizi essenziali in decine di Paesi contemporaneamente.
Un tempo tutti avevano un proprio server locale da cui offrire servizi al mondo; adesso il cloud è la norma. Ci sono dietro motivi di efficienza, sicurezza, sostenibilità, scalabilità. Certo. Ma c’è da chiedersi se non sia esagerato con la passione per le nuvole. E c’è ancora di più da chiedersi se non si sia esagerato con la concentrazione, di queste nuvole.
Un’analisi approfondita di Bloomberg (una testata americana che certo non può essere tacciata di europeismo né tantomeno di socialismo tech) descrive bene la tensione apparente che accompagna la rete: un sistema diventato indispensabile per comunicare, lavorare, pagare, muoversi e persino gestire attività pubbliche, ma che, allo stesso tempo, si rivela estremamente fragile quando uno degli ingranaggi principali smette di funzionare.
Negli ultimi mesi le interruzioni si sono moltiplicate.
Solo a ottobre, un blackout di quindici ore nei data center AWS ha paralizzato piattaforme come Roblox, ha impedito riunioni su Zoom nel Regno Unito e ha costretto ingegneri in India a riorganizzare emergenze e turni proprio nel pieno delle celebrazioni del Diwali. A metà novembre, è bastato un malfunzionamento di Cloudflare per togliere visibilità a una fetta significativa del web occidentale.
Rischio di blackout a catena
Questi episodi non colpiscono allo stesso modo tutto l’ecosistema digitale, ma tendono a seguire linee di propagazione precise: più un servizio si trova in prossimità dell’infrastruttura centrale che fa da colonna portante del web, maggiore sarà l’effetto domino quando qualcosa va storto. È questo il cuore del problema.
A partire dagli anni Duemila, imprese, amministrazioni pubbliche, piattaforme e sviluppatori hanno progressivamente abbandonato server proprietari e infrastrutture on-premises per delegare quasi tutto ai cloud provider. Il concetto di cloud, nato in Amazon come soluzione interna a problemi di scalabilità e di gestione ricorrente, si è trasformato in una forma di outsourcing globale del calcolo.
Quando Microsoft e Google hanno scelto di replicare quel modello, la crescita degli hyperscaler è diventata esponenziale, fino a raggiungere una diffusione tale da rendere la maggior parte del traffico europeo e statunitense dipendente da tre soggetti.
I loro datacenter sono generalmente organizzati in “regioni”, ovvero cluster separati di server farm che servono un determinato paese o area. Alcune regioni potrebbero gestire un traffico maggiore, il che significa che se una di esse smette di funzionare, l’impatto è sproporzionato. Alcune aziende potrebbero avere dipendenze regionali di cui non sono consapevoli. Risultato: un malfunzionamento dei servizi causa di un’interruzione al di fuori della loro regione.
L’interruzione di AWS a ottobre è stata causata da un bug che ha colpito uno dei suoi servizi chiave, provocando guasti a catena e mettendo fuori uso diversi siti e servizi importanti.
Poiché Internet non è solo pacchetti di dati, ma anche una grande infrastruttura fisica, questi incidenti possono derivare da una serie di cause, come un bug del software, un surriscaldamento del data center o un cavo logoro.
Il mercato europeo e la sfida della concentrazione del cloud
Oggi AWS e Microsoft Azure dominano il mercato in molti Paesi, con quote superiori al 70% nel Regno Unito. L’Europa, che a lungo ha provato a sostenere una propria industria cloud autonoma, si trova di fronte a un quadro ancora più sbilanciato: la quota dei provider europei, già modesta, è scesa negli ultimi anni dal 26% a circa il 10%.
Ciò significa che la quasi totalità delle applicazioni digitali, delle piattaforme di consumo e dei sistemi informativi aziendali europei poggia su infrastrutture americane, gestite da un numero limitato di operatori. Questa dipendenza è amplificata dal fatto che molti servizi critici — dai DNS ai sistemi di protezione contro gli attacchi DDoS, fino alle grandi CDN — appartengono agli stessi pochi player o sono integrati profondamente nei loro sistemi.
Aggiornamenti centralizzati, errori minimi, impatti globali
Il risultato è un’infrastruttura con il fiato corto: se un nodo di questa rete centralizzata smette di funzionare, l’effetto si propaga in maniera immediata e trasversale. Non è un caso che gli errori software, anche minimi, abbiano oggi un potenziale disruptivo mai osservato in passato.
Lo dimostra l’incidente di CrowdStrike del 2024, quando un aggiornamento difettoso ha causato crash simultanei di milioni di macchine Windows in tutto il mondo. Anche in quel caso, non si trattava di cloud puro, ma le logiche di aggiornamento centralizzato — figlie del medesimo paradigma — hanno moltiplicato gli effetti.
Come la concentrazione del cloud entra nel mirino di Bruxelles
Il blackout di Cloudflare va quindi interpretato non come un guasto occasionale, ma come una manifestazione concreta della fragilità che deriva dalla concentrazione. È qui che entra in gioco la risposta regolatoria.
Proprio in questi giorni la Commissione Europea ha avviato tre indagini di mercato sul cloud, ai sensi del Digital Markets Act (DMA). La prima riguarda Amazon Web Services, la seconda Microsoft Azure. L’obiettivo è stabilire se, pur non rientrando nelle soglie formali del DMA, questi operatori debbano essere considerati “gatekeeper” a tutti gli effetti, perché svolgono un ruolo fondamentale nel collegare imprese e utenti finali.
La terza indagine, ancora più rilevante, ha una portata sistemica: Bruxelles vuole capire se la disciplina attuale riesca davvero a garantire concorrenza, interoperabilità, portabilità dei dati e condizioni eque per gli utenti business.
L’Europa sembra aver preso consapevolezza del problema non solo come questione di mercato, ma anche come tema strategico. La discussione è emersa con forza anche nel summit del 18 novembre a Berlino sulla sovranità digitale europea, dove governi, imprese e istituzioni hanno legato in modo esplicito la resilienza del cloud alla sovranità tecnologica e alla competitività del continente.
Resilienza, sovranità tecnologica e scelte per l’Europa
Il punto non è solo tutelare la concorrenza. È garantire la resilienza. Quando un settore è dominato da pochi attori, la competitività cala, il lock-in aumenta, la possibilità di migrazione diminuisce e i costi della diversificazione crescono.
In altre parole, si crea un incentivo collettivo a strutturare l’infrastruttura digitale europea su basi fragili. Se un errore in un datacenter della Virginia può bloccare piattaforme europee per ore, e se una falla in un aggiornamento globale può spegnere milioni di terminali simultaneamente, significa che la catena di dipendenza è troppo corta, troppo verticale e troppo accentrata.
L’Europa sembra aver preso consapevolezza del problema non solo come questione di mercato, ma anche come tema strategico. L’affidabilità dell’infrastruttura digitale è un componente della sovranità tecnologica, quanto e forse più della proprietà dei dati.
Ma la risposta non può essere solo regolatoria o politica: richiede scelte tecniche e industriali. Le imprese italiane ed europee dovranno ripensare il proprio rapporto con i fornitori cloud, valutare modelli multi-cloud, adottare strategie che reintroducano ridondanze locali per servizi critici. Gli operatori pubblici dovranno prevedere architetture distribuite, evitare dipendenze irreversibili e considerare che la continuità operativa non è più un optional.
Il blackout di Cloudflare ci ricorda che l’internet non è un’entità astratta e immateriale, ma una rete viva, composta di server, cavi, router e nodi di interconnessione. Più questi nodi si concentrano nelle mani di pochi, più la rete diventa vulnerabile.
Finché la struttura del cloud resterà così gerarchica, ogni errore sarà un errore globale. Ed è proprio questa fragilità sistemica a rendere urgente la riflessione sulla concorrenza e sulla pluralità dell’infrastruttura digitale: una rete più distribuita non sarebbe solo più giusta, ma anche più sicura.













