Ogni volta che poniamo una domanda a un assistente virtuale, ogni volta che un algoritmo analizza un’immagine medica o un sensore industriale elabora dati in tempo reale, c’è un passaggio invisibile ma decisivo: quei dati viaggiano.
Lasciano il dispositivo, attraversano reti, raggiungono un data center che spesso si trova a migliaia di chilometri di distanza e, particolare non trascurabile, spesso sotto la giurisdizione di un altro Paese.
Indice degli argomenti
Chi controlla i server controlla i dati: la dipendenza europea dal cloud americano
Per anni, il cloud computing ha rappresentato perfettamente il proprio nome: leggero, diffuso, quasi astratto: particolarmente comodo, in fondo. La realtà concreta invece racconta di una tecnologia fatta di edifici, cavi, server e soprattutto di proprietà. Secondo i dati di Synergy Research Group, le aziende statunitensi controllano l’85% del mercato cloud europeo.
Amazon, Microsoft e Google da sole detengono il 70% del mercato regionale, mentre i provider europei — SAP, Deutsche Telekom, OVHcloud, Telecom Italia, Orange — si spartiscono appena il 15%.
Dal Cloud Act al caso Microsoft Francia: i rischi giuridici dei dati europei all’estero
Questo dato significa che la stragrande maggioranza dei dati europei (inclusi magari quelli sanitari, industriali, finanziari, governativi) viene elaborata su infrastrutture che rispondono a legislazioni extraeuropee, dal Cloud Act statunitense alla Section 702 del FISA. Peraltro, come emerso recentemente, Microsoft Francia ha ammesso in sede giudiziaria di non poter garantire che i dati dei cittadini francesi non vengano mai trasmessi alle autorità statunitensi senza autorizzazione francese esplicita.
È in questo contesto che il concetto di “edge computing” assume un significato che va ben oltre l’ingegneria informatica. Se il cloud è nei fatti uno strumento di dipendenza strutturale, l’elaborazione locale diventa un atto di sovranità.
Edge computing spiegato senza tecnicismi: la logica della cucina di casa
L’idea di fondo è semplice, quasi intuitiva: invece di mandare i dati lontano per farli elaborare e poi riportarli indietro, si porta la capacità di calcolo là dove i dati nascono. In un ospedale, in una fabbrica, dentro un veicolo, su uno smartphone. Il dato non viaggia: viene elaborato sul posto, in tempo reale, senza dipendere da una connessione internet né da un server remoto.
È un po’ come la differenza tra cucinare a casa propria e ordinare ogni pasto da un ristorante dall’altra parte della città. Il ristorante può avere una cucina più grande e più attrezzata, ma se hai bisogno di mangiare subito, o se preferisci che nessuno sappia cosa c’è nel tuo frigorifero, la cucina di casa diventa la scelta migliore.
Latenza, privacy, resilienza: i vantaggi concreti dell’elaborazione locale
I vantaggi sono concreti e misurabili, a partire dalla latenza ridotta, come facilmente intuibile. Per quanto si parli di millisecondi, anche questi possono fare la differenza in casi specifici. Poi c’è il tema di una privacy strutturale: se il dato non esce dal dispositivo, non può essere intercettato in transito né archiviato su server altrui.
E poi c’è un termine diventato di gran moda negli ultimi anni: la resilienza. Il sistema funziona anche senza connessione, i costi di trasmissione sono inferiori: meno dati da inviare significa meno banda, meno energia, meno infrastruttura di rete.
Un mercato da 120 miliardi entro il 2033
Il mercato dell’edge AI è stato stimato intorno ai 25 miliardi di dollari nel 2025 e si prevede possa raggiungere circa 120 miliardi entro il 2033, con un tasso di crescita annuo superiore al 20%. Numeri che segnalano non un’innovazione di nicchia, ma un cambio di paradigma nell’architettura stessa dell’intelligenza artificiale. Non solo, ma si dimostra che il tema non è soltanto tecnico ma, in un certo senso, anche culturale.
Veicoli autonomi: il caso in cui il cloud è troppo lento per salvare vite
Se c’è un settore in cui l’edge computing non è un’opzione ma una necessità vitale, è quello dei trasporti del futuro, per non dire del presente. Qui i limiti del cloud diventano, letteralmente, una questione di vita o di morte.
I numeri della latenza: millisecondi che si traducono in centimetri (e in vite)
Un veicolo autonomo genera ed elabora quantità impressionanti di dati: telecamere, lidar, radar, sensori ultrasonici producono flussi continui che possono arrivare a circa 2 gigabyte al secondo. Se un’auto viaggia a 100 chilometri orari e ha bisogno di una trentina di metri per frenare, il sistema di guida deve anticipare il pericolo con qualche secondo di anticipo: ogni millisecondo di ritardo nell’elaborazione si traduce in centimetri di frenata mancata.
Il punto è che il cloud, per quanto potente, non è abbastanza veloce. Immaginiamo che l’elaborazione locale, direttamente a bordo del veicolo, possa raggiungere latenze di 5-15 millisecondi per il rilevamento degli oggetti, mentre il passaggio attraverso il cloud introduce ritardi totali di 50-500 millisecondi, anche su reti 5G. Per dare un’idea della scala: a 120 km/h, un millisecondo di latenza di andata e ritorno corrisponde a 3 centimetri di distanza tra il veicolo e un ostacolo fermo, o 6 centimetri tra due veicoli in movimento.
NVIDIA, Qualcomm, Mobileye: la corsa ai chip per l’intelligenza artificiale a bordo
Non è un margine con cui si possa negoziare. Se un bambino attraversa la strada, il calcolo deve avvenire lì, dentro l’auto, senza attendere che un pacchetto dati faccia il giro del mondo per tornare con la risposta. Questo spiega perché l’industria automotive sta investendo massicciamente in chip dedicati all’elaborazione locale. NVIDIA con DRIVE Thor, Qualcomm con le sue piattaforme ottimizzate per l’edge, Mobileye con i processori EyeQ: la corsa è a costruire “cervelli” sempre più potenti e compatti, capaci di eseguire inferenze di deep learning in tempo reale consumando pochi watt. È lo stesso principio dell’hardware neuromorfico di cui abbiamo parlato in un precedente articolo, applicato a un contesto in cui l’errore non è un’imprecisione statistica, ma un incidente stradale.
Small Language Models: l’AI che impara a diventare più leggera
L’edge computing non riguarda solo le automobili. Riguarda lo smartphone che abbiamo in tasca, il sensore in fabbrica, il dispositivo medico indossabile: per funzionare su questi dispositivi, l’intelligenza artificiale deve imparare a diventare più leggera.
È qui che entra in gioco una delle evoluzioni più significative, ma anche meno raccontate, degli ultimi mesi: gli Small Language Models (SLM), ovvero modelli linguistici progettati per funzionare localmente, su hardware limitato, senza bisogno del cloud.
Da Llama a Phi-4 Mini: i modelli linguistici che girano sullo smartphone
Un position paper pubblicato da ricercatori NVIDIA nel giugno 2025, intitolato significativamente “Small Language Models are the Future of Agentic AI”, sosteneva già che il prossimo grande salto in avanti non verrà da modelli sempre più grandi, ma da modelli sempre più piccoli e specializzati.
La tesi è provocatoria ma ha discreti spunti supportati dai fatti: famiglie di modelli come Llama 3.2 di Meta (1 e 3 miliardi di parametri), Gemma 3 di Google (fino a 270 milioni di parametri), Phi-4 Mini di Microsoft, SmolLM2 e Qwen2.5 sono tutti progettati per funzionare su dispositivi mobili con pochi gigabyte di memoria. Come illustra un’analisi di Meta, tre anni fa far girare un modello linguistico su un telefono era poco più di un esperimento da laboratorio mentre oggi, modelli con un miliardo di parametri funzionano in tempo reale su smartphone di fascia alta.
I quattro argomenti a favore dell’elaborazione locale sono tutti decisivi e sono proprio quelli con cui abbiamo aperto:
- latenza (il cloud aggiunge 200-500 millisecondi prima di generare anche solo il primo token),
- privacy (un dato che non lascia il dispositivo non può essere violato in transito),
- costo (spostare l’inferenza sull’hardware dell’utente elimina i costi di servizio su scala) e
- disponibilità (un modello locale funziona anche senza connessione).
Apple e il modello on-device: quando la privacy diventa vantaggio competitivo
Apple, con il suo Foundation Models framework presentato alla WWDC 2025, ha reso disponibile agli sviluppatori un modello on-device da circa 3 miliardi di parametri, ottimizzato per Apple Silicon, capace di svolgere compiti come sintesi, estrazione di entità, comprensione testuale e generazione creativa, il tutto senza che i dati dell’utente lascino mai il dispositivo. Non che al momento Apple stia brillando in questa gara all’implementazione di un’AI davvero utile, ma l’idea iniziale era senz’altro stimolante e, per certi versi, rassicurante. Al netto di Apple, se fatta bene questa impostazione può tornare ad essere un vantaggio competitivo non indifferente in alcune nicchie di mercato, e forse non solo in nicchie.
L’Europa ha perso la partita del cloud: ma l’edge è ancora contendibile
E qui arriviamo al punto politico, quello che forse conta di più. L’Europa ha perso la partita del cloud. La quota dei provider europei nel mercato cloud del continente è scesa dal 29% del 2017 al 15% nel 2022 e da allora è rimasta sostanzialmente ferma. Con i provider statunitensi che investono circa 10 miliardi di euro a trimestre in programmi infrastrutturali europei, la sfida alla leadership di mercato è stata definita da Synergy Research Group come “una collina impossibile da scalare” per qualsiasi azienda europea. Ma se il cloud è un terreno perso, l’edge è un terreno ancora contendibile. E l’Europa sembra averlo capito.
European Edge Continuum: la risposta europea alla dipendenza digitale
Al Mobile World Congress 2026, Deutsche Telekom, Orange, Telefónica, TIM e Vodafone hanno presentato l’European Edge Continuum: il primo cloud edge federato che collega le reti dei cinque maggiori operatori europei, un passo concreto verso la sovranità digitale dell’infrastruttura. Non si tratta di un progetto teorico: la federazione è già operativa in ambienti di laboratorio e pre-produzione.
EURO-3C e il Cloud and AI Development Act: la strategia europea per il decennio digitale
Nello stesso contesto, la Commissione Europea ha presentato EURO-3C, un progetto da 75 milioni di euro per sviluppare la prima infrastruttura federata Telco-Edge-Cloud su scala europea, coinvolgendo oltre 70 organizzazioni in 13 Paesi. Il consorzio, guidato da Telefónica, punta a dimostrare la fattibilità commerciale di questa architettura in settori come l’automotive, l’energia, i trasporti e la sicurezza pubblica.
La Commissione prevede inoltre di proporre nel 2026 il Cloud and AI Development Act, con l’obiettivo di almeno triplicare la capacità dei data center europei entro 5-7 anni. Ma è la componente edge della strategia a risultare più originale e potenzialmente più efficace: l’obiettivo del Digital Decade europeo prevede l’implementazione di 10.000 nodi edge climaticamente neutri e altamente sicuri entro il 2030. La logica è precisa. Se non puoi battere gli hyperscaler americani nel loro gioco — investimenti colossali, economie di scala planetarie, decenni di vantaggio competitivo — puoi cambiare gioco. L’edge computing, per sua natura, è distribuito: favorisce la prossimità, la specificità locale, la governance territoriale.
È un’architettura che si presta alla frammentazione regolata, non alla concentrazione monopolistica. È, per usare un’espressione che in Europa piace molto, un’infrastruttura “by design” compatibile con i valori di trasparenza, privacy e controllo locale.
Sovranità digitale e digital divide: opportunità e limiti dell’edge computing
Non a caso, nel novembre 2025, tutti i 27 Stati membri dell’Unione Europea hanno firmato una dichiarazione che esprime l’ambizione condivisa di rafforzare la sovranità digitale europea e ridurre le dipendenze strategiche. La spesa in piattaforme cloud sovrane in Europa, secondo Gartner, triplicherà entro il 2027 rispetto ai livelli del 2025 — un incremento molto più marcato che in Nord America o in Cina. C’è ovviamente un “ma”, e sarebbe intellettualmente disonesto non menzionarlo.
L’edge computing non è una bacchetta magica: i dispositivi locali hanno potenza di calcolo limitata. I modelli che vi girano sono necessariamente più piccoli e meno capaci dei loro cugini cloud. La manutenzione di un’infrastruttura distribuita è più complessa di quella centralizzata. E il rischio di un digital divide — tra chi può permettersi hardware edge avanzato e chi no — è tutt’altro che trascurabile. Il punto resta comunque costruire un’alternativa per tutti quei contesti in cui il cloud non è la risposta giusta: quando la latenza è intollerabile, quando i dati sono troppo sensibili per viaggiare, quando la connessione non è garantita, quando il controllo sul proprio patrimonio informativo è una priorità strategica e non un optional.
L’intelligenza che torna vicina: una metafora per ripensare tecnologia e sovranità
C’è qualcosa di profondamente significativo nell’idea che l’intelligenza artificiale, dopo anni di corsa verso l’alto — modelli sempre più grandi, data center sempre più imponenti, concentrazione sempre più estrema — stia ora, almeno in determinati contesti, imparando a scendere. A farsi più piccola, più vicina, non necessariamente potente all’inverosimile. Il cervello umano, del resto, non manda i propri pensieri a un server remoto per decidere se frenare o accelerare. Elabora sul posto, con ciò che ha a disposizione, in tempo reale.
E lo fa consumando circa 20 watt — una frazione infinitesimale di ciò che serve a un data center. Per certi versi, tutto questo può rappresentare un’ottima e potente metafora di come potremmo ripensare il rapporto tra tecnologia e territori, tra innovazione e sovranità, tra efficienza e controllo democratico.















