Mentre in Italia si dà il via libera, dopo la valutazione d’impatto ambientale, a quattordici nuovi progetti di data center da 50 megawatt e 2,5 miliardi che ora potranno procedere a richiedere l’autorizzazione ambientale integrata, considerando lo sviluppo del settore è importante analizzare come questo sia cambiato nel corso degli anni.
Il concetto di data center, infatti, ha subito una profonda metamorfosi; per decenni, è stato sinonimo di un luogo fisico, spesso situato all’interno dell’azienda stessa, ricca di server, rack, cavi e sistemi di raffreddamento. Questo modello, noto come “on-premise”, ha rappresentato il cuore dell’IT aziendale, ma l’evoluzione delle tecnologie cloud ha innescato una trasformazione significativa.
Il passaggio dall’on-premise al cloud non è semplicemente una transizione tecnica; è un cambiamento strategico che impatta i modelli di business, le operazioni e la finanza. Comprenderne l’evoluzione è fondamentale per qualsiasi organizzazione che voglia rimanere agile e competitiva nell’era digitale.
Indice degli argomenti
Data center, perché valutare la migrazione al cloud
La decisione di abbandonare, parzialmente o totalmente, un’infrastruttura on-premise non è semplice. Nasce da una serie di opportunità che il modello cloud promette di indirizzare, anche se la motivazione principale è spesso la scalabilità.
In un data center tradizionale, la capacità hardware e software deve essere pianificata in anticipo, dimensionandola per i picchi di carico. Questo significa che per la maggior parte del tempo, una quantità significativa di risorse rimane inutilizzata. Il cloud, al contrario, offre una scalabilità notevole poiché le risorse, come potenza di calcolo o storage, possono essere aumentate/diminuite quasi istantaneamente, pagando solo per ciò che si utilizza effettivamente.
Come è facile dedurre, c’è anche un collegamento con il cambiamento del modello finanziario. L’on-premise è caratterizzato dal CapEx (Capital Expenditure), ovvero grandi investimenti iniziali per l’acquisto di server, licenze e infrastrutture, che vengono poi ammortizzati nel corso degli anni. Mentre il cloud trasforma questa spesa in OpEx (Operational Expenditure), un costo operativo ricorrente, simile a una bolletta elettrica. Tale modello “pay-as-you-go” rende i costi più prevedibili e allinea la spesa IT direttamente al consumo effettivo, liberando capitale che può essere investito in innovazione anziché in hardware.
I 14 nuovi datacenter italiani (più 10)
Ci sono 14 i progetti di data center italiani in via di approvazione, con potenza oltre 50 MW e per un valore complessivo superiore a 2,5 miliardi di euro. Altri 10 progetti sono in valutazione (altri 2,5 miliardi). I promotori principali sono Microsoft, Amazon, Aruba, Data4, Noovle (Poste Italiane), Apto, Equinix, Supernap e Stack. La maggior parte degli impianti è in Lombardia, con un solo progetto attualmente al vaglio nel Lazio (Aruba, 13 milioni).
Le nuove linee guida del Ministero dell’Ambiente chiariscono che la Via (Valutazione d’Impatto Ambientale) e l’Aia (Autorizzazione Integrata Ambientale) sono obbligatorie per tutti gli impianti sopra i 50 MW termici, anche se molti comuni in passato hanno concesso permessi senza questi passaggi. Alcuni data center, quindi, devono ora chiedere una Via postuma, con rischio di diniego.
Le linee guida impongono priorità per aree già antropizzate, promuovono autoproduzione da rinnovabili, riutilizzo del calore e uso della geotermia, e considerano i rischi legati alla vicinanza ai centri abitati, dato che i generatori d’emergenza vengono attivati frequentemente per test.
Tra i progetti più rilevanti: Data4Milan (1,3 miliardi), un secondo impianto Data4 (600 milioni), Microsoft Bornasco (103 milioni, oltre 150 MW), altri 5 impianti Microsoft già approvati (da 51 a 187 milioni), e Amazon (890 milioni).
Il governo prevede nel prossimo decreto Energia un’autorizzazione unica per Via e Aia. La Regione Lombardia e la Città Metropolitana di Milano stanno elaborando regole urbanistiche dedicate, mentre l’Anci promuove campagne informative per i comuni.
Molti operatori tentano di aggirare l’iter costruendo impianti da 49 MW, poi ampliati sopra soglia, ma il parere non è garantito. Cresce inoltre l’uso della procedura di scoping per ottenere pareri preventivi.
La concentrazione di progetti al Nord, soprattutto in Lombardia, desta preoccupazione per le emissioni e la procedura di infrazione UE già aperta sulla qualità dell’aria. Gli esperti invocano una redistribuzione verso il Sud, dove sono disponibili maggiori risorse rinnovabili e minore pressione ambientale.
Il fattore dell’agilità operativa
Un altro fattore trainante è l’agilità operativa; infatti, l’avvio di un nuovo progetto in un ambiente on-premise richiede tempo per l’approvvigionamento hardware, installazione, configurazione e così via. In un ambiente cloud, è possibile “provisionare” un nuovo server o un intero ambiente di sviluppo in pochi minuti. Questa velocità permette alle aziende di sperimentare, testare nuove idee e lanciare servizi sul mercato molto più rapidamente. I grandi provider cloud poi, grazie alle loro economie di scala, possono offrire livelli di sicurezza, ridondanza e piani di disaster recovery che per molte aziende di medie dimensioni sarebbero proibitivi da replicare nel proprio data center.
On premise cloud, freni alla migrazione e nascita dell’ibrido
La migrazione totale al cloud non è sempre la risposta giusta o immediata, esistono motivazioni valide per cui un’organizzazione può scegliere di mantenere, almeno in parte, la propria infrastruttura on-premise. Una delle preoccupazioni principali riguarda la sovranità e la localizzazione dei dati.
Alcuni settori, come quello sanitario, finanziario o la pubblica amministrazione, sono soggetti a normative stringenti che impongono dove i dati sensibili debbano fisicamente risiedere. Anche se i moderni provider cloud offrono data center in specifiche regioni geografiche per rispondere a queste esigenze, il controllo fisico diretto offerto dall’on-premise è per alcuni ancora un requisito imprescindibile.
Un’altra considerazione tecnica è la latenza. Applicazioni che richiedono tempi di risposta quasi istantanei, come i sistemi di controllo industriale, la robotica o le piattaforme di trading ad alta frequenza, potrebbero subire cali di performance se dipendessero da una connessione remota.
Ovviamente bisogna considerare anche gli investimenti esistenti. Se un’azienda investisse ingenti somme in un nuovo data center on-premise, l’hardware potrebbe non essere ancora stato completamente ammortizzato. Un passaggio immediato al cloud significherebbe vanificare tale investimento.
Da non sottovalutare le applicazioni “legacy”, cioè sistemi software datati, spesso monolitici e complessi, che non sono stati progettati per il cloud. Riscrivere (refactoring) queste applicazioni può essere costoso e rischioso, rendendo preferibile mantenerle attive sull’hardware originale. È dall’unione di queste esigenze contrapposte che nasce il modello oggi più diffuso: il data center ibrido, dove alcuni servizi rimangono on-premise mentre altri vengono spostati sul cloud, coesistendo in modo integrato.
L’assessment iniziale e il ruolo del team IT
Prima di spostare i dati aziendali, la transizione richiede una fase di analisi approfondita, nota come assessment. Questo è il momento in cui il ruolo del fornitore IT o del team sistemistico interno diventa cruciale. Il primo passo è mappare l’esistente, cioè, generare un inventario dettagliato di tutti i server (fisici e virtuali), delle applicazioni, dei database e delle connessioni di rete.
Questo inventario, però, non è sufficiente, infatti, il processo più complesso è l’analisi delle dipendenze. È necessario capire quali applicazioni comunicano tra loro, quali database supportano quali servizi e quali sistemi sono critici per il business. Spostare un’applicazione front-end sul cloud lasciando il suo database on-premise, senza un’adeguata pianificazione della connettività, può portare a latenze disastrose e al fallimento del servizio. Il team IT deve analizzare ogni workload e classificarlo.
Durante questa fase si decidono le strategie di migrazione. Alcune applicazioni possono essere semplicemente spostate così come sono (un approccio noto come “Rehost” o “Lift-and-Shift”), ideale per una migrazione rapida. Altre potrebbero richiedere piccole modifiche per funzionare meglio nel cloud (“Replatform”). Altre ancora, specialmente quelle strategiche, potrebbero essere completamente riscritte per sfruttare appieno i servizi cloud nativi (“Refactor”).
In specifici casi, alcune applicazioni potrebbero essere sostituite da soluzioni SaaS (Software-as-a-Service) o semplicemente dismesse (“Retire” o “Retain”). È il team IT, interno o esterno, che guida questa analisi strategica, bilanciando costi, rischi e benefici per ogni componente dell’infrastruttura.
La pianificazione dei costi e la scelta del provider
Una volta completato l’assessment, si avvia la fase di pianificazione finanziaria. È un errore comune confrontare il costo di un server fisico con il costo mensile di una macchina virtuale equivalente nel cloud. La pianificazione dei costi deve essere basata sul TCO (Total Cost of Ownership).
Il TCO dell’on-premise include costi evidenti, come l’hardware e le licenze software, ma anche costi “nascosti” come il consumo energetico, il raffreddamento, lo spazio fisico occupato nel data center, i costi di manutenzione hardware e, soprattutto, il tempo che il personale IT dedica alla gestione dell’infrastruttura (patch, aggiornamenti, backup).
Dall’altra parte, il costo del cloud deve essere stimato con precisione. Provider leader come Microsoft Azure offrono strumenti specifici, come il Calcolatore TCO o Azure Migrate, che aiutano le organizzazioni a proiettare i costi futuri sulla base del loro attuale inventario on-premise. Questi strumenti permettono di simulare diverse configurazioni e servizi, fornendo una stima della spesa operativa mensile.
Una delle sfide del modello OpEx è il controllo della spesa. Senza un controllo adeguato, è facile lasciare risorse accese inutilmente, portando a costi imprevisti. Pertanto, la pianificazione deve includere l’adozione di strumenti di gestione dei costi, come Azure Cost Management, per monitorare la spesa in tempo reale, impostare budget, ricevere avvisi e ottimizzare l’uso delle risorse.
Il ponte verso il coud: connettività ibrida e VPN
Come anticipato, la maggior parte delle aziende non si sposta sul cloud in un’unica soluzione. Il modello ibrido (on-premise e cloud che lavorano insieme) è spesso la normalità, sia come fase di transizione sia come architettura definitiva. Affinché questo modello funzioni, la connettività tra i due ambienti deve essere sicura, affidabile e performante. I dati non possono solo viaggiare su Internet in chiaro.
La soluzione più comune per stabilire questo collegamento è l’utilizzo di una VPN (Virtual Private Network). Nello specifico, si configura una VPN “site-to-site” che crea un tunnel crittografato permanente tra il gateway di rete aziendale on-premise e la rete virtuale nel cloud (ad esempio, nel Virtual Network di Azure).
Attraverso questo tunnel, la rete cloud diventa a tutti gli effetti un’estensione sicura del data center locale. I server nei due ambienti possono comunicare tra loro utilizzando indirizzi IP privati, come se si trovassero sulla stessa LAN. Questo è fondamentale per scenari ibridi, come un’applicazione web in esecuzione sul cloud che deve accedere a un database legacy rimasto on-premise, o per consentire agli amministratori di sistema di gestire le risorse cloud utilizzando gli stessi strumenti di gestione locali.
La progettazione di questa VPN per ambienti ibridi è un compito delicato poiché occorre dimensionare correttamente la larghezza di banda per evitare colli di bottiglia, garantire la ridondanza della connessione per evitare interruzioni del servizio e configurare attentamente le regole di firewall per proteggere il traffico tra i due mondi. Per esigenze di banda e latenza ancora più spinte, i provider offrono connessioni dedicate e private (come Azure ExpressRoute), ma la VPN rimane il pilastro fondamentale della connettività ibrida.
Adeguamento delle policy, sicurezza e conformità GDPR
La migrazione al cloud sposta i dati e le applicazioni al di fuori del perimetro fisico aziendale. Questo impone una revisione completa delle policy interne di sicurezza e, nel contesto europeo, una rigorosa attenzione alla conformità normativa, in particolare al GDPR (Regolamento Generale sulla Protezione dei Dati).
Spostarsi sul cloud non significa delegare la sicurezza, infatti, si adotta un “modello di responsabilità condivisa”, cioè il provider cloud (come Microsoft Azure) che è responsabile della sicurezza del cloud (l’infrastruttura fisica, la rete, l’hypervisor), mentre l’azienda cliente è responsabile della sicurezza nel cloud (i dati, le configurazioni, la gestione degli accessi, le patch dei sistemi operativi).
Il GDPR richiede che le organizzazioni sappiano sempre dove si trovano i dati personali, come vengono trattati e chi vi ha accesso. Quando si utilizza un provider cloud, è fondamentale assicurarsi contrattualmente che i dati siano trattati in conformità. Questo include la scelta della “region” del data center poiché per rispettare i requisiti di localizzazione, un’azienda europea sceglierà tipicamente data center situati all’interno dell’Unione Europea, opzione che tutti i principali provider offrono.
Le procedure interne di gestione degli accessi (Identity and Access Management), le policy di crittografia dei dati (sia a riposo che in transito), le procedure di logging e monitoraggio degli eventi di sicurezza devono essere riviste ed estese. In un ambiente ibrido, la sfida è garantire che queste policy siano applicate in modo coerente sia sull’infrastruttura on-premise sia sulle risorse cloud, per evitare di creare zone d’ombra o punti deboli nella postura di sicurezza complessiva.
L’esecuzione, il post-migrazione e l’evoluzione delle competenze IT
Dopo assessment, pianificazione costi, configurazione VPN e adeguamento GDPR, inizia la migrazione, gestita dal fornitore IT o team interno, con un approccio graduale. Nello specifico, si migrano prima applicazioni meno critiche, testandole, poi le più complesse.
Durante la transizione, il monitoraggio è essenziale per validare performance, connettività e sicurezza. I test di backup e disaster recovery sono obbligatori prima di dismettere l’on-premise. Il lavoro IT, quindi, evolve da manutenzione hardware a ottimizzazione continua nel cloud, con nuove competenze su controllo costi, automazione e miglioramento performance e sicurezza.
La metamorfosi del data center come processo continuo
La trasformazione del data center da un modello puramente on-premise a uno che in cloud, spesso in forma ibrida, è molto più di un aggiornamento tecnologico. Rappresenta una metamorfosi strategica che ridefinisce il modo in cui le aziende gestiscono i costi, innovano e rispondono ai cambiamenti del mercato.
Questo percorso necessita di una pianificazione attenta dove si deve partire da una valutazione onesta delle motivazioni, con un assessment dettagliato condotto da un team IT esperto, interno o esterno. Serve un’ottima pianificazione finanziaria, supportata da strumenti come Microsoft Azure. È altrettanto rilevante creare una connettività ibrida sicura tramite VPN e rispettare rigorosamente normative come il GDPR, beneficiando di un risultato finale con un’infrastruttura agile, scalabile ed efficiente, capace di evolversi continuamente con il business.













