scenario

Data center, i trend: dall’on-premise al cloud, come cambiano



Indirizzo copiato

Mentre in Italia cresce il mercato dei data center e, solo negli ultimi giorni, 14 impianti hanno ricevuto approvazione alla valutazione di impatto ambientale, è importante analizzare come questi centri si sono evoluti negli anni e quali sono i trend tecnologici che li caratterizzano

Pubblicato il 3 nov 2025

Maurizio Stochino

Consulente ICT – Esperto di Sicurezza Informatica



green data center AI e sostenibilità; impatto ambientale data center; fornitori data center; on premise cloud data center data center sostenibili; data center nucleare

Mentre in Italia si dà il via libera, dopo la valutazione d’impatto ambientale, a quattordici nuovi progetti di data center da 50 megawatt e 2,5 miliardi che ora potranno procedere a richiedere l’autorizzazione ambientale integrata, considerando lo sviluppo del settore è importante analizzare come questo sia cambiato nel corso degli anni.

Il concetto di data center, infatti, ha subito una profonda metamorfosi; per decenni, è stato sinonimo di un luogo fisico, spesso situato all’interno dell’azienda stessa, ricca di server, rack, cavi e sistemi di raffreddamento. Questo modello, noto come “on-premise”, ha rappresentato il cuore dell’IT aziendale, ma l’evoluzione delle tecnologie cloud ha innescato una trasformazione significativa.

Il passaggio dall’on-premise al cloud non è semplicemente una transizione tecnica; è un cambiamento strategico che impatta i modelli di business, le operazioni e la finanza. Comprenderne l’evoluzione è fondamentale per qualsiasi organizzazione che voglia rimanere agile e competitiva nell’era digitale.

Data center, perché valutare la migrazione al cloud

La decisione di abbandonare, parzialmente o totalmente, un’infrastruttura on-premise non è semplice. Nasce da una serie di opportunità che il modello cloud promette di indirizzare, anche se la motivazione principale è spesso la scalabilità.

In un data center tradizionale, la capacità hardware e software deve essere pianificata in anticipo, dimensionandola per i picchi di carico. Questo significa che per la maggior parte del tempo, una quantità significativa di risorse rimane inutilizzata. Il cloud, al contrario, offre una scalabilità notevole poiché le risorse, come potenza di calcolo o storage, possono essere aumentate/diminuite quasi istantaneamente, pagando solo per ciò che si utilizza effettivamente.

Come è facile dedurre, c’è anche un collegamento con il cambiamento del modello finanziario. L’on-premise è caratterizzato dal CapEx (Capital Expenditure), ovvero grandi investimenti iniziali per l’acquisto di server, licenze e infrastrutture, che vengono poi ammortizzati nel corso degli anni. Mentre il cloud trasforma questa spesa in OpEx (Operational Expenditure), un costo operativo ricorrente, simile a una bolletta elettrica. Tale modello “pay-as-you-go” rende i costi più prevedibili e allinea la spesa IT direttamente al consumo effettivo, liberando capitale che può essere investito in innovazione anziché in hardware.

Il fattore dell’agilità operativa

Un altro fattore trainante è l’agilità operativa; infatti, l’avvio di un nuovo progetto in un ambiente on-premise richiede tempo per l’approvvigionamento hardware, installazione, configurazione e così via. In un ambiente cloud, è possibile “provisionare” un nuovo server o un intero ambiente di sviluppo in pochi minuti. Questa velocità permette alle aziende di sperimentare, testare nuove idee e lanciare servizi sul mercato molto più rapidamente. I grandi provider cloud poi, grazie alle loro economie di scala, possono offrire livelli di sicurezza, ridondanza e piani di disaster recovery che per molte aziende di medie dimensioni sarebbero proibitivi da replicare nel proprio data center.

On premise cloud, freni alla migrazione e nascita dell’ibrido

La migrazione totale al cloud non è sempre la risposta giusta o immediata, esistono motivazioni valide per cui un’organizzazione può scegliere di mantenere, almeno in parte, la propria infrastruttura on-premise. Una delle preoccupazioni principali riguarda la sovranità e la localizzazione dei dati.

Alcuni settori, come quello sanitario, finanziario o la pubblica amministrazione, sono soggetti a normative stringenti che impongono dove i dati sensibili debbano fisicamente risiedere. Anche se i moderni provider cloud offrono data center in specifiche regioni geografiche per rispondere a queste esigenze, il controllo fisico diretto offerto dall’on-premise è per alcuni ancora un requisito imprescindibile.

Un’altra considerazione tecnica è la latenza. Applicazioni che richiedono tempi di risposta quasi istantanei, come i sistemi di controllo industriale, la robotica o le piattaforme di trading ad alta frequenza, potrebbero subire cali di performance se dipendessero da una connessione remota.

Ovviamente bisogna considerare anche gli investimenti esistenti. Se un’azienda investisse ingenti somme in un nuovo data center on-premise, l’hardware potrebbe non essere ancora stato completamente ammortizzato. Un passaggio immediato al cloud significherebbe vanificare tale investimento.

Da non sottovalutare le applicazioni “legacy”, cioè sistemi software datati, spesso monolitici e complessi, che non sono stati progettati per il cloud. Riscrivere (refactoring) queste applicazioni può essere costoso e rischioso, rendendo preferibile mantenerle attive sull’hardware originale. È dall’unione di queste esigenze contrapposte che nasce il modello oggi più diffuso: il data center ibrido, dove alcuni servizi rimangono on-premise mentre altri vengono spostati sul cloud, coesistendo in modo integrato.

L’assessment iniziale e il ruolo del team IT

Prima di spostare i dati aziendali, la transizione richiede una fase di analisi approfondita, nota come assessment. Questo è il momento in cui il ruolo del fornitore IT o del team sistemistico interno diventa cruciale. Il primo passo è mappare l’esistente, cioè, generare un inventario dettagliato di tutti i server (fisici e virtuali), delle applicazioni, dei database e delle connessioni di rete.

Questo inventario, però, non è sufficiente, infatti, il processo più complesso è l’analisi delle dipendenze. È necessario capire quali applicazioni comunicano tra loro, quali database supportano quali servizi e quali sistemi sono critici per il business. Spostare un’applicazione front-end sul cloud lasciando il suo database on-premise, senza un’adeguata pianificazione della connettività, può portare a latenze disastrose e al fallimento del servizio. Il team IT deve analizzare ogni workload e classificarlo.

Durante questa fase si decidono le strategie di migrazione. Alcune applicazioni possono essere semplicemente spostate così come sono (un approccio noto come “Rehost” o “Lift-and-Shift”), ideale per una migrazione rapida. Altre potrebbero richiedere piccole modifiche per funzionare meglio nel cloud (“Replatform”). Altre ancora, specialmente quelle strategiche, potrebbero essere completamente riscritte per sfruttare appieno i servizi cloud nativi (“Refactor”).

In specifici casi, alcune applicazioni potrebbero essere sostituite da soluzioni SaaS (Software-as-a-Service) o semplicemente dismesse (“Retire” o “Retain”). È il team IT, interno o esterno, che guida questa analisi strategica, bilanciando costi, rischi e benefici per ogni componente dell’infrastruttura.

La pianificazione dei costi e la scelta del provider

Una volta completato l’assessment, si avvia la fase di pianificazione finanziaria. È un errore comune confrontare il costo di un server fisico con il costo mensile di una macchina virtuale equivalente nel cloud. La pianificazione dei costi deve essere basata sul TCO (Total Cost of Ownership).

Il TCO dell’on-premise include costi evidenti, come l’hardware e le licenze software, ma anche costi “nascosti” come il consumo energetico, il raffreddamento, lo spazio fisico occupato nel data center, i costi di manutenzione hardware e, soprattutto, il tempo che il personale IT dedica alla gestione dell’infrastruttura (patch, aggiornamenti, backup).

Dall’altra parte, il costo del cloud deve essere stimato con precisione. Provider leader come Microsoft Azure offrono strumenti specifici, come il Calcolatore TCO o Azure Migrate, che aiutano le organizzazioni a proiettare i costi futuri sulla base del loro attuale inventario on-premise. Questi strumenti permettono di simulare diverse configurazioni e servizi, fornendo una stima della spesa operativa mensile.

Una delle sfide del modello OpEx è il controllo della spesa. Senza un controllo adeguato, è facile lasciare risorse accese inutilmente, portando a costi imprevisti. Pertanto, la pianificazione deve includere l’adozione di strumenti di gestione dei costi, come Azure Cost Management, per monitorare la spesa in tempo reale, impostare budget, ricevere avvisi e ottimizzare l’uso delle risorse.

Il ponte verso il coud: connettività ibrida e VPN

Come anticipato, la maggior parte delle aziende non si sposta sul cloud in un’unica soluzione. Il modello ibrido (on-premise e cloud che lavorano insieme) è spesso la normalità, sia come fase di transizione sia come architettura definitiva. Affinché questo modello funzioni, la connettività tra i due ambienti deve essere sicura, affidabile e performante. I dati non possono solo viaggiare su Internet in chiaro.

La soluzione più comune per stabilire questo collegamento è l’utilizzo di una VPN (Virtual Private Network). Nello specifico, si configura una VPN “site-to-site” che crea un tunnel crittografato permanente tra il gateway di rete aziendale on-premise e la rete virtuale nel cloud (ad esempio, nel Virtual Network di Azure).

Attraverso questo tunnel, la rete cloud diventa a tutti gli effetti un’estensione sicura del data center locale. I server nei due ambienti possono comunicare tra loro utilizzando indirizzi IP privati, come se si trovassero sulla stessa LAN. Questo è fondamentale per scenari ibridi, come un’applicazione web in esecuzione sul cloud che deve accedere a un database legacy rimasto on-premise, o per consentire agli amministratori di sistema di gestire le risorse cloud utilizzando gli stessi strumenti di gestione locali.

La progettazione di questa VPN per ambienti ibridi è un compito delicato poiché occorre dimensionare correttamente la larghezza di banda per evitare colli di bottiglia, garantire la ridondanza della connessione per evitare interruzioni del servizio e configurare attentamente le regole di firewall per proteggere il traffico tra i due mondi. Per esigenze di banda e latenza ancora più spinte, i provider offrono connessioni dedicate e private (come Azure ExpressRoute), ma la VPN rimane il pilastro fondamentale della connettività ibrida.

Adeguamento delle policy, sicurezza e conformità GDPR

La migrazione al cloud sposta i dati e le applicazioni al di fuori del perimetro fisico aziendale. Questo impone una revisione completa delle policy interne di sicurezza e, nel contesto europeo, una rigorosa attenzione alla conformità normativa, in particolare al GDPR (Regolamento Generale sulla Protezione dei Dati).

Spostarsi sul cloud non significa delegare la sicurezza, infatti, si adotta un “modello di responsabilità condivisa”, cioè il provider cloud (come Microsoft Azure) che è responsabile della sicurezza del cloud (l’infrastruttura fisica, la rete, l’hypervisor), mentre l’azienda cliente è responsabile della sicurezza nel cloud (i dati, le configurazioni, la gestione degli accessi, le patch dei sistemi operativi).

Il GDPR richiede che le organizzazioni sappiano sempre dove si trovano i dati personali, come vengono trattati e chi vi ha accesso. Quando si utilizza un provider cloud, è fondamentale assicurarsi contrattualmente che i dati siano trattati in conformità. Questo include la scelta della “region” del data center poiché per rispettare i requisiti di localizzazione, un’azienda europea sceglierà tipicamente data center situati all’interno dell’Unione Europea, opzione che tutti i principali provider offrono.

Le procedure interne di gestione degli accessi (Identity and Access Management), le policy di crittografia dei dati (sia a riposo che in transito), le procedure di logging e monitoraggio degli eventi di sicurezza devono essere riviste ed estese. In un ambiente ibrido, la sfida è garantire che queste policy siano applicate in modo coerente sia sull’infrastruttura on-premise sia sulle risorse cloud, per evitare di creare zone d’ombra o punti deboli nella postura di sicurezza complessiva.

L’esecuzione, il post-migrazione e l’evoluzione delle competenze IT

Dopo assessment, pianificazione costi, configurazione VPN e adeguamento GDPR, inizia la migrazione, gestita dal fornitore IT o team interno, con un approccio graduale. Nello specifico, si migrano prima applicazioni meno critiche, testandole, poi le più complesse.

Durante la transizione, il monitoraggio è essenziale per validare performance, connettività e sicurezza. I test di backup e disaster recovery sono obbligatori prima di dismettere l’on-premise. Il lavoro IT, quindi, evolve da manutenzione hardware a ottimizzazione continua nel cloud, con nuove competenze su controllo costi, automazione e miglioramento performance e sicurezza.

La metamorfosi del data center come processo continuo

La trasformazione del data center da un modello puramente on-premise a uno che in cloud, spesso in forma ibrida, è molto più di un aggiornamento tecnologico. Rappresenta una metamorfosi strategica che ridefinisce il modo in cui le aziende gestiscono i costi, innovano e rispondono ai cambiamenti del mercato.

Questo percorso necessita di una pianificazione attenta dove si deve partire da una valutazione onesta delle motivazioni, con un assessment dettagliato condotto da un team IT esperto, interno o esterno. Serve un’ottima pianificazione finanziaria, supportata da strumenti come Microsoft Azure. È altrettanto rilevante creare una connettività ibrida sicura tramite VPN e rispettare rigorosamente normative come il GDPR, beneficiando di un risultato finale con un’infrastruttura agile, scalabile ed efficiente, capace di evolversi continuamente con il business.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati