polo strategico nazionale

Hyperscale, perché è tecnologia pilastro dei datacenter nazionali cloud

Un’architettura come quella del Polo Strategico Nazionale deve essere progettata, pensata, implementata, collaudata e testata in modo da potersi adattare alle condizioni più sfavorevoli e trasformarsi in base agli eventi. Per questo una “tecnologia” fondamentale è l’Hyperscale. Caratteristiche e funzioni

28 Feb 2022
Giuseppe Arcidiacono

Responsabile Sistema Informativo at ARCEA

Anche il nuovo Polo Strategico Nazionale, ossia il costruendo quartier generale informatico della nostra pubblica amministrazione, abbraccerà la tecnologia hyperscale che diventerà, pertanto, un tema centrale per il buon funzionamento dell’intera macchina statale e merita di essere studiato, approfondito e governato.

Ma come siamo arrivati a questa centralità?

Data center, come realizzarli: immobili, contratti e appalti, ecco cosa fare

Il processo di digitalizzazione dei servizi pubblici

Tra ripensamenti, cambi di rotta, accelerazioni repentine e brusche frenate, il processo di digitalizzazione dei servizi pubblici non brilla certo per continuità e linearità. Tra i pochi punti fermi che ormai è possibile dare per consolidati, però, rientra certamente la volontà di migrare tutti i servizi erogati dall’articolata macchina statale verso architetture di tipo cloud.

WHITEPAPER
Smart Logistic: semplificare, velocizzare e aumentare l'efficienza della logistica
IoT
Logistica/Trasporti

Il futuro della PA italiana, pertanto, sarà strettamente connesso a quello del cosiddetto Polo Strategico Nazionale che, invero, costituirà una vera e propria dorsale digitale o, in altri termini, un enorme quartiere generale informatico finalizzato a fornire potenza di calcolo, capacità di memorizzazione, strumenti per interloquire con i cittadini ma anche e soprattutto architetture in grado di garantire stabilità, sicurezza, resilienza e resistenza rispetto a vulnerabilità, minacce, imprevisti o semplici incidenti.

In estrema sintesi, la grande “Nuvola Pubblica” deve essere immaginata come una gigantesca infrastruttura virtuale capace di “adattarsi” e “trasformarsi” in base alle esigenze degli enti centrali e periferici e, naturalmente, a quelle dei cittadini.

L’esempio del crash al portale Inps (e dell’11/9)

Dovrà essere, in altri termini, “scalabile” e saper reagire a tutte le circostanze, comprese quelle eccezionali che richiedono di rispondere in pochi secondi a milioni di richieste simultanee.

Pensiamo, ad esempio, al caso ormai famoso del crash occorso al portale dell’INPS in occasione dell’erogazione dei bonus pensati dal Governo per fronteggiare l’emergenza COVID-19. Qual è stato il principale problema in quella circostanza che ha rischiato di avere conseguenze anche devastanti sul piano della privacy e della tutela dei dati personali?

È consistito nell’incapacità del sistema di reagire in maniera adeguata ad un picco ingestibile con le risorse a disposizione, non per una cattiva programmazione dei tecnici e dei fornitori digitali dell’Ente Previdenziale ma semplicemente perché l’architettura del portale non era pensata per (e quindi non poteva) rispondere a quelle circostanze eccezionali.

Un po’ come accadde, semplificando certamente il discorso (che è estremamente più complicato e merita ben altri approfondimenti “tecnici”), in un altro ambito, nel tragico attentato delle Torri Gemelle nell’infausto 11 settembre del 2001: la struttura dei due grattacieli non poteva resistere a quel tipo di attacco anche perché nessuno aveva immaginato che potesse avvenire. I mega-palazzi non erano stati progettati per ricalibrare e riassorbire il carico gravitazionale non più retto dalle sezioni distrutte durante l’impatto.

L’importanza dell’Hyperscale per il cloud

Traslando in termini informatici l’esempio appena illustrato, un’architettura come quella del Polo Strategico Nazionale deve essere progettata, pensata, implementata, collaudata e testata in maniera tale che possa adattarsi alle condizioni più sfavorevoli e sappia trasformarsi in base agli eventi quasi come una spugna che aumenta il proprio volume quando è inondata dall’acqua e si restringe quando è “scarica”.

In questo modo può essere descritta una “tecnologia” fondamentale nel variegato mondo del cloud che è generalmente chiamata come “Hyperscale” e si riferisce alla capacità di una vasta rete di computer (decine di migliaia e più) di rispondere automaticamente alle mutevoli richieste degli utenti e di assegnare “on demand” carichi di lavoro alle risorse di elaborazione, archiviazione e rete.

Per comprendere ancora meglio, pensiamo a quello che è considerato un caso di scuola: nel momento in cui è andata in onda la “premiere” dell’ottava stagione de “Il Trono di Spade” addirittura 17,4 milioni di persone, di cui oltre 5 milioni in streaming, si sono sintonizzate sui canali della HBO senza sperimentare disagi o ritardi nella visualizzazione.

Tale straordinario e storico risultato è stato possibile grazie ad una gigantesca rete di server e datacenter che virtualmente accresceva le proprie risorse in tempo reale, adeguandosi alle richieste degli utenti, per poi contrarsi nuovamente, come una sorta di fisarmonica informatica, una volta che il numero di connessioni era diminuito fino a ritornare alla normalità.

Si tratta, come è di tutta evidenza, di una vera e propria rivoluzione (l’ennesima in questa era ipertecnologica), che sta nuovamente ridisegnando i confini non solo virtuali dei CED, delle reti informatiche, delle architetture digitali.

I pilastri dell’hyperscale cloud nei datacenter

L’iper-scalabilità, in pratica, sta portando alla creazione di flotte organizzate e super-connesse di Centri di Elaborazione Dati in grado di mostrarsi verso l’esterno come un unico, enorme complesso informatico in grado di trasformarsi in tempo reale come una figura mitologica o uno dei mostri tanto cari agli amanti del genere fantasy.

Una volta che abbiamo definito i principi basilari dell’hyperscale (come viene anche tradotta in italiano), possiamo analizzare le sue tre caratteristiche fondamentali, ossia:

  • La struttura fisica;
  • Il modo in cui viene elaborato il traffico in entrata;
  • Il modo in cui il software viene utilizzato per automatizzare diverse funzioni.

Schema esemplificativo di funzionamento dell’hyperscale. Fonte: Ionos

Struttura fisica hyperscale

Come anticipato in precedenza, l’”iper-scalabilità” non è raggiungibile attraverso un unico datacenter ma deve necessariamente estrinsecarsi in una rete, più o meno vasta, di edifici, dispositivi di rete, computer, server, NAS, storage, switch, etc.

Una rete iper-scalabile deve essere, pertanto, immaginata come un cluster composto da super calcolatori ospitati in centinaia di data center organizzati in “isole” altamente connesse e a bassa latenza, che possono fisicamente essere adiacenti ma anche distanti centinaia se non migliaia di chilometri.

È del tutto evidente come la dislocazione geografica dei siti sia intrinsecamente connessa ad importanti vantaggi di tipo infrastrutturale e tecnico ma faccia emergere, fisiologicamente, problematica di tipo normativo, giurisprudenziali che si intrecciano, come stiamo vedendo nella gara per il PSN italiano, anche con questioni di sovranità nazionale.

È un fatto incontrovertibile, invero, che datacenter collocati in zone estremamente distanti tra loro e sottoposte a differenti categorie di rischio (terremoto, tsunami, incendi, attacchi terroristici, etc) garantisca maggiori livelli di sicurezza delle informazioni. Se, ad esempio, un datacenter si trova in una zona di mare ed un altro in piena montagna, è possibile affermare che un maremoto non sia un evento in grado di abbattere l’intera infrastruttura. Analoghe considerazioni si possono riproporre per CED che si trovano in zone sensibili in quanto magari soggette ad instabilità di tipo politico e che, pertanto, devono essere accompagnate da infrastrutture che si trovano in Stati ragionevolmente stabili dal punto di vista dell’organizzazione nazionale.

Come si concilia, però, la necessità di garantire la sicurezza dei dati con quella di difendere e tutelare informazioni che possono essere anche estremamente sensibili tanto da interessare addirittura l’intelligence nazionale?

Non è un caso che molte delle competenze del cloud nazionale siano state affidate alla neonata Agenzia per la Cybersicurezza Nazionale (ACN) e che il PSN rientri a pieno titolo all’interno delle discussioni sul perimetro informatico.

Allo stesso modo si spiega la decisione di attivare per la NewCo che gestirà il Polo Strategico Nazionale la normativa sulla golden power che garantisce al Governo di acquisire quote più o meno rilevanti di aziende operanti in settori strategici e rilevanti per la sicurezza nazionale.

Gestione del traffico con architettura hyperscale

Alla luce di quanto è stato finora illustrato appare immediato comprendere come la gestione del “traffico” sia cruciale nei meccanismi di funzionamento di un architettura Hyperscale: dovendo, infatti, garantire la connessione continua tra siti dislocati in diverse parti del mondo, un fornitore di servizi deve sempre essere in grado di gestire un’elevata mole di dati in transito.

Un elemento di fondamentale importanza, in tale contesto, è la cosiddetta “Regione”: poiché è materialmente impossibile fornire le medesime prestazioni a livello planetario, i servizi cloud degli hyperscaler sono suddivisi in “aree vaste” all’interno delle quali sono garantiti livelli di performance ma anche di sicurezza e resilienza decisamente maggiori.

Per contestualizzare la discussione ad elementi di stretta attualità, si pensi, ad esempio, al progetto di fattibilità selezionato dal Governo per il nuovo PSN nel quale la cordata capitanata da TIM propone due target di sicurezza differenti per scenario mono e multiregionali.

In particolare, nel caso “standard” di utilizzo di datacenter allocati un’unica regione, il PSN garantirà tempi di ripristino (in gergo tempo “Recovery Time Objective” – RTO) di 30 minuti e la perdita massima dei dati trattati (“Recovery Point Objective” – RPO) nell’ultimo minuto antecedente al “disastro”.

Negli scenari più complessi, invece, che richiedono l’utilizzo di strutture allocate su più Regioni, i livelli “scendono” (NdA: in realtà i numeri salgono) rispettivamente a 4 ore (RTO) e 30 minuti (RPO).

Automazione del software

Costituite da milioni di server, le reti informatiche iper-scalabili devono necessariamente essere gestite da un articolato e complesso ecosistema digitale che, alla stregua di un sofisticato cervello elettronico è grado di ricevere sempre le richieste proveniente dall’esterno ed instradarle verso le risorse più appropriate in termini di distanza, capacità di elaborazione ma anche carico di lavoro.

In estrema sintesi, all’interno delle architetture iper-scalabili è presente una “cabina di regia” digitale che in poche frazioni di millisecondo acquisisce i segnali in ingresso, li analizza e li spedisce al modulo che, in quel preciso istante, è il migliore in assoluto. Per ottenere questo straordinario risultato sono necessarie due funzionalità fondamentali conosciute come “provisioning” e “orchestrazione”.

In particolare, il provisioning fornisce la capacità di utilizzare un server in rete, grazie a particolari configurazioni che lo rendono disponibile, “interpellabile” e funzionante in un ambiente distribuito mentre l’orchestrazione attiene alla capacità di armonizzare e canalizzare verso un unico obiettivo finale il lavoro di differenti dispositivi tra loro autonomi ma interconnessi.

La geografia degli hyperscaler

Estremamente interessante nell’ambito hyperscale è anche la dislocazione geografica che non a caso è al centro di continue rilevazioni da parte di numerose società specializzate nel mercato IT. La repentina accelerazione verso soluzioni iper-scalabili sta, infatti, trasformando anche le economie di diverse aree del mondo, spostando equilibri e flussi finanziari in maniera sensibile ed estremamente rapida.

Secondo uno studio di “Data Center Frontier”, in particolare, mentre i primi campus di cloud computing hanno visto la luce in aree rurali degli Stati Uniti, contribuendo a creare boom edilizi di data center nelle aree rurali dell’Oregon, dell’Iowa e della Carolina del Nord, negli ultimi anni la tendenza sta drasticamente cambiando in quanto tutti i grandi player hanno deciso di portare i datacenter vicino agli utenti finali e, pertanto, in prossimità delle grandi città USA ma anche in Europa, Asia, Sud America ed Africa.

“La domanda di provider di servizi cloud continua a guidare una forte crescita nei principali mercati dei data center e prevediamo che si diffonderà oltre i primi 20 mercati globali nei prossimi anni”, ha affermato Kelly Morgan, VP of Datacenter Services & Infrastructure di “451 Research”. “Alcuni mercati potrebbero vedere una crescita dell’offerta del 20% o superiore”.

I principali datacenter hyperscaler

Mutuando una nomenclatura già ampiamente in uso per i datacenter, anche per gli hyperscaler è stata proposta una classificazione che utilizzi, seppur facendo riferimento a sfumature di significato differenti, il concetto di Tier.

In particolare, sono inclusi nel “Tier 1” i provider dominanti nel contesto dei servizi cloud e dei sociali network AWS, Microsoft Azure, Google, Facebook e Alibaba che sono in grado di investire tra i 200 e gli 800 milioni di dollari per ogni nuovo data center costruito. Si stima che ciascuno dei player appena citati abbia almeno 50.000 server per data center, per un totale di circa 15 milioni di server per una spesa complessiva che supera gli 80 miliardi di euro.

Appartengono, invece al “Tier 2” grandi fornitori di cloud hyperscale quali Oracle, IBM e Apple, fornitori di Software as a Service (SaaS) come SAP, Salesforce, giganti dei social media come LinkedIn e Twitter e piattaforme come Uber, PayPal ed eBay che, in media, posseggono circa 10.000 server per data center e mezzo milione di server ciascuno, con una spesa complessiva stimata di 40 miliardi di dollari.

I tratti distintivi dell’hyperscale

Per soddisfare la domanda in rapida crescita, i data center iper-scalabili sono progettati per garantire un’estrema resilienza, che si riflette anche nella configurazione fisica dei datacenter: mentre i CED tradizionali sono generalmente riforniti secondo logiche incrementali, che prevedono l’acquisto di singoli server in caso di necessità, nei campus iper-scalabili, l’unità di misura è un rack completo.

Gli hyperscaler, inoltre, non solo guidano il progresso tecnologico, tanto da poter essere considerati dei veri e propri “trend setter”, ma stanno anche modificando drasticamente gli scenari di riferimento, imprimendo un’accelerazione decisa sia all’introduzione di nuove tecnologie che al processo di obsolescenza delle infrastrutture digitali.

Basti pensare, ad esempio, che, secondo recenti stime, gli straordinari progressi compiuti in relazione alla larghezza di banda della rete, alla velocità di elaborazione dei server ed all’efficienza energetica hanno ridotto a soli 42 mesi il tempo medio di vita di nuova tecnologia, rendendo ancora più frenetico il mercato di riferimento.

Gli hyperscaler, invero, grazie a numeri ed a volumi di transazioni sempre crescenti, stanno ribaltando completamente anche consuetudini consolidate e rapporti di forza. A titolo di esempio, se nelle sale CED tradizionali si interviene sulla climatizzazione per consentire ai microchip dei server di lavorare alle condizioni migliori, i nuovi player iper-scalabili hanno iniziato a rivolgersi direttamente ai produttori per chiedere la progettazione di elaboratori in grado di funzionare anche a temperature più alte o stanno addirittura avviando nuovi settori aziendali focalizzati alla progettazione di dispositivi personalizzati ed adatti alle peculiarità dell’hyperscale.

Una differenza particolarmente evidente è anche quella connessa alla manutenzione degli apparati ed alla gestione degli incidenti: se per le piccole e medie imprese, un guasto si ripercuote generalmente in maniera immediata sul business, all’interno di un data center iper-scalabile, il software di gestione è in grado di trasferire automaticamente i carichi di lavoro ad altre apparecchiature disponibili, garantendo la continuità dei servizi fondamentali.

I data center iper-scalabili, inoltre, pur consumando molta energia, sono molto più efficienti rispetto a quelli tradizionali: il “Lawrence Berkeley National Laboratory” stima che lo spostamento dell’80% dei server negli Stati Uniti verso strutture ottimizzate per l’iper-scalabilità ridurrebbe il consumo di energia di circa il 25%.

I nuovi modelli architetturali

Un discorso a parte merita, per l’importanza che riveste, l’analisi delle architetture digitali degli hyperscaler, che anche sotto questo punto di vista stanno introducendo novità epocali in grado di rivoluzionale l’assetto dei grandi datacenter.

È necessario, preliminarmente, considerare che le reti “classiche” erano basate su un modello a tre livelli:

  • Gli switch di accesso si connettono ai server;
  • Gli switch di aggregazione o di distribuzione forniscono connessioni ridondanti agli switch di accesso;
  • I core switch garantiscono un trasporto veloce tra switch di aggregazione, solitamente connessi in coppie ridondanti per assicurare un’elevata disponibilità.

Tale impostazione risulta particolarmente efficiente nel caso di software residenti all’interno di specifici server (come tradizionalmente avveniva fino a poco tempo fa) perché favorisce i flussi informativi “verticali” (chiamati anche nord-sud), ossia che vanno dall’ingresso del datacenter fino al dispositivo interessato e viceversa.

In una situazione fortemente frammentata come quella cloud, invece, nella quale diversi computer concorrono all’elaborazione delle informazioni assumono un ruolo cruciali i flussi “orizzontali” (conosciuti come est-ovest) che risulterebbero rallentati con il modello a tre livelli e richiedono, pertanto, uno schema semplificato conosciuto come spine-leaf.

Oltre a prestazioni più elevate, le topologie spine-leaf forniscono una migliore scalabilità in quanto permettono di aggiungere, in caso di necessità, sia ulteriori switch “spine” aumentando, in tal modo, la capacità complessiva che nuovi switch leaf, nel caso in cui la “densità di porta” diventasse un problema, senza dover riprogettare né riconfigurare la rete.

Fonte: https://www.arubanetworks.com/it/faq/cose-unarchitettura-spine-leaf/

Conclusioni

Il cloud fin dalle sue origini è stato considerato come una tecnologia “disruptive”, ossia in grado di introdurre una vera e propria frattura in un mondo già estremamente frenetico come quello dell’informatica. Se, però, erano immediatamente visibili per tutti gli addetti ai lavori gli effetti che avrebbe provocato sulle singole realtà aziendali, chiamate a trasferire le proprie capacità elaborative verso la grande nuvola, in pochi probabilmente avrebbero saputo immaginare la straordinaria rivoluzione che attendeva i datacenter di tutto il mondo.

Con l’avvento dei modelli “a servizio”, infatti, le architetture standard con i quali erano stati concepiti i centri di elaborazione dati sono diventate improvvisamente obsolete, inadeguate, superate, lasciando ben presto spazio alle nuove mega-strutture “ibride” o “fisico-virtuali” che sfruttano i principi dell’hyperscale.

Tutti i paradigmi di riferimento sono immediatamente cambiati ed a risentirne è stata non solo l’industria informatica ma l’economia di tutto il mondo che deve fare i conti con player sempre più grandi, potenti e dislocati in tutto il mondo.

WHITEPAPER
Processi più snelli, più fluidi, più efficienti: i vantaggi dell’Industria 4.0
CIO
Cloud
@RIPRODUZIONE RISERVATA

Articolo 1 di 4