Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

Nuovi modelli

Il futuro delle reti ha un’anima software: ecco cosa ci aspetta

di Massimo Carboni, Chief Technical Officer GARR

06 Dic 2017

6 dicembre 2017

L’attuale modello di rete si basa su un’architettura rigida e gerarchica. Le nuove tendenze vanno però verso un’organizzazione “a mattoncini” dove il software è centrale. Modello che garantisce un’elevata flessibilità e un maggior numero di servizi mantenendo snella l’organizzazione

Non si può parlare di automazione delle telecomunicazioni senza soffermarsi sugli importanti cambiamenti che stanno avvenendo in questo momento storico. Sulla scia delle novità introdotte dal paradigma cloud, anche il mondo del networking sta cambiando. Già oggi si è fatta strada la necessità di un modello che abbia nella scalabilità uno dei suoi principali punti di forza per poter far fronte alle continue richieste di maggiore capacità di banda, all’aumento esponenziale dei dispositivi presenti in rete, alla grande quantità di dati da dover gestire e, infine, alla crescente mobilità degli utenti, non più circoscrivibili in confini predefiniti e con necessità di accedere ai servizi dovunque in modalità cloud.

Ci troviamo di fronte ad un aumento della complessità e la componente software, l’automazione e l’intelligenza artificiale saranno fondamentali per poter gestire i processi e garantire un supporto decisionale, ampliando la nostra capacità di ottenere dati e informazioni sul funzionamento della rete e prevedere e programmarne le evoluzioni in tempo reale.

L’attuale modello di rete, giunto ormai ai limiti del suo sviluppo, si basa su un’architettura a più livelli, a ciascuno dei quali corrispondono elementi (fibre, apparati di amplificazione e di trasmissione, router IP, ecc.) rigidamente connessi in modo gerarchico: si tratta di un sistema quasi statico, che richiede configurazioni manuali, e presenta dei punti di demarcazione rigidi. Funziona ed è robusto, ma questa robustezza di rete si paga in termini di adattabilità del modello. Oggi invece osserviamo una tendenza diversa: da un’organizzazione verticale per strati si passa ad una “a mattoncini” dove un servizio non si compone più seguendo una sequenza logica strutturata tra le componenti, ma accedendo alle risorse in modo diretto. Si tratta di un modello disaggregato in cui possiamo rappresentare rete, apparati e funzioni di rete come risorse differenti che, combinate tra loro, vanno a produrre servizi diversi.

In questo scenario, acquisisce una crescente importanza l’elemento software, mentre l’hardware viene visto sempre più come una semplice base, ovvero una commodity relativamente semplice e poco costosa, a cui si richiede soprattutto di essere flessibile e programmabile.

Questo cambiamento è già in atto e gli OTT sono quelli che ne hanno beneficiato per primi.

Da un modello “a strati” si passa dunque a un modello “funzionale”, in cui il concetto di servizio all’utente finale viene completamente trasformato poiché ogni singola componente (trasmissione, storage, calcolo, firewall…) diventa un servizio a sé stante, da combinare con altri secondo necessità. Ma come si mettono insieme le diverse componenti? Come viene gestita tutta questa complessità? È a questo punto che subentra l’automazione ed in particolare il cosiddetto modello dichiarativo: si procede nella prima fase “dichiarando”, cioè descrivendo, l’architettura del servizio ed è il software che, nella seconda fase, decide come eseguire il processo per realizzare l’obiettivo. Introducendo il concetto di “zero touch networking” Bikash Koley, direttore della Google network architecture, ha dichiarato che il 70% dei malfunzionamenti della rete sono dovuti all’intervento umano, dato che la mente umana è incapace di registrare la complessità di quello che possiamo chiamare lo “stato dell’arte” della rete, fatto da una miriade di variabili e funzioni: per questo, l’intervento del software è assolutamente imprescindibile. Stiamo dunque andando verso un “intent-based networking”, come affermato da Gartner. Non solo, mentre nel modello attuale è più facile risolvere un eventuale malfunzionamento perché si può individuare il livello compromesso e accedere e agire direttamente su di esso, nel modello funzionale è necessario poter accedere a informazioni diverse acquisendole da tutte le componenti in gioco e fare correlazioni per capire dove sia il problema. In questo senso, un ruolo chiave verrà giocato dall’intelligenza artificiale che, grazie alla possibilità di avere una visione d’insieme privilegiata, avrà il compito di analizzare le diverse componenti, a supporto dei modelli decisionali. L’organizzazione aziendale continuerà ad essere per funzioni – per cui continueremo ad avere l’esperto di reti, di software, di IT – ma i servizi verranno costruiti trasversalmente e si può presumere che ciò si rifletterà sul modello organizzativo.

Ma perché siamo arrivati a questo modello? Cosa c’è dietro?

Il vero motore è la velocità nel produrre innovazione che è sempre più richiesta. Il nuovo modello garantisce un’elevata flessibilità, elemento che consente di realizzare un maggior numero di servizi mantenendo snella l’organizzazione che lo gestisce. Si tratta di un modello agile che abbatte i tempi di realizzazione: nel vecchio modello dobbiamo considerare 2-3 anni necessari allo sviluppo e circa 7 anni di operatività, mentre nel modello disaggregato impiegheremo solo alcuni mesi per costruire nuovi servizi e il ciclo di vita dell’hardware sarà più breve e calibrato sulle reali necessità.

Inoltre c’è anche una motivazione economica: il costo del modello a strati non è più sostenibile perché per innalzare le prestazioni occorre intervenire su tutta l’infrastruttura, mentre nel nuovo modello è possibile intervenire anche su uno specifico elemento, ad esempio riprogrammando la componente ottica per realizzare un upgrade di banda.

Ovviamente ci sono dei rischi, principalmente a livello dei modelli di responsabilità e della definizione dei canali di comunicazione tra i diversi elementi, oltre che della gestione della sicurezza, che richiede un controllo sempre più capillare e una sempre maggiore velocità di intervento per mitigare gli effetti della sua vulnerabilità. Ed è proprio in questo campo che l’AI diventa uno strumento abilitante. Nell’ambito della rete della ricerca GARR, come al solito, cerchiamo di anticipare i cambiamenti affrontando tempestivamente le nuove sfide. Per questo abbiamo elaborato un White Paper disponibile online e avviato una riflessione su questi temi coinvolgendo la nostra comunità della ricerca. Fare una rete intelligente sarà il risultato finale, proprio perché mi viene da pensare che le reti stupide… non le vuole nessuno.

Articoli correlati