il punto

Il coronavirus rallenta “internet”? Una questione di sovranità digitale europea

Da quando tutta Italia è zona rossa, la rete è sottoposta a forte stress ma l’attenzione finora si è concentrata sul problema sbagliato: non è la dorsale italiana a essere in crisi, ma il modello di gestione dei servizi informatici, tutti forniti da aziende straniere. È forse ora di parlare sul serio di sovranità digitale

26 Mar 2020
Vittorio Bertola

Research & Innovation Engineer presso Open-Xchange


In tempi di emergenza, e di frontiere che improvvisamente si chiudono, diventa subito rilevante una questione fin qui, invero, troppo poco dibattuta eppure strategica: la dipendenza dell’Italia da servizi informatici collocati all’estero, magari in un altro continente, o comunque forniti da aziende straniere.

Una delle conseguenze immediate del coronavirus è infatti la fine del concetto di mondo senza confini; magari temporaneamente, ma tutti i Paesi del mondo hanno prontamente alzato le frontiere e privilegiato gli interessi nazionali, fino al caso clamoroso dei nostri vicini europei che hanno bloccato per decreto la consegna di mascherine, anche quelle già acquistate da aziende italiane, per tenerle a disposizione dei propri cittadini.

In una situazione di questo genere, siamo sicuri che anche Internet possa resistere all’innalzamento di nuove barriere proprio nel momento dell’emergenza? In caso contrario, esiste una necessità strategica di assicurarsi che servizi informatici vitali per il funzionamento della nazione e della sua economia possano essere forniti in Italia da aziende italiane, non soggette a possibili provvedimenti restrittivi da parte di altri governi?

Internet sotto stress? Il problema non è la rete

Il problema si sta presentando con chiarezza. Da martedì 10 marzo, quando tutta Italia è zona rossa, circa 60 milioni di italiani sono costretti a stare a casa il più possibile. Questa situazione emergenziale sta sottoponendo a forte stress la rete Internet, con i primi dati di un possibile rallentamento, certificati dagli speed test di Ookla; ma in controluce anche nel decreto Cura Italia che chiede agli operatori di potenziare la rete.

Peccato che sia una visione limitata. L’attenzione finora si è concentrata solo sul problema infrastrutturale immediato, cioè sulla capacità della rete e dei server di reggere il traffico.

Del resto, anche se l’aumento di traffico è stato molto significativo, non è la dorsale di rete italiana a essere in crisi. I grafici del MIX di Milano sono chiari: se fino a lunedì 9 marzo i picchi quotidiani di traffico erano tipicamente di 700-800 Gbps – con un minimo di 600 Gbps sabato 7 marzo, giorno in cui evidentemente milioni di italiani, in barba agli appelli a contenere il contagio, erano in giro al mare e in montagna – da martedì 10 i picchi sono saliti a 1000-1100 Gbps, con un aumento fino al 50%. Il traffico è salito in tutte le fasce orarie, con due periodi di punta, tipicamente tra le 16 e le 19 e tra le 21 e le 23. Non solo si lavora da casa, aumentando il traffico nelle ore diurne, ma non potendo uscire si utilizzano di più i servizi di streaming audiovisivo, che sono i più pesanti per le reti.

Tuttavia, nonostante questa situazione, possiamo dire che la rete Internet nazionale ha retto; bene o male, nonostante alcuni problemi riportati sulle reti dati mobili, le dorsali riescono a trasportare tutto il traffico aggiuntivo. Meno bene sembrano reggere i server su cui girano i servizi, per esempio i siti web della pubblica amministrazione (compresa persino la Gazzetta Ufficiale) o quelli dei giornali, che in momenti di rapida diffusione virale di comunicazioni urgenti risultano spesso sovraccarichi. Ancora più in difficoltà sono spesso stati i servizi tipici del telelavoro, che in Italia non erano mai stati utilizzati così tanto; come le videoconferenze, specialmente quelle realizzate internamente con installazioni aziendali che di colpo hanno visto moltiplicarsi gli utenti di molte volte; o i sistemi di VPN, o quelli di condivisione dei file.

Fino ad alcuni anni fa, le aziende medio-grandi realizzavano i propri servizi, che fossero per i dipendenti o per il mercato consumer, con grandi installazioni on premise. Poi è arrivato il cloud, il concetto di disperdere i servizi in giro per la rete, come forma di outsourcing, e di spezzettarli in modo da poterli scalare rapidamente secondo le necessità. Questo paradigma ha indubbiamente molti aspetti positivi, e se in una condizione di improvviso aumento di traffico il vecchio server aziendale piazzato anni fa in un data centre è probabilmente collassato, i servizi in cloud hanno invece potuto rapidamente aumentare le risorse e far fronte alle richieste.

C’è però un problema: i servizi in cloud sono per definizione sparsi in giro per la rete, e in un mercato totalmente globale come quello Internet, questo può voler dire mettere insieme servizi sparsi per mezzo pianeta. Le grandi piattaforme dispongono di punti di presenza distribuiti e capillari, ma i servizi meno grandi possono facilmente diventare lenti se a un aumento di carico si somma un accresciuto intasamento delle direttrici di rete internazionali, costose e meno facilmente scalabili.

A questo punto, come abbiamo evidenziato in apertura, emerge un problema ben più sottile e ben più strategico, quello della autonomia dei singoli Paesi nella fornitura dei servizi informatici di base.

La posizione europea

DIGITAL EVENT 18 GIUGNO
Think Digital Summit: tecnologie e trend verso una nuova normalità
Cloud
Sicurezza

La questione, peraltro, era già sul tavolo dell’Unione Europea prima di questa emergenza; e a sollevarla era stata innanzi tutto proprio la Germania. Sia la cancelliera Angela Merkel che la neopresidente della Commissione Europea Ursula von der Leyen hanno più volte nell’ultimo anno fatto riferimento al concetto di “sovranità digitale”, inteso come la necessità di assicurarsi una autonomia nazionale nella fornitura dei servizi informatici di base (oltre che quella di assicurarsi la capacità di imporre regole alle grandi piattaforme globali e di far loro pagare le tasse localmente).

Lo scorso settembre, ha fatto molto rumore uno studio realizzato per conto del governo tedesco che sottolineava l’urgenza di rendere la Germania molto meno dipendente da software e prodotti di singole aziende americane – nel caso specifico, Microsoft. In particolare, osserva il report, i big globali offrono numerosi prodotti non standard e reciprocamente integrati, il che rende particolarmente difficile abbandonarli, e particolarmente facile per loro determinare i prezzi. Inoltre, le piattaforme inviano “a casa loro” tutta una serie di dati di telemetria in maniera piuttosto opaca, e non è quindi chiaro quali dati possano potenzialmente acquisire sui loro clienti ed utenti.

Ma è anche una questione di sicurezza nazionale: gli Stati Uniti hanno leggi che impongono a qualsiasi azienda di consegnare alle agenzie governative dati di interesse nazionale, anche di cittadini stranieri; anzi, i non americani sono meno protetti degli americani. Anche se alcuni player americani hanno cercato di aggirare il problema isolando il più possibile le controllate europee, il rischio è inevitabile.

In più, molte delle grandi piattaforme americane sono già o intendono entrare in settori, come l’automotive o il farmaceutico, in cui esistono tuttora importanti aziende italiane, che però consegnano senza grandi problemi a tali piattaforme la propria posta elettronica e i propri file, anche quelli del management e della ricerca e sviluppo: una indubbia dimostrazione di fiducia.

Privilegiare il software open source

Tra le proposte del rapporto tedesco, oltre a diversificare le scelte tra più fornitori, c’è quella di privilegiare il software open source. Promuovendo la collaborazione e facilitando gli adattamenti evolutivi, l’open source ben si adatta alla natura frammentata dell’Unione Europea; e in più, è possibile per ogni azienda acquisire le competenze per verificare che cosa il software faccia davvero con i suoi dati, e persino per rendersi indipendente dal fornitore che glielo ha offerto.

Eppure, ben di più è necessario; e quindi la Germania ha messo in atto varie iniziative, tra cui spicca il progetto GAIA-X, con cui intende creare un insieme di standard e interfacce per un cloud europeo, permettendo ai fornitori europei del settore di competere ad armi pari con i grandi americani, e alle aziende europee di non rimanere prigioniere di uno specifico vendor. Anche la Francia ha recentemente annunciato il sostegno al progetto.

In parallelo, a Bruxelles si parla ormai apertamente di una imminente regolamentazione delle piattaforme. Il cosiddetto Digital Services Act, revisione evolutiva dell’antica direttiva sull’e-commerce, dovrebbe prevedere diversi vincoli; a fianco della sempiterna e politicamente rilevante questione delle fake news sui social, il documento di analisi prodotto dalla Commissione cita apertamente l’opportunità di obbligare le grandi piattaforme a interoperare con i possibili concorrenti europei, tramite l’uso di interfacce e protocolli aperti.

Cosa questo vorrà dire in pratica, e come sarà implementato giuridicamente e tecnicamente, è ancora tutto da scoprire. E’ giunto però il momento che anche l’Italia si renda conto di quanto il tema della sovranità digitale sia strategicamente importante, e vi dedichi la dovuta attenzione.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3