“Italia a 1 GIGA”, così avremo tutti una rete a prova di futuro - Agenda Digitale

Pnrr

“Italia a 1 GIGA”, così avremo tutti una rete a prova di futuro

È ancora presto per fare le pulci al Piano Italia a 1 Gbps. Qualche considerazione però si può fare, partendo dalla realtà demografica del nostro paese, passando alla scelta della tecnologia che renda la rete a prova di futuro fino alle ricadute positive teoriche all’economia reale

09 Set 2021
Francesco Sacco

docente di management consulting all'Università Bocconi di Milano

È ancora presto per valutare compiutamente il Piano “Italia a 1 Gbps”. Sarà possibile soltanto dopo il 15 settembre quando, terminata la consultazione pubblica, il Governo avrà eventualmente recepito le osservazioni ricevute e ne trasmetterà a Bruxelles la versione definitiva. Ma, nel frattempo, lo scheletro dell’intervento è quello presentato e qualche osservazione potrebbe essere già fatta. Naturalmente, tenendo conto che nel Piano definitivo potrebbe essere superata nei fatti.

Prima di entrare nel merito, però, penso sia utile una premessa che permette di apprezzare le difficoltà che il piano messo a consultazione ha dovuto affrontare, quale sarà la sua reale portata per il nostro Paese ma anche di contestualizzare le considerazioni successive.

Le reti ultraveloci nel PNRR: le cinque leve su cui agire per chiudere il digital divide

La realtà demografica dell’Italia e la difficoltà di una copertura broadband al 100%

Fonte: nostre elaborazioni su dati Istat, 1 gennaio 2021

Se guardiamo all’Italia come a uno stivale proiettato nel Mediterraneo, abbiamo davanti l’immagine geografica, tradizionale e ben conosciuta, del nostro Paese. Ma se vogliamo capire la sua realtà demografica, dove e come vivono gli italiani in Italia e quanto è difficile raggiungerli tutti, è più utile il grafico sopra. Qualche dettaglio per spiegarlo, perché non è proprio di immediata comprensione. In Italia, all’inizio del 2021, c’erano 59,2 milioni di italiani distribuiti su 7903 comuni con una popolazione media di 7.498 abitanti. Una media molto bassa.

WHITEPAPER
HR e Formazione di qualità: come essere pronti? Scopri l'app Feedback4you!
Risorse Umane/Organizzazione
Smart working

Se prendiamo tutti i comuni italiani e li ordiniamo dal più piccolo al più grande, raggruppandoli per dimensione e sommandone la popolazione, otteniamo la distribuzione della popolazione italiana rappresentata dalla parte in alto nel grafico sopra. A colpo d’occhio possiamo notare subito alcuni dati sorprendenti. Nei 1.178 comuni con popolazione compresa tra 5.000 e 10.000 abitanti abitano 8,3 milioni di persone, molte di più dei 7,1 milioni che abitano nei 6 comuni con più di 500mila abitanti. In quelli con popolazione compresa tra 10mila e 15mila abitanti (472 comuni) abitano 5,7 milioni di abitanti, molti di più di quelli nelle città con un numero di abitanti compreso tra 250mila e 500mila abitanti che sono 1,8 milioni. In quelli con popolazione tra 20mila e 30mila abitanti (201 comuni) abitano 4,8 milioni di persone, poco più dei 4,7 milioni che abitano nei 32 centri con più di 100mila abitanti ma meno di 250mila. In poche parole, gli italiani vivono soprattutto nei piccoli centri. Quindi, chi vive nelle grandi città, come Roma o Milano, non rappresenta per nulla l’italiano medio. L’Italia vera è molto diversa. E molto difficile da raggiungere.

Se spostiamo l’attenzione alla parte in basso del grafico sopra, ne abbiamo una prova ulteriore. Qui la popolazione dei comuni italiani, sempre ordinati dal più piccolo al più grande, è rappresentata con lo stesso raggruppamento dimensionale. Ma la popolazione questa volta è cumulata, dai comuni più piccoli ai più grandi, fino a raggiungere il 100% della popolazione. Lo stesso è fatto per il numero totale dei comuni. Partendo da questo, possiamo subito notare che il 55% degli italiani abita nei comuni con meno di 30mila abitanti (che sono il 96% del totale dei comuni) e due terzi degli italiani in centri con meno di 50mila abitanti (il 98,2% dei comuni). Guardando alla distribuzione della popolazione dall’altra parte, quella dei comuni più grandi, invece si può notare che appena il 12% degli italiani abita in centri con più di 500mila abitanti e soltanto il 15% in centri con più di 100mila abitanti (lo 0,2% del totale dei comuni). Se si capisce questo, si capisce perché è così difficile – ma anche così importante – un Piano per portare la connessione a banda ultralarga al 100% degli italiani. Le difficoltà di raggiungere un numero così alto di comuni è enorme. Inoltre, non sempre gli utenti sono nei centri cittadini. Anzi, in genere, le famiglie più giovani, ma anche con più cultura informatica e con maggiore probabilità di essere clienti del Piano ultrabroadband, sono nelle periferie dei paesi o delle città, dove costano meno le case.

Incidentalmente, guardando la reale distribuzione della popolazione italiana nei piccoli centri, si intendono anche le ragioni delle diverse sorti elettorali di alcuni partiti più attenti di altri all’Italia dei piccoli centri, silenziosa ma orgogliosa, e meno a quella dei grandi centri, che fanno opinione ma non numero.

A map of the world Description automatically generated with low confidence
Fonte: European Space Agency

Detto ciò, viene spontaneo pensare agli altri paesi europei. Ma per capire quanto il nostro Paese sia diverso dagli altri, basta guardare una foto notturna dell’Europa dal satellite e osservare la distribuzione delle aree illuminate dalla presenza di case e centri abitati rispetto a quelle buie. L’Italia è quasi tutta luminosa, con enormi macchie illuminate. Sono catene di piccoli paesi intorno a grandi centri, dove le singole città sono quasi indistinguibili, alternate a una miriade di piccoli punti luminosi sparsi come polvere di stelle. Al contrario, in Francia, è chiaramente distinguibile Parigi, che da sola ospita il 19% della popolazione francese così come le sue principali città, punti ben visibili e distinti rispetto al loro circondario. Lo stesso vale per il Regno Unito con Londra (14% della popolazione inglese) e per la Spagna con Madrid (14%). Per confronto, Roma, includendo tutta l’area metropolitana, racchiude appena il 4% della popolazione italiana.

RAB o LRIC, quale sistema per una tenuta delle reti sul lungo periodo

Fatta questa premessa, proprio alla luce di quanto premesso, il primo appunto allo schema di intervento che emerge dalla consultazione pubblica riguarda l’espansione e i futuri upgrade di una rete così estesa ma anche fuori mercato, perché formata dalle aree in cui gli operatori di telecomunicazioni non ritengono redditizio investire. L’intervento del Piano traguarderà il 2026. Per allora, non è facile prevedere quanto ancora cresceranno le legittime esigenze di connettività. Basti pensare che il piano per la banda ultralarga del 2015 fu fatto con alcuni che pensavano che già 100 Mbps di banda in download fossero troppi, un’inutile esagerazione o un’offerta troppo prematura. Poi, è arrivato il lockdown e in tanti hanno capito quanto fosse stato un obiettivo appena lungimirante. Ma, in 5 anni il target che immagina la Commissione Europea per le reti ultrabroadband si è già spostato a un 1 Gbps in download. La tecnologia lo permette. Quindi, sarebbe anacronistico e, per certi versi sconsiderato, non approfittarne. Questo punto però ci deve fare riflettere sulla tenuta nel lungo periodo delle reti che andiamo a realizzare con questo Piano. Lo schema con cui saranno mantenute in efficienza nel tempo sembra in continuità con le attuali reti in rame. Quindi, si da implicitamente per scontato che l’Agcom utilizzerà il sistema LRIC (Long-Run Incremental Cost), ben conosciuto dagli operatori, per determinare i futuri prezzi all’ingrosso che gli operatori aggiudicatari dei vari lotti del Piano, necessariamente futuri monopolisti, dovranno usare. A parte che del sistema LRIC puro esistono molte varianti. Ad esempio, TSLRIC (Total Service LRIC), LRAIC (Average LRIC), LRAIC+ (LRAIC più il mark-up per costi congiunti e comuni).

La sua vera alternativa, il metodo RAB (Regulatory Asset Base), è quello più utilizzato nelle reti per l’energia, gas e acqua, tutte reti di servizio in monopolio, destinate a servire anche aree non redditizie in termini di mercato. A mio avviso, una volta definite le aree messe a gara, con un giusto tasso di ritorno dell’investimento, sarebbe il modo più indicato per affrontare le incognite nel futuro di queste reti tecnologiche e coprire le incertezze della loro evoluzione. Non è questo il luogo per discutere le differenze tra tutti questi metodi. Basti dire però che la scelta del metodo avrà un effetto su quella che sarà poi l’evoluzione nel lungo periodo delle reti che si vanno a incentivare. Sono tutte infrastrutture realizzate in aree in qualche modo a fallimento di mercato. Saranno tutte, per il futuro, soggette a monopoli naturali rispetto a chi, vincendo la gara per la realizzazione dell’infrastruttura, ne diventerà l’operatore incumbent. Saranno tutte soggette a un relativo rischio di indeterminazione per la parte realizzata in FWA (Fixed Wireless Access): quale percentuale sarà effettivamente servita da FWA? Come e se sarà possibile per gli utenti in FWA evolvere ed essere serviti da FTTH? Quanto sarà sostenibile nel futuro il FWA? Queste sono domande che non possono avere una risposta precisa. Quindi, andrebbe prevista una rete di protezione regolamentare che, in qualsiasi scenario possa dare agli utenti italiani una risposta certa, in termini di servizio, non la prospettiva di un incubo fatte di richieste continuamente rinnovate, in cerca di favori o di generosi investimenti.

Con questo Piano permettiamo all’Italia di avere una rete di eccezionale capillarità e qualità rispetto ad altri paesi. Facciamo allora in modo di pensarla bene, in modo che resti “eccezionale” e continui a migliorare nei prossimi cento anni. Il vantaggio competitivo che darà ai territori la banda ultralarga è molto maggiore di quello dato nel passato dalle telecomunicazioni, che però avevano dietro a realizzarle un’azienda statale e un servizio universale. Il futuro sarà molto più parcellizzato. Nessuno può dire chi si aggiudicherà le gare. Proprio per questo si deve riflettere con attenzione su come saranno gestiti gli aggiudicatari ed essere preparati a tutti gli scenari, creando già in fase di impostazione i giusti stimoli per avere poi i risultati attesi dalla collettività. Quindi, una riflessione approfondita andrebbe fatto su che tipo di infrastruttura vorremmo avere, non nel 2026, ma tra venti o trenta anni in quei territori oggi soggetti ad incentivo. Il tema andrebbe affrontato prima delle gare, in modo che gli operatori che vi parteciperanno possano valutare appieno le proprie prospettive di reddito. E questo è nell’interesse collettivo.

Edge computing, pensiamoci ora

Il dibattito non è affatto scontato. Ad esempio, e questo ci porta al secondo punto, già adesso sappiamo che le future reti di telecomunicazioni avranno bisogno di una rete di edge computing a corollario. Latenze basse nello streaming, nelle applicazioni più avanzate per la realtà aumentata ed immersiva, per il gaming e la collaborazione a distanza non saranno possibili senza.

Ma se una rete di telecomunicazioni è a fallimento di mercato, non lo sarà anche la sua rete edge? Quindi, non possiamo fare finta adesso di non sapere che poi nessuno sarà disposto a realizzarla. Allora, perché non risparmiare a milioni di italiani anni di sofferenza e frustrazioni con prestazioni subottimali? Pensiamoci subito. E ricordiamoci, come ho cercato di spiegare in premessa, che non parliamo di un piccolo pezzo del Paese.

Questi problemi si amplificano nei piccoli centri rispetto ai piatti numeri delle medie. Ma interessano tantissime persone in valore assoluto. Proprio per questo, andrebbe sin da ora pensata un’impostazione “future proof” delle telecomunicazioni, non solo delle reti. Anche perché, se il settore pubblico riesce ad essere trainante nell’impostazione in quelle aree del Paese in cui va a investire, potrà – di riflesso – poi influenzare anche quel che succede nelle aree a mercato e, più in generale, quale sarà l’uso che verrà fatto di quelle infrastrutture in Italia. In poche parole, si tratta di fare politica industriale, non mera incentivazione.

Edge computing e cloud, il confronto su privacy e rapidità di connessione

Throughput vs banda disponibile

Su questo filo, un elemento importante che manca dal discorso sul Piano che va maturando e che, invece, mi sarei aspettato di trovare, è il passaggio dal dibattito sulla banda disponibile al throughput garantito. Apparentemente, la differenza tra banda e throughput è una questione eminentemente tecnica. Dal punto di vista dell’utente, entrambe hanno a che fare con la velocità effettiva di una rete, il parametro più utilizzato per giudicare le prestazioni di una rete. La banda disponibile di una rete di telecomunicazioni è la misura teorica della quantità massima di dati che possono essere mandati o ricevuti in un determinato lasso di tempo (bit, megabit o gigabit per secondo). È come l’equivalente in autostrada del limite massimo di velocità, non della velocità effettiva, che è invece il throughput, la misura di quanti dati (o pacchetti di dati) sono arrivati a destinazione con successo. Quando gli utenti di telecomunicazioni cercano connessioni a banda più elevata, lo fanno perché in realtà sono interessati ad avere un throughput più elevato. Le due cose sono collegate. In genere, se aumenta la banda disponibile, aumenta anche il throughput. Ma, i colli di bottiglia nelle reti di telecomunicazioni (ad esempio, una rete di accesso in fibra collegata al resto di Internet con un collegamento di backhauling – la rete dalla centrale alla dorsale di Internet – insufficiente rispetto al traffico generato da tutti gli utenti collegati), un’elevata perdita di pacchetti di dati (dovuta, ad esempio, alla qualità delle reti), un’elevata latenza (la misura del tempo che impiega un pacchetto di dati a raggiungere un dispositivo della rete e tornare indietro) o un eccessivo jitter (la variazione del ritardo con cui i singoli pacchetti di dati vengono ricevuti) o reti molto frammentate possono rendere queste due misure significativamente distanti.

Se abbiamo a casa una connessione in fibra FTTH con 1 Gbps di banda in download, non possiamo pensare di avere scaricamenti di file a 1 Gbps. Nessuno si stupisce se i test di velocità danno 300 Mbps e non solo perché ci sono ben note tolleranze. Ma, se costantemente i test dessero 100 Mbps, ci sarebbe di che preoccuparsi. Certo, dipende anche da chi sta all’altro capo della rete, chi ci sta mandando il file che scarichiamo, la sua banda, il suo affollamento, il numero dei suoi utenti collegati, la sua ottimizzazione della banda disponibile e tanti altri fattori. Ma, per quanto il problema del throughput sia complicato e tecnico – e lo è davvero, ma ci si può fare poco – ciò non toglie nulla alla sua importanza. Anzi, proprio perché, da una parte, evolvono e si sofisticano le esigenze di chi usa Internet, mentre dall’altra crescono le prestazioni richieste alle reti di telecomunicazioni, la correlazione tra le due misure diventa sempre più importante e significativa. Proprio per questo, ragionando in prospettiva, un intervento pubblico dovrebbe mirare a spingere per fare un passaggio da un modo di vedere le prestazioni della rete un po’ semplicistico e, a tratti, ingannevole, a un modo di intenderle più vicino alle reali esigenze degli utenti.

Gli operatori di telecomunicazioni sono comprensibilmente riluttanti a fare questo passaggio. D’altronde, chi mai vorrebbe spingere per essere valutato e giudicato con la crudezza inappellabile di un numero? Le giustificazioni non mancano. Una misura di throughput, ad esempio, per rendere correttamente comparabili le misure deve essere fatta tra due punti scelti in modo significativo per tutti gli operatori. Ma, proprio per questo sarebbe bene che a impostare il problema fosse lo Stato, interessato ad un buon uso dei suoi investimenti. Quindi, prevedere sin da ora la possibilità di misure negli snodi di rete e nei punti di interconnessione principali di Internet in Italia, sarebbe fondamentale. Non costerebbe molto, ma sarebbe un enorme passo in avanti per il futuro delle reti di telecomunicazioni in Italia e la credibilità degli operatori delle nostre infrastrutture.

Un “Ultrabroadband Institute” e nuovi voucher

Infine, una questione in merito alla natura dell’intervento che si va a fare. Lo Stato e il PNRR investono risorse nel Piano perché si pensa ragionevolmente che impatti sulla competitività dell’Italia, a breve e lungo termine, con ricadute sulla crescita economica, il benessere delle persone, l’occupazione e lo sviluppo delle imprese. Queste ricadute, però, non sono una costante statistica o un effetto fisico che si verifica soltanto perché si investe nelle infrastrutture. Al contrario, sono molto variabili. Sono influenzate da molti elementi come, ad esempio, la qualità del territorio in cui si va a investire (cittadini, imprese e il loro relativo grado di cultura tecnologica), i servizi e le applicazioni a vario titolo disponibili per sfruttare l’infrastruttura, le possibilità offerte dalle normative in materia di sanità, formazione, lavoro a distanza, ecc.

Proprio per questo, se si vuole massimizzare il valore delle ricadute, non serve concentrarsi soltanto sulla fase di investimento. Occorre lavorare concretamente sul trasferimento delle ricadute positive teoriche all’economia reale. Ma, per fare questo, occorre un certo pragmatismo, che però ultimamente sembra inusualmente di moda in Italia. Partiamo dalla constatazione che gli operatori del mondo ICT, che anche sarebbero molto interessati in questo senso, sono da una parte molto timidi nei loro sforzi di alfabetizzazione informatica dell’Italia e dall’altra non sempre credibili, perché impossibilitati a prescindere dalle proprie offerte di servizi. Se, invece, si creasse un’entità di ricerca applicata, sulla scorta, per esempio, degli Istituti Fraunhofer tedeschi, neutrale e statale, un Ultrabroadband Institute, questo potrebbe forse aiutare. Se questo Ultrabroadband Institute avesse l’obiettivo di testare e mettere a punto soluzioni che sfruttano l’infrastruttura ultrabroadband a favore di famiglie, aziende e PA, potrebbe farlo con credibilità e in modo dedicato. Ciò potrebbe aiutare tantissimo ad aumentare l’adozione da parte del mercato dell’ultrabroadband ma anche a facilitare lo sviluppo e il successo di soluzioni innovative in sanità come nella gestione della casa, della collaborazione da remoto o dell’intrattenimento. Immagino un istituto che verifichi e combini le offerte delle aziende già nel settore, promuovendo l’imprenditorialità e l’innovazione dell’offerta, da una parte, ma permettendo, dall’altra, a chi fosse interessato anche di toccarle con mano e testarle come in un gigantesco showcase. Certamente, l’impatto di un tale istituto sarebbe notevole ma inferiore a quello di un nuovo e – magari – più semplice voucher per l’ultrabroadband. Ma sarebbe importante, in generale, discutere e integrare il Piano con elementi che ne accrescano l’impatto nella nostra società e nel nostro sistema produttivo.

Conclusioni

In conclusione, anche se per certi versi è ancora presto per fare le pulci al Piano del Governo, la finestra della consultazione pubblica andrebbe sfruttata non solo per approfondirne i dettagli tecnici, che sono importantissimi e indiscutibilmente impattanti. Ma anche per dare stimoli e integrarne l’impostazione. Da italiano, spero sinceramente siano tutti spunti e idee superati dai fatti. Magari, una volta tanto, anche in eccesso.

WHITEPAPER
Quali sono le prospettive del futuro per il lavoro agile?
Digital Transformation
Risorse Umane/Organizzazione
@RIPRODUZIONE RISERVATA

Articolo 1 di 4