Lo scenario

Internet frammentata, verso una nuova babele dei linguaggi?

I sistemi di codifica e il linguaggio anglosassone sono convenzioni: nell’era degli embarghi tecnologici, la tendenza è alla cyberbalcanizzazione, la frammentazione di Internet e dell’interoperabilità delle reti. Cosa è cambiato, come funzionano gli standard di codifica dei calcolatori, cosa aspettarsi nel prossimo futuro

08 Apr 2022
Antonio Cisternino

Università di Pisa

Prove di cyber-balcanizzazione, di una internet a blocchi separati? L’annuncio, poi smentito, di un distacco della Russia da Internet a partire dall’11 marzo scorso è un segnale delle tensioni che da tempo si susseguono nel cyberspazio, e che emergono sotto forma di conflitti come quello in corso in Ucraina.

Ad oggi, il conflitto nel cyberspazio è più contenuto di quanto ci si aspettasse: tuttavia, Anonymous ha già portato a segno attacchi nei confronti dei sistemi russi, come l’inserimento in streaming di filmati di guerra sulla TV di Stato, e dal canto loro i russi hanno sviluppato nuove varianti di worm e cryptolocker che aggrediscono sistemi in cui non è presente una tastiera cirillica.

Lentamente, si fanno strada sistemi di calcolo sempre più indipendenti dalle radici anglosassoni dell’informatica, introducendo barriere e difficoltà all’interoperabilità tra sistemi, che potrebbero portare nel prossimo futuro ad un cyberspazio molto più frammentato.

Isolamento tecnologico della Russia: le ripercussioni sulla tenuta dell’Internet globale

Cyberbalcanizzazione: c’era una volta lo standard unico

L’informatica e Internet hanno rappresentato per decenni una forza capace di unire popoli e nazioni, facilitando le comunicazioni e infrangendo barriere culturali e geografiche.

WEBINAR
Finance e cyber minacce: come proteggersi davvero e affrontare gli scenari di crisi

Lo sviluppo nel mondo anglosassone della computer science ha reso di fatto l’inglese e il relativo alfabeto la lingua franca dei computer, dominando largamente il mondo della programmazione e dei sistemi operativi.

La diffusione della rete negli anni ’90 ha progressivamente evidenziato, almeno nel mondo occidentale, le potenziali contraddizioni di una rete di comunicazione globale immediata.

Nello stesso tempo, ha esacerbato gli effetti negativi delle forme di censura introdotte con firewall capaci di filtrare le connessioni in ingresso ad un’intera nazione.

Gli anni ’90 hanno anche visto l’introduzione dell’internazionalizzazione nell’interfaccia dei sistemi operativi: sono stati introdotti set di caratteri che hanno consentito a differenti culture e popolazioni di interagire con le macchine utilizzando la propria lingua e i propri alfabeti, portando da 8 a 16 e addirittura anche più bit la rappresentazione binaria di un simbolo.

Nonostante l’apparente frammentazione delle interfacce grafiche, dovuta all’introduzione di lingue differenti, gli standard e le codifiche hanno comunque assicurato il trasferimento dei dati in un mondo senza particolari barriere, in cui i computer potevano interagire se autorizzati da opportuni filtri.

Quali sono le possibili scelte di codifica di un calcolatore

Ci sono migliaia di possibili scelte differenti nella realizzazione di un processore o di un altro apparato binario: i caratteri che leggiamo sullo schermo sono rappresentazioni grafiche associate a tabelle numeriche codificate da standard internazionali.

Ecco, quindi, che il carattere ‘A’ è la raffigurazione del carattere 64, in accordo alle codifiche ASCII e UTF, ma niente vieta di realizzare un sistema in cui lo stesso simbolo è invece associato al numero 13 o al numero 23.

Lo stesso si può dire delle codifiche interne ai processori, che in linea di principio potrebbero usare numeri di bit differenti dagli 8, 16 o 32 a cui siamo abituati.

In effetti, i processori Intel a 32 bit avevano in realtà indirizzi caratterizzati da 48 bit (16bit di segmento e 32 di offset), e anche processori più vecchi facevano uso di 20 bit invece di 16 per rappresentare informazioni al proprio interno.

Lo stesso si può dire dei formati di file, o della sintassi dei linguaggi di programmazione, ad oggi di derivazione anglosassone anche laddove non sia interamente necessario.

Quando mi sono iscritto all’Università, si studiavano ancora codifiche differenti tra sistemi: la codifica EBCDIC era contrapposta allo standard ASCII, la memorizzazione binaria dei numeri in formato little endian di Intel a quella in formato big endian di altri processori. Codifiche differenti che rendevano difficile l’interoperabilità.

La tradizione vuole che il costrutto di un linguaggio di programmazione come “if…then…else” non sia “tradotta” in “se…allora…altrimenti”, a meno che non si usi un programma con Excel.

Ma niente vieta che si possa realizzare un sistema operativo e tutto il software da esso dipendente secondo altre lingue e convenzioni.

Cyberbalcanizzazione: l’era degli embarghi tecnologici

L’interoperabilità e la necessità di scambiare dati hanno spinto da una parte gli utenti a cercare sistemi che semplificassero la condivisione di dati e di conoscenze e dall’altra i mercati a duopoli o poco più di sistemi operativi, processori e altri software.

L’open source ha poi contribuito alla diffusione di sistemi complessi, come il sistema operativo Linux, alla base di numerosi progetti e asse portante di Android, il sistema operativo mobile più diffuso.

Viviamo in un mondo in cui il funzionamento delle infrastrutture dipende sempre più spesso da sistemi automatici e dalla capacità di interazione attraverso le reti: i software hanno un valore strategico e commerciale, che li porta ad essere oggetto del dibattito politico internazionale.

L’embargo dei software americani in Cina ha ufficializzato il passaggio ad un’epoca di embarghi tecnologici, in cui si vieta l’accessibilità di una tecnologia alle aziende di un’altra nazione.

I colossi cinesi del settore ICT hanno quindi sviluppato propri sistemi operativi per assicurarsi un futuro: sono nati nuovi modi di sviluppare applicazioni e nuovi assistenti digitali, che hanno gradualmente cominciato a “frammentare” il mercato del software.

Il processo di omogeneizzazione, che ha caratterizzato l’informatica degli ultimi 40 anni con l’introduzione del personal computer, si è invertito.

L’annuncio, poi smentito, dell’isolamento della rete russa da Internet potrebbe segnare un nuovo capitolo in questo processo di disgregazione dell’unità che Internet ha saputo creare per così tanto tempo.

Una disgregazione trainata dallo sviluppo di software locali e sottoculture che inevitabilmente renderanno i software meno interoperabili e i design destinati a divergere con il tempo.

Cyberbalcanizzazione: cosa aspettarsi nel prossimo futuro

Le barriere che gli Stati stanno innalzando per proteggere i propri interessi sono destinate a contribuire ad una frammentazione dei sistemi informatici: sarà sempre più difficile decidere il software su cui puntare, e non si può escludere che si sviluppino interi ecosistemi basati su lingue e culture non occidentali e anglosassoni.

Almeno all’inizio, i sistemi saranno tutti radicati in codebase condivise e largamente basate su Linux, nel caso di sistemi operativi, ma con il passare del tempo i sistemi evolveranno con convenzioni e assunzioni differenti: si romperà l’integrità che oggi tutti diamo per scontata.

Resterà la necessità di interagire, ma i nuovi design basati su REST API e microservizi consentono facilmente di individuare sottoinsiemi di software e sistemi dedicati all’interazione col resto del mondo e di preservare al proprio interno software potenzialmente differenti.

Questo scenario di frammentazione è più facile che si verifichi in contesti in cui il software è disegnato per un’interazione macchina-macchina piuttosto che uomo-macchina: le macchine si possono adattare più facilmente a stili diversi e una non completa equivalenza può contribuire a contrastare attacchi massicci nell’era della cyberwarfare.

Se la frammentazione dei software sembra in parte inevitabile in un assetto globale in cui gli attriti tra nazioni e blocchi contrapposti si acuiscono, va però anche sottolineato che alcuni software richiedono milioni (o miliardi) di utenti per poter essere sviluppati e manutenuti a causa della loro complessità.

Sembra quindi lecito attendersi, da una parte, un movimento di disgregazione del mondo informatico che conosciamo, e dall’altra una pulsione ad attrarre sempre più utenti, per poter sviluppare sistemi che apprendono e possano contare su un’ampia platea di utilizzo. E che attraverso l’utilizzo assicuri stabilità e investimenti ad una specifica piattaforma.

La guerra, purtroppo, non trasformerà solo la nostra realtà, ma anche il cyberspazio, infrangendo in modo irreparabile quel meraviglioso senso di prateria che chi ha inebriato chi come me ha avuto la fortuna di assistere alla diffusione di Internet.

WHITEPAPER
Cosa serve per risparmiare davvero sull’energia? L’IoT da solo non basta!
@RIPRODUZIONE RISERVATA

Articolo 1 di 4