La crittografia, tra cypherpunk e malware di Stato: rischi, paradossi e possibili soluzioni - Agenda Digitale

Going Dark

La crittografia, tra cypherpunk e malware di Stato: rischi, paradossi e possibili soluzioni

La crittografia ci consente di usare la rete così come la utilizziamo oggi, ma gli strumenti crittografici sono complessi da usare in modo corretto e spesso sono usati come una porta blindata in una parete di cartone. I dilemmi e i problemi di chi deve garantire la nostra sicurezza nel mondo digitale e le norme necessarie

14 Set 2021
Alberto Berretti

Dipartimento di Ingegneria Civile ed Ingegneria Informatica, Università di Tor Vergata

L’utilizzo della crittografia non solo è impossibile da vietare o da regolamentare per motivi estremamente semplici (su cui ci soffermeremo di seguito), ma è anche essenziale per difendere i nostri acquisti online, per garantire che l’accesso al nostro servizio di home banking via Internet sia sicuro, per assicurarci che ogni volta che ci colleghiamo ad un certo sito stiamo collegandoci effettivamente a quel sito e non ad una replica messa su da un impostore ad es. per impadronirsi delle nostre password. In altri termini, che ci piaccia o meno, la crittografia è quello che rende possibile utilizzare la rete così come la utilizziamo correntemente. Di questo fatto praticamente tutti, oramai, sono convinti: la forza dell’economia che gira intorno alla rete lo ha già deciso in modo irreversibile.

Il problema sono i dettagli, come al solito. Venticinque anni fa era il timore che la crittografia potesse essere utilizzata in linea di principio da organizzazioni criminali a preoccupare il law enforcement. Oggi non è più questo, che è dato per scontato, ma il problema è diventato piuttosto l’utilizzo universale e pervasivo in qualsiasi forma di comunicazione online della crittografia.

Captatore informatico, le norme partono a luglio 2020: ecco gli impatti

Da sviscerare e risolvere, ci sono tante questioni, di vari ordini di grandezza, che si pongono tra il sogno crittoanarchico dei cypherpunk e un utilizzo sempre più diffuso dei cosiddetti malware di Stato.

Ma partiamo dal Panopticon.

All’inizio fu il Panopticon

Nel 1778 il filosofo e giurista inglese Jeremy Bentham ideò il Panopticon, l’edificio definitivo da utilizzare come prigione: una costruzione radiale, in cui da una torre centrale si può osservare ogni singola cella senza che il detenuto sia in grado di sapere se è effettivamente sorvegliato o no. In questo modo una singola guardia può tenere sotto controllo un gran numero di detenuti, perché questi, non sapendo se sono sotto sorveglianza o meno, si comportano come se lo fossero sempre.

WHITEPAPER
Perché impostare una strategia di manutenzione dei server?
Datacenter
Sicurezza

Sull’importanza storica – enorme – delle idee di Bentham non è qui il caso di dilungarsi, visto che l’argomento ci porterebbe decisamente fuori tema. Ricordiamo solo come il filosofo francese M. Foucault nel suo libro Sorvegliare e Punire pone esattamente l’idea di Bentham all’origine della concezione moderna del Potere come strumento di dominio piuttosto che di sovranità.

Il Panopticon benthamiano, come idea architettonica, non ha avuto concretamente successo. Il punto centrale dell’idea di Bentham è che il sorvegliante non deve essere visibile, e l’implementazione concreta di questa idea con le tecnologie dell’epoca sarebbe stata troppo difficile e costosa; oggi invece le moderne tecnologie di videosorveglianza rendono inutile la struttura architettonica del Panopticon.

L’idea di Bentham è però, perlomeno per taluni, una formidabile metafora di come nel mondo digitalizzato, caratterizzato dalla pervasività degli strumenti informatici collegati in rete, ogni nostra azione, ogni nostro movimento, financo ogni nostro desiderio sia intercettato, catalogato, “mappato”, utilizzato ai fini più vari dal marketing, controllato dai governi.

Ma è davvero Panopticon?

Parallelamente a questa visione dickiana – il riferimento ovviamente è al grande scrittore di fantascienza americano Philip K. Dick, e soprattutto a quei suoi romanzi maggiormente pervasi da una visione distopica del futuro, come ad esempio Valis – che potremmo quasi definire paranoica della modernità digitale, ve ne è un’altra, apparentemente opposta. Quella secondo la quale, grazie all’utilizzo pervasivo di tecnologie crittografiche, si creerebbe una zona oscura, un vero e proprio buco nero dell’informazione in cui nessun dato può essere tracciato, nessun messaggio può essere ricondotto ad un autore specifico, in cui dunque si realizza il sogno crittoanarchico dei cypherpunk.

Il movimento dei cypherpunk

Il movimento dei cypherpunk non è mai stato assolutamente nulla di organizzato e a rigore non si può nemmeno parlare di “movimento”. Persone di estrazione, ruolo e visione politica estremamente diversa vengono spesso associate a questo nome: in realtà si tratta semplicemente di una mailing list, oggi peraltro praticamente morta, in cui venivano discusse tematiche relative all’utilizzo della crittografia e alle sue conseguenze politiche. Intorno a questa mailing list però nasce un punto di vista, una ideologia, che si è manifestata in forme più o meno estreme. Secondo questa filosofia, la privacy, insieme agli altri diritti nel mondo digitale, non deve essere garantita dal diritto, ma come ebbe a dire John Gilmore, tali diritti devono essere tutelati «dalla fisica e dalla matematica, non dalla legge». In altri termini, alla base dell’ideologia cypherpunk vi è il concetto che a gestire diritti e doveri nel mondo digitale non deve essere più uno strumento che emana dalla volontà popolare espressa in un regime democratico, come lo strumento legale, ma uno strumento informatico, il cui funzionamento è garantito da teoremi matematici e leggi fisiche, quindi molto più cogente delle leggi umane. L’algoritmo, con la sua oggettività, al posto della legge.

Si tratta di una ideologia che pervade, consciamente o meno, in misura più o meno grande, buona parte del mondo dei cosiddetti esperti, che si innamorano facilmente delle loro creazioni ed hanno un bias naturale a sopravvalutarle. Un po’ come se il mondo digitale fosse un mondo a parte, in cui le regole, le leggi, le convenzioni del mondo “normale” non fossero valide. Si tratta di una ideologia non solo e non tanto sbagliata, quanto pericolosa. Questo per svariate ragioni.

Innanzitutto, si sopravvaluta la capacità degli algoritmi di garantire quello che promettono di fare. La legge dice che entrare senza essere autorizzati e senza il mandato di un giudice in casa mia è vietato – si tratta di violazione di domicilio – indipendentemente dal fatto che io abbia o meno delle porte blindate o delle serrature particolari: la violazione di domicilio sussiste anche se lascio la porta aperta. Sussiste, tra l’altro, anche se non posso permettermi una serratura di sicurezza di ultimo modello ed un impianto antintrusione ad alta tecnologia.

L’algoritmo è in grado di tutelarmi in pari grado? Possiamo anche ammettere che il teorema sia esatto, e che l’algoritmo che su di esso si basa sia corretto, ma che dire della sua implementazione? È sufficiente avere a disposizione il codice sorgente di un software per aver fiducia – trust – nel suo corretto funzionamento? Siamo sicuri di essere in grado di valutarlo ed analizzarlo?

Inoltre, a chi ci stiamo affidando se decidiamo di affidare la tutela dei nostri diritti a qualche strumento informatico? È errato pensare che ci stiamo affidando alla matematica ed alla fisica: ci stiamo in realtà affidando a delle società private che producono materiale informatico (hardware e software) a scopo di profitto, e ad un prezzo. Nota bene: non c’è assolutamente niente di male a produrre hardware e software a scopo di profitto, e ad un prezzo, tutt’altro. Ma è una attività che è portatrice di interessi precisi, e questi interessi non sono i diritti di tutti, ma il portafoglio degli azionisti – come peraltro è giusto che sia.

Armi e crittografia: quale nesso?

Riecheggia, in queste posizioni, la medesima logica dei sostenitori del RKBF, il Right to Keep and Bear Firearms, il mal compreso ed equivocato articolo del Bill of Rights americano che garantirebbe a qualsiasi cittadino USA il diritto a girare armato per difendere la propria libertà: un’idea cara alla destra americana più estrema. In modo perfettamente analogo ai cypherpunk, gli ideologi del diritto a girare armati non vogliono che la loro libertà sia tutelata da norme e leggi, che sono peraltro frutto di un lavoro legislativo che è l’essenza della democrazia, ma vogliono tutelare con le loro mani i loro diritti e la loro libertà armandosi. Sappiamo, purtroppo, come va a finire. Qui invece si rifiuta lo strumento legale come tutela dei propri diritti nel mondo digitale e si chiede che questi siano tutelati da oggetti tecnologici: nelle frange più estreme del movimento, si arriva a mettere in questione addirittura la necessità delle strutture statali, teorizzando una società crittoanarchica priva di leggi, di valuta e banche centrali (sostituite dalle crittovalute). Si dimentica che lo strumento informatico è opaco, che una discreta dose di fiducia in esso è necessaria per il suo utilizzo efficace, che qualcuno, portatore di interessi economici peraltro assolutamente legittimi, deve produrre questi strumenti informatici, che questi ultimi potrebbero essere difettosi o non essere alla portata di tutti.

Se l’ideologia cypherpunk, in misura diversa nelle sue varie articolazioni, brandisce la crittografia come un’arma potentissima in grado di sconvolgere la società, e vede questo come un fatto positivo, parallelamente la stessa identica visione da arma fine-di-mondo dello strumento crittografico da parte del law enforcement è causa di panico. Se prima bastava un mandato per leggere messaggi ed ascoltare chiamate, ora non più: le comunicazioni sono diventate oscure: Going Dark è il termine che caratterizza questa nuova situazione. Si assiste alla replica del dibattito che infiammò i primi anni ’90, quando Internet iniziò a diffondersi a livello di massa, quando i primi programmi per la cifratura dei messaggi con tecnologie crittografiche serie iniziarono ad apparire (come il famoso PGP), quando una norma in vigore negli Stati Uniti permetteva l’esportazione di software contenente algoritmi crittografici solo se le chiavi fossero più corte di 40 bit (e cioè con un livello di sicurezza talmente basso da essere ridicolo).

Occorre subito sgomberare il campo da qualsiasi fraintendimento e chiarire un punto elementare ma essenziale: è assolutamente impossibile richiudere il genio dentro la lampada. La crittografia si riduce, in ultima analisi, a un insieme di nozioni e teoremi matematici che vengono utilizzati all’interno di algoritmi, che si traducono in codice sorgente che a sua volta viene trasformato in software eseguito da utenti finali mediante una procedura tecnica detta compilazione (in genere). Nessuna persona sana di mente può pensare di impedire che vengano dimostrati certi teoremi o di impedire che tali teoremi vengano tradotti in algoritmi, o di impedire che venga scritto del codice sorgente a partire da tali algoritmi, o infine di impedire che certo codice sorgente venga compilato e trasformato in codice eseguibile, in software. Tutto ciò rimanendo in un contesto politico-sociale democratico.

I casi high profile

Questo sarebbe già di per sé sufficiente per farla finita qui, ma ovviamente c’è dell’altro.

Tutti noi conosciamo alcuni casi high profile, come il famoso caso dell’iPhone dell’attentatore di S. Bernardino, CA, nel dicembre 2015: Apple si rifiutò di aiutare l’FBI all’operazione di decifrazione del telefono, aprendo un caso che stava per andare alla Corte Suprema, se non fosse successo che l’FBI fosse riuscita ad aggirare le protezioni mediante un software offensivo (v. infra) giusto in tempo. Ma non ci sono solo questi casi: anche quando una donna di 29 anni nel 2014 fu trovata uccisa in casa sua a Baton Rouge, Louisiana la Apple si rifiutò di collaborare alla decifrazione dell’iPhone della donna, che potrebbe contenere tracce preziose (In Brittney Mills murder case, encryption practices keep frustrated investigators from getting crucial cellphone data, Aug 1st 2015, The Advocate; il caso è ancora irrisolto).

Dell’utilizzo di strumenti crittografici da parte del terrorismo fondamentalista ne ho già parlato qui qualche tempo fa (Come i terroristi usano la crittografia, ecco cosa sappiamo).

La complessità dello strumento crittografico

In realtà gli strumenti crittografici sono complessi da usare in modo corretto. La storia è piena dei loro fallimenti più o meno clamorosi, fallimenti dovuti in genere ai seguenti fatti, che sono piuttosto elementari se ci pensiamo bene:

  • Chi attacca un sistema attacca il suo componente più debole
  • Tipicamente è sufficiente che un solo anello della catena del sistema di sicurezza si rompa per rompere tutto il sistema
  • Molto raramente l’anello più debole è quello costituito dagli strumenti crittografici.

Quest’ultimo punto dovrebbe essere un punto d’orgoglio per i professionisti della crittografia: la loro disciplina è diventata così avanzata da poter creare algoritmi e protocolli così sofisticati da essere imbattibili, e pertanto l’attenzione di chi attacca si rivolge verso gli altri elementi della catena.

In altri termini, lo strumento crittografico è oggi molto spesso utilizzato come una porta blindata inserita in una parete di cartone. L’attenzione di chi sta in posizione difensiva è concentrata tutta sulla porta, che in effetti è robustissima, ma chi sta in posizione d’attacco mira alla parete e la porta blindata nemmeno la tocca. In questo senso, l’enfasi sulla crittografia, sia come soluzione che come problema, è molto probabilmente esagerata.

Basti pensare al cosiddetto dark web e alla rete TOR: apparentemente comunicazioni intracciabili, anonimità garantita da crittografia seria, originariamente ideato dai militari e finito in mano a fondamentalisti della privacy come in una narrazione cyberpunk, ed ogni volta che il crimine organizzato tenta di usarlo per lo spaccio di droghe illegali, per la vendita di armi o di servizi criminali, per la pedopornografia, sistematicamente finiscono tracciati dall’FBI e in carcere. Senza, ovviamente, aver rotto la crittografia in alcun modo, ma tipicamente girandoci attorno sfruttando qualche bug – più o meno sempre presente da qualche parte – dell’applicazione, o addirittura grazie al comportamento disattento degli operatori – chiedere a Dread Pirate Roberts, l’operatore di Silk Road, il dark market che ha operato per qualche anno sul dark web vendendo droga e che ora sta scontando il carcere a vita.

Se ci discostiamo dalle due narrazioni, che, come tali, fraintendono una realtà più complessa, ci troviamo comunque davanti ad un dilemma serio.

Da una parte abbiamo tecnologie che sono fondamentali per garantire la sicurezza delle comunicazioni in rete – e detto così sono poche parole, ma dietro queste poche parole c’è un mondo di cose e svariati mestieri – e di cui, oramai, non ci si può privare, anche in linea di principio (code is speech etc.). Dall’altra proviamo a metterci nei panni di chi deve garantire la nostra sicurezza fisica ed ha bisogno, in caso di incidenti, di vedere dentro quest’area scura di comunicazioni (apparentemente) dark: difficilmente possiamo ammettere che anche chi usa una chat on line per pianificare un attentato ne ha il diritto.

Le soluzioni superficiali a tale dilemma sono chiaramente inadeguate.

Come abbiamo già detto, l’idea di vietare o anche solo regolamentare la crittografia limitandone l’uso non è tanto sbagliata quanto priva di senso: nessuno può impedirmi di compilarmi da solo il codice che voglio. Pensate che quando il governo USA vietava l’esportazione del software PGP il codice, stampato, veniva esportato in forma di libro cartaceo, arrivato in Europa veniva scannerizzato, veniva fatta l’OCR, corretto per eventuali errori di riconoscimento dei caratteri, e ricompilato dando origine alla versione international di PGP, PGPi: ecco che fine fanno i divieti in questo campo.

L’idea di obbligare i produttori di software ad introdurre backdoor per la intercettazione legittima delle comunicazioni da parte delle autorità di ordine pubblico ugualmente non sta in piedi per una quantità di ragioni di ordine pratico. Innanzitutto, pensare di obbligare qualcuno ad usare il software X piuttosto che la versione moddata Y che si scarica da un altro sito è puro whishful thinking: come se non bastassero tutte le mod di Spotify o di Youtube che ci stanno in giro per sentire musica gratis o vedere filmati senza pubblicità; da questo punto di vista torniamo al punto precedente, code is speech, il codice è “parola” nel senso più ampio del termine, una parola che si esprime in bit e si imprime su un supporto informatico invece che sulla carta ma è la stessa cosa. Inoltre, qualsiasi malintenzionato con un minimo di capacità tecnica potrebbe molto facilmente abusare delle backdoor inserite per violare la privacy di tutti gli utenti della rete. L’idea è indubbiamente pessima.

E così arriviamo all’attualità. Cosa resta? Resta la possibilità di sviluppare capacità offensive, e cioè la capacità di sfruttare quello che c’è in qualsiasi sistema informatico di una qualche complessità progettato con dei vincoli economici: bachi, errori, scorciatoie prese qua e là per semplificare il codice, errori operativi degli utenti, qualsiasi cosa che si interponga fra il codice in questione e l’utente. Un lavoro complesso e difficile, meglio demandato ad aziende esterne al governo che sviluppano exploit (e cioè che trovano il modo di sfruttare eventuali falle nel software) e li ingegnerizzano in prodotti relativamente semplici da usare che vengono venduti al law enforcement. Ecco, dunque, che nascono aziende come l’NSO Group e software come Pegasus.

L’idea sembra estremamente ragionevole, in realtà il problema è molto più complesso di quanto sembra. Il problema non è, a giudizio di chi scrive, lo strumento di hacking scritto occasionalmente come ausilio all’analisi forensica di un oggetto digitale, né al malware di alto livello scritto per conto dei servizi segreti di qualche paese per scopi militari o di spionaggio tra stati. Siamo ben dentro il XXI secolo ed il digitale è diventato inevitabilmente terreno di scontro come altri, non c’è da stupirsi e fare le verginelle.

Peraltro, ha ben poco senso prendersela con aziende come NSO Group per il fatto che ingegnerizzano exploit in prodotti software offensivi. Se è legittimo scrivere software, qualunque software, se invochiamo code is speech per il software crittografico, dobbiamo farlo anche per quello offensivo. Se vietiamo ai good guys di usare questi strumenti, i bad guys li useranno, senza farsene alcun problema.

I paradossi del malware di Stato

Il punto è che chi maneggia questi strumenti di offensive computing dovrebbe avere la consapevolezza che sta maneggiando oggetti molto pericolosi, e comportarsi dunque di conseguenza. Cosa che purtroppo spesso non accade. Il rischio è il diffondersi di un malware di Stato utilizzato di routine nelle indagini al di fuori di qualsiasi controllo e di qualsiasi limite: un’arma che diventa al tempo stesso pericolosissima e spuntata. Cerchiamo di spiegare quest’altro paradosso.

Se devo scrivere un malware per effettuare un sabotaggio industriale in un paese nemico, o una operazione di spionaggio di alto livello, utilizzo sicuramente vulnerabilità cosiddette 0-day (cioè precedentemente sconosciute), che hanno un costo piuttosto elevato. Questo allo scopo di non essere rivelato immediatamente dai sistemi di sicurezza degli obiettivi dell’attacco. Uno strumento del genere verrà probabilmente utilizzato una volta sola, per una singola operazione di alto profilo e con un elevato ritorno che giustifica un investimento non banale nello sviluppo di un tool sostanzialmente usa-e-getta. Esempio da manuale: Stuxnet. Si tratta di una applicazione ragionevole e sensata dell’offensive computing. Non mi preoccupo se il mio malware verrà studiato, analizzato, e le sue tracce inserite in tutti i principali antivirus: quando verrà individuato l’operazione sarà già conclusa, i suoi scopi – probabilmente – raggiunti, e quindi la divulgazione delle vulnerabilità utilizzate ed il suo inserimento nelle basi dati degli antivirus non è un problema.

Il discorso diventa molto diverso, e molto più delicato, se si desidera realizzare un vero e proprio malware di Stato destinato all’utilizzo sistematico da parte di una procura qualsiasi. Qui i problemi – tutti molto grossi – sono i seguenti:

  • Il malware viene tipicamente scritto da un’azienda privata specializzata. Accanto al mercato nero, illegale degli exploit e degli 0-day è nato dunque un mercato legale, in cui gli ingredienti fondamentali per la preparazione di un malware vengono venduti apertamente, in genere ad agenzie statali o a società che lavorano per esse. Ma il problema sono proprio queste aziende che producono e sviluppano malware a scopo dichiaratamente legale.
  • Quali garanzie tale azienda può dare circa la sua clientela? Tipicamente una azienda simile vorrà estendere il suo mercato il più possibile: e dunque non solo le forze dell’ordine, ma anche privati o, perché no, realtà pubbliche e private estere. E in quest’ultimo caso si toccano dei tasti estremamente delicati: si rischia da una parte di fornire strumenti di intelligence a governi stranieri, attività che dovrebbe essere pesantemente controllata, e dall’altra di sostenere, con tali strumenti, governi che potrebbero perseguire politiche antidemocratiche o comunque anche solo semplicemente contrarie agli interessi nazionali. Ecco, dunque, che il disastro della vicenda Pegasus non risulta essere niente di nuovo, ma qualcosa di assolutamente prevedibile, e praticamente scontato. Nel nostro piccolo, abbiamo avuto vicende analoghe, venate da sfumature picaresche come solo noi italiani sappiamo fare.
  • È inevitabile chiedersi come si debba comportare un’azienda che produce sistemi di sicurezza, in particolare software antivirus, rispetto al malware di Stato. Per ora ce lo chiediamo noi, che contiamo poco: il problema nascerà quando se lo chiederà il legislatore, magari in seguito ad una qualche emergenza nazionale. In altri termini, se il malware utilizzato dalle forze dell’ordine è noto (e sembra inevitabile che prima o poi, più prima che poi, lo diventi), le aziende che producono gli antivirus lo inseriranno o meno nel database del malware utilizzato per la rivelazione di un’infezione? Se lo fanno, stanno implicitamente boicottando l’attività delle forze dell’ordine, se non lo fanno, stanno vendendo un prodotto volutamente limitato ed inferiore ai propri clienti. Ma ancora peggio, se vengono costrette, magari mediante una apposita norma, a non includere tale malware tra quelli segnalati dall’antivirus, ci troveremmo in una situazione in cui scrivere del codice diventa illegale: pressocché il peggiore dei mondi possibili.
  • Infine, ed è un problema tutto italiano, ci si può chiedere in che mani finiscano non solo strumenti del genere, ma anche e soprattutto i dati da essi ricavati, in un paese in cui troppo spesso non si riesce a tener sotto controllo una qualsiasi intercettazione telefonica o ambientale.

Conclusioni

La risposta a questi problemi non può che essere l’emanazione di apposite norme che limitano l’utilizzo di tale software (quelli che in Italia vengono chiamati captatori informatici, espressione francamente orripilante che ci rifiutiamo di usare) da parte del law enforcement. In Italia sono state varate nel 2019 norme che regolamentano l’uso di tali strumenti, in un modo, secondo l’opinione di chi scrive, anche troppo permissivo.

Si noti bene, queste norme ne limitano l’uso da parte dei buoni, e cioè in particolare dell’autorità pubblica. Se poi le aziende che li sviluppano li vendono a terzi, sia pure per fini apparentemente legittimi, magari all’estero, il discorso cambia completamente e tra il bianco ed il nero appaiono moltissime aree grigie in cui è difficile prendere posizioni precise.

WEBINAR
18 Novembre 2021 - 15:00
PNRR: Cybersecurity e innovazione digitale (sicura).
Sicurezza
Cybersecurity
@RIPRODUZIONE RISERVATA

Articolo 1 di 4