Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

Privacy

Norme digitali, politica e diritto sono prigionieri del marketing

di Andrea Monti, Alcei

08 Nov 2016

8 novembre 2016

I problemi giuridici sono sempre gli stessi e molte innovazioni comparse sono soltanto degli slogan pubblicitari che fanno da maquillage a prodotti/servizi tutt’altro che innovativi o resi semplicemente più fruibili dagli utenti. Ma i rappresentanti delle istituzioni non se ne sono resi conto e hanno reagito con un riflesso degno dei cani di Pavlov. Rinunciando così a difendere davvero gli utenti

Da quando (più o meno dalla metà degli anni ’90 del secolo scorso) reti e computer sono usciti dai circoli ristretti degli appassionati e hanno catturato l’attenzione di media e istituzioni si è avviato un processo di iper-normazione basato sul presupposto di una asserita “novità” dei problemi posti dalle “nuove tecnologie”.

In realtà i “problemi” giuridici sono sempre gli stessi e molte “innovazioni” comparse – e subito sparite – sul mercato sono soltanto degli slogan pubblicitari che fanno da maquillage a prodotti/servizi tutt’altro che innovativi o resi semplicemente più fruibili dagli utenti. Ma i rappresentanti delle istituzioni non se ne sono resi conto e hanno reagito con un riflesso degno dei cani di Pavlov. Invece di cercare di capire, hanno supinamente accettato quello che il marketing tecnologico proponeva come la (ennesima) rivoluzione del millenio e quello che i mezzi di informazioni presentavano come l’apocalisse prossima ventura fatta di pirati, terroristi e pervertiti. E hanno prodotto un groviglio di scelte politiche, norme e sentenze che hanno bloccato lo sviluppo del Paese.

Questo è stato possibile grazie alla arretratezza culturale dei nostri decision e opinion maker caduti nelle grinfie dei creatori della “Internet Bubble”, la colossale speculazione economica che ha letteralmente bruciato miliardi in nome di un ideale distopico di progresso che ha radicato nell’inconscio collettivo una serie di concetti – virtuale, ciberspazio e via discorrendo – che vanno dall’impreciso al palesemente sbagliato e che, però, sono diventati “verità”. Verità sulla base della quale costruire – o meglio, ingabbiare – il nostro futuro.

In nome di questa confusione semantica e conoscitiva, abbiamo dunque assistito nel corso del tempo all’emanazione di norme come quelle in materia di diritto d’autore, protezione dei dati personali, “protezione” dei minori e via discorrendo, tutte accomunate dalla criminalizzazione del mezzo tecnologico invece che – come dovrebbe essere – delle conseguenze dannose o pericolose di un comportamento umano. In altri termini, quanto accaduto con la rete equivale a sanzionare l’automobile e non il conducente che non rispettando le regole del codice della strada ha provocato un incidente. Il “per via telematica” – o come si dice ora “via social” – che  definisce l’aggravante specifica dei reati informatici, la qualificazione del trattamento di dati come “attività pericolosa” al pari di quella di gestione delle centrali nucleari operata dal Codice dei dati personali (e prima dalla Legge 675/96) sono solo alcuni degli esempi sotto gli occhi di tutti. La conseguenza di queste premesse è (stata) la condanna dell’Italia a inseguire le innovazioni decise in altri luoghi, invece di anticiparle e governarle.

Per capire come si è arrivati a questa condizione – che temo irreversibile – è opportuno partire dal significato proprio delle buzzword utilizzate dagli “esperti” di rete per poi scoprire come la progressiva sostituzione di significato si è tradotta in regole sbagliate.

Come tanti che usano la parola in questione ignorano, il ciberspazio è un’invenzione letteraria dello scrittore William Gibson che nel racconto Neuromancer, pubblicato nel 1984, teorizza l’esistenza di una Matrix – uno spazio elettronico al quale si accede tramite caschi che si collegano a server, e nel quale è possibile compiere azioni di vario tipo, omicidio incluso. Anche l’uso del cervello come “mondo autonomo” o “realtà separata” è un tema caro a scrittori e cineasti: e il riferimento non può che essere al racconto di Philip K. Dick We Can Remember It for You Wholesale pubblicato nel 1966 e trasposto cinematograficamente nel film Total Recall e a Strange Days il film del 1995 di Kathryn Bigelow, che aveva come protagonista una droga tecnologica consistente in un registratore di esperienze estreme che venivano memorizzate direttamente dal cervello di chi le stava provando e poi ritrasferite in quello dei “tossici emotivi”.

E’ stato chiaro da sempre che il ciberspazio, perfettamente compatibile con la nozione di esperienza soggettiva e psicologica, non esisteva dal punto di vista fisico. Ma questo non ha impedito che informazione, politica, economia e diritto prendessero sul serio questa invenzione letteraria. Non c’è niente di virtuale nel cancellare dati da un computer, nello svuotare un conto in banca, nel sottrarre informazioni e in tutto quello che, oramai per luogo comune, si associa al “crimine virtuale”. Ma scelte economiche, politiche, legislative e giudiziarie sono sempre più spesso basate – letteralmente – su qualcosa che non esiste (virtuale, appunto).

Leggo che ora siamo arrivati a “industry 4.0” per indicare l’ennesima iterazione di una rivoluzione industriale che si è verificata solo nella progressione dei numeri cardinali, dimenticando chi ha avuto l’idea di utilizzare il sistema di numerazione delle versioni software per indicare una newsletter: la giornalista Esther Dyson che nel 1983 cominciò a diffondere la rubrica “Release 1.0”. In termini di pura (cattiva)comunicazione, il titolo innovativo per l’epoca di una rubrica giornalistica è diventato sinonimo di innovazione e cambiamento, ma in realtà scorciatoia semantica per annunciare un futuro imprenditoriale che non diventerà mai presente.

Un altro concetto tanto vacuo quanto evocativamente potente da far invidia a  Gabriele d’Annunzio è quello di “cloud“. Tecnicamente si tratta soltanto di un FTP più complicato, di un sistema di calcolo distribuito o di gestione dinamica di risorse (dallo spazio disco, alla potenza del processore, alle applicazioni disponibili). Tecnologia utile, per carità, ma non certo così nuova da porre problemi giuridici e regolamentari mai affrontati prima. Immancabilimente, però, sono arrivati gli allarmi di chi sente minacciata la privacy, la sicurezza e i destini dell’universo da queste “nuove tecnologie”. Come un tradizionalissimo telnet, i servizi “cloud” sono accessibili tramite username e password ed è sempre possibile sapere a cosa ci si sta collegando. E allora, per dirla con Miles Davis: So What? Eppure progetti come Second Life  (chi se lo ricorda?) per qualche tempo hanno assorbito (e sprecato) una enorme quantità di risorse finanziarie e umane.

La coazione a prendere sul serio letteratura e cinema si sta manifestando recentemente in due campi: quello della cosiddetta “intelligenza artificiale” e della “guerra cibernetica” o cyberwarfare.

Se escludiamo le opere letterarie di Isaac Asimov (le prime tracce un’intelligenza artificiale si trovano in Robbie, scritto da Isaac Asimov nel 1940) ci rendiamo conto che l’intelligenza artificiale, semplicemente, non esiste. O, per lo meno, non esiste quella che immaginiamo quando il marketing di Google o delle altre aziende che hanno investito miliardi in questi progetti ci presentano gli abbozzi delle loro ricerche.

Basta parlare con un buon neurologo per scoprire che non abbiamo ancora abbastanza informazioni per capire come funziona il cervello e che, di conseguenza, non siamo in grado di replicarne il funzionamento. Inoltre, non bisogna essere bioingegneri per capire che – come la mappa non potrà mai essere dettagliata quanto il territorio che descrive – la macchina che meglio di tutte è in grado di replicare i processi mentali dell’essere umano è… il cervello. E che, dunque, qualsiasi altra tecnologia non potrà che mimarne il funzionamento. Questo non significa che è impossibile creare macchine dotate di livelli di autonomia anche molto elevati. Ma da qui a parlare di intelligenza, c’è di mezzo l’universo.

Ancora una volta, dunque, è l’uso distorto del significato delle parole a condurre un disattento analista a conclusioni sbagliate.

Altro esempio direttamente collegato al tema dell’intelligenza artificiale è quello della robotica. Anche in questo caso, è senz’altro più affascinante pensare di vivere nella società descritta da Asimov o nell’universo distopico dei fumetti di Venditti e Weldele (gli autori di The Surrogates) e interrogarsi sulle conseguenze  di cosa accadrà nello spazio virtuale della creazione letteraria, piuttosto che rendersi conto che siamo già circondati da un numero enorme di robot dei quali non possiamo già fare a meno. Ma pensare che le limitate capacità di guida autonoma di una GoogleCar o di una Tesla possano realmente rappresentare una straordinaria innovazione è veramente eccessivo. Come, francamente, è un fuor d’opera parlare di “diritti” e “responsabilità” dei robot. Macchine sono, e come tali  se provocano danni vuol dire che pagherà chi le ha usate, installate, costruite o progettate secondo i canoni della tradizionale responsabilità da prodotto.

Per quanto i danni provocati dalla commistione fra invenzioni letterarie e realtà siano molto gravi, non sono nulla rispetto a quelli che si stanno manifestando nel settore militare.

“Cyberwarfare” e “Quinto dominio” – termini che indicano, con varie articolazioni, la “guerra cibernetica” – sono due dei luoghi comuni più abusati per indicare una cosa che non esiste. Come scrive Tomas Rid in Cyberwarfare will not take place, la CyberWar non è mai stata combattuta, non si sta combattendo ed è altamente probabile che non verrà combattuta in futuro. Al contrario, tutti i cyber attacchi passati e presenti sono null’altro che versioni più sosfisticate di tre attività antiche come la guerra stessa: insurrezione, spionaggio e sabotaggio. Ed è improbabile che in futuro questo cambi.

Rid è certamente ascrivibile alla lista di chi ha avuto il coraggio di dire che “Il Re è nudo”, ma orecchie (interessatamente) sorde non lo ho hanno ascoltato e addirittura la NATO ha teorizzato, dopo i quattro campi di battaglia tradizionali (terra, acqua, aria, spazio) l’esistenza di un ulteriore “luogo”, il Quinto Dominio, appunto. Certo, è abbastanza complicato immaginare un campo senza confini, senza dimensioni e senza limiti, ma tant’è. E la necessità di coordinare azioni belliche aventi come bersaglio i sistemi informativi nemici si è tradotta nella creazione di strutture di comando sganciate dalla reale consapevolezza del fatto che, alla prova dei fatti, la guerra è fatta di (e con) pallottole.

Il risultato concerto di queste continue e confuse sovrapposizioni di piani è la costruzione di una percezione distorta di cosa debba essere protetto, regolato o represso e la conseguente superfetazione di norme inutili nella sostanza e inutilmente repressive nella forma. In due parole: inerzia e arbitrio. Piuttosto che preoccuparsi, dunque, di improbabili scenari apocalittici da blockbuster hollywoodiano, le istituzioni e le autorità di protezione farebbero a meglio, da un lato, a smettere di legiferare su questioni già ampiamente regolate dalle norme esistenti e a intervenire concretamente sulle lesioni concrete di diritti fondamentali che, ogni giorno, siamo costretti a subire impotenti.

Articoli correlati