Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

L'ANALISI

Etica digitale, l’errore di delegarla alle macchine (e a chi le governa)

Poggia sui falsi miti della “legalità” e della “neutralità” la refrattarietà delle nuove tecnologie agli strumenti di regolazione sociale. La garanzia dei diritti fondamentali passa da un riequilibrio dei sistemi: a partire dalla definizione delle tecnologie dell’informazione come “socio-technical systems”

26 Giu 2019

Norberto Patrignani

Politecnico di Torino

A protester faces soldiers near the Pentagon on October 21, 1967Credit Marc Riboud/Magnum Photos

Etica e tecnologia, un binomio ad alto tasso conflittuale. Quando parliamo della rete e della necessità di regolare le tecnologie dell’informazione ci troviamo oggi di fronte a dilemmi etici molto profondi. Un buon inizio per affrontare le complesse domande poste dalle tecnologie dell’informazione potrebbe essere proprio quello di iniziare a chiamarle socio-technical systems e di far emergere i conflitti legati ad esse, visto che non sono neutre.

Chi parla di mercato che non si può frenare, chi propone soluzioni tecnologiche miracolose, chi cerca di proporre leggi su scala globale, chi parla di etica, e così via. Ad esempio sulla rete, lo strapotere dei titani del Web è ormai riconosciuto anche da loro stessi. Ne è l’esempio lampante il recente intervento del  Ceo di Facebook, Mark Zuckerberg in persona sul Washington Post, nel quale afferma “… abbiamo bisogno di un ruolo più attivo dei governi e dei regolatori. Aggiornando le regole per Internet…” (Zuckerberg, 2019). E lo stesso Zuckerberg ha affermato di vedersi più simile a un governo che a una società privata.

“In a lot of ways Facebook is more like a government than a traditional company”. “We have this large community of people, and more than other technology companies we’re really setting policies”.

L’ha detto nel 2017 e adesso quelle parole, con il lancio di Libra, assumono un significato profetico.

Significativo pure il recente maldestro tentativo di Google di instaurare un Ethics Advisory Board di esperti esterni cancellato frettolosamente dopo poche ore. In fondo ci fanno riflettere attorno agli stessi temi: gli stessi giganti della tecnologia “chiedono aiuto” alla società?

Che relazione esiste tra tecnologia e società? (Johnson e Lichfield, 2019).

Etica e legalità, dal Vietnam a Facebook

La storica foto del 21 ottobre 1967 di una dimostrazione di fronte al Pentagono contro la guerra del Vietnam di Marc Riboud (Magnum Photos) rappresenta il simbolo di un’epoca e una prova dell’irriducibilità della legalità all’etica. Infatti quella manifestazione era ai limiti della legge (come dimostrano i fucili dei soldati schierati contro i manifestanti) eppure era profondamente giusta dal punto di vista etico per la donna che dona simbolicamente un fiore ai soldati.

Pochi anni prima, su un altro fronte, se una persona si trovava a salire su un bus, ad esempio nel North Carolina nel 1955, si trovava di fronte ad un cartello che indicava ai bianchi di salire davanti, e ai neri di salire dietro: una situazione perfettamente legale eppure profondamente ingiusta dal punto di vista etico, almeno per Rosa Parks, che infatti sfidò quella norma ingiusta. Il suo gesto segnò l’inizio di una serie di trasformazioni nella società nordamericana in atto ancora oggi.

Tornando ai giorni nostri, è ormai urgente la necessità di porre un freno alla deriva del Web, diventato non più il luogo dell’accesso alla conoscenza, come sognato da Tim Berners Lee nel 1989, ma l’arena dove si combatte la guerra tra i titani del Web per catturare l’attenzione (e il tempo) delle giovani generazioni attraverso sofisticati algoritmi che creano dipendenza per poter continuare a vendere pubblicità.

Proteggere i giovani dalla web-dipendenza, quali norme?

Ormai i progettisti delle “Persuasive Technologies” rivendicano apertamente la loro capacità di coniugare l’esperienza online con il metodico rilascio di un potente neurotrasmettitore come la dopamina (Freed, 2018). Nasce spontanea la domanda: se nel mondo reale le sostanze chimiche che creano dipendenza sono attentamente regolamentate, perché nel mondo virtuale vige la legge del più forte? Che strumenti possiamo attivare per proteggere le giovani generazioni? Dobbiamo frettolosamente trovare nuove leggi internazionali per il Web? In effetti non sarebbe la prima volta che l’umanità di trova a discutere di come affrontare temi legali transnazionali, pensiamo non solo al Web, a Internet, alle leggi del mare, alle leggi dello spazio, ad Antartica, al cambiamento climatico, etc.

Sicuramente diventa sempre più urgente la rivalutazione della norma, della legge che garantisca il rispetto dei diritti fondamentali anche in territori nuovi come la rete. Per tanti, troppi anni la cultura dominante è stata quella basata su due miti potentissimi: il “mercato si autoregola” e la “tecnologia è neutra”. Questa pressione verso “mercato” e “tecnologia” si è accompagnata con un martellante discredito per qualsiasi strumento collettivo di regolazione sociale (chi si ricorda il mantra della Thatcher “la società non esiste“?) e, ancora più grave, con un metodico e progressivo taglio alle spese per l’educazione, la ricerca, la formazione.

Governance della rete: alla ricerca del giusto equilibrio

Invece la sfida, come scriveva Lawrence Lessig a proposito di governance della rete, sta proprio nel trovare la giusta miscela tra “mercato”, “tecnologia”, “norme” e “educazione” (Lessig, 1999).

Perché è così difficile trovare questo equilibrio nelle questioni etiche riguardanti il Web, i social network, le cosiddette “intelligenze” artificiali? (più’ precisamente il sotto-dominio che si chiamava “machine learning“, “supervised/undupervised learning“, o algoritmi che si calibrano con tanti dati, perché non chiamarlo semplicemente “statistical pattern recognition“?).

Forse una delle chiavi per trovare una qualche risposta sta nell’iniziare a smontare i miti del “mercato” e della “tecnologia”.

Il mercato concentrato sulla massimizzazione dei profitti necessariamente scarica su altri “stakeholder” le conseguenze negative: siano esse sociali (vedi la addiction-by-design diffusa dai social network alle giovani generazioni), o ambientali (vedi la resistenza ad abbandonare le fonti fossili) (Leahy, 2018).

Anche la tecnologia non è neutra, anzi, come ci insegnano ormai da tanti anni tutti gli studi su scienza, tecnologia e società, “tecnologia e società si plasmano a vicenda” (Johnson, 1985). L’esempio dei social network è evidente, ma un altro esempio ancora più recente viene dalla vicenda del Boeing 747 MAX, dove una serie di scelte ingegneristiche discutibili, imposte da strategie di mercato, hanno portato allo sviluppo di un software (il Maneuvering Characteristics Augmentation System, MCAS) per compensare lo sbilanciamento dell’aereo, software che però si è dimostrato ancora più complesso del previsto, con le tragiche conseguenze ormai note (Travis, 2019; Joly, 2019).

Norme ed educazione, perché sono importanti

Ridimensionati i miti del “mercato” e della “tecnologia”, possiamo concentrarci sui due fronti, “norme” e “educazione” (Lessig, 1999), per rivalutarli, per trovare qualche risposta agli enormi dilemmi che ci troviamo ad affrontare.

Un ottimo esempio sul fronte “norme” è il recente documento della Commissione Europea delle linee guida sull’intelligenza artificiale dell’High Level Expert Group on Artificial Intelligence. In esso vengono definiti dei principi per lo sviluppo di applicazioni di AI come: il rispetto della dignità umana, la prevenzione dei rischi, l’equità (l’entità responsabile per una decisione deve essere identificabile, non può quindi essere una “black box”), il diritto ad una spiegazione (perché un modello ha generato un particolare output), etc. (EU Commission, 2019).

Un esempio sul fronte “educazione” viene proprio dagli USA, dove le principali scuole di ingegneria hanno introdotto in tutti i piani di studi anche gli aspetti etici della tecnologia (Singer, 2018).

Arriviamo ad un punto cruciale: come possiamo parlare il linguaggio dell’etica (“giusto” o “sbagliato”) con progettisti abituati a ragionare con il linguaggio della scienza e della tecnologia (“vero” o “falso”)? La scorciatoia è spesso quella di ricorrere alla legalità (“se è legale sono a posto“) oppure al mito della neutralità della tecnologia (“I am just an engineer“) ma, come abbiamo visto l’etica è irriducibile alla legalità e la tecnologia non è neutra. Dobbiamo dunque accettare anche l’irriducibilità dell’etica alla tecnologia: due dimensioni entrambe fondamentali dell’esperienza umana, anche se parlano due linguaggi diversi. Non possiamo ridurre tutte le scelte umane a decisioni algoritmiche per poi delegarle ad una “AI”, è socialmente inaccettabile delegare l’etica alle macchine, deresponsabilizza gli umani, perde di significato l’etica stessa: è la capacità di scegliere che alla fine ci rende umani.

Certo, scegliere costa fatica, ma non possiamo delegarla alle macchine come la fatica meccanica, è una responsabilità che non possiamo evitare. Scegliere è anche una caratteristica meravigliosa degli umani, infatti ci permette di cambiare, di evolvere, di affrontare i conflitti inevitabili in una società complessa. Conflitti tra uomo e donna, tra capitale e lavoro, tra Nord e Sud del mondo, umani e pianeta, etc. I conflitti fanno parte della nostra storia e ci costringono a prendere una posizione, appunto, a scegliere. Per esempio a lottare per ristabilire un equilibrio, per le pari opportunità, per la dignità del lavoro e la giustizia, per i diritti umani dei migranti, per il rispetto degli ecosistemi, per le future generazioni… (Patrignani, 2013).

Riferimenti

– EU Commission, (2019), ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence, 8 April 2019.

– Freed R. (2018), The Tech Industry’s War on Kids. How psychology is being used as a weapon against children, Medium, 11 March, 2018.

– Johnson B., Lichfield G. (2019), Hey Google, sorry you lost your ethics council, so we made one for you, Technology Review, 6 April 2019.

– Johnson D.G. (1985), Computer Ethics, Pearson.

– Joly S. (2019), Software e innovazione, cosa insegna la tragedia del Boeing 737 Max, IlSole24Ore, 29 Aprile 2019.

– Leahy S. (2018), Gli impatti dei cambiamenti climatici saranno peggiori del previsto, National Goegraphic, 8 Ottobre 2018.

– Lessig L. (1999), Code and other laws of cyberscpace, Basic Books.

– Patrignani N. (2013), L’illusione della neutralità e la democrazia elettronica, Wired, 3 Aprile 2013.

– Singer N. (2018), Tech’s Ethical ‘Dark Side’: Harvard, Stanford and Others Wanto to Address It, New York Times, 12 February 2018.

– Travis G. (2019), How the Boeing 737 Max Disaster Looks to a Software Developer, IEEE Spectrum, 18 April 2019.

– Zuckerberg M. (2019), The Internet needs new rules. Let’s start in these four area, Washington Post, 30 March 2019.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4