Per un'etica pratica della tecnologia: da dove partire - Agenda Digitale

il saggio

Per un’etica pratica della tecnologia: da dove partire

Serve un’etica della virtù, pratica e umana, per definire e difendere ciò che significa essere liberi nell’era digitale, in contrapposizione al rimanere “bloccati” all’interno di sistemi – diretti da algoritmi – progettati per opporsi a tale libertà. Qui un punto di partenza, in un saggio del filosofo inglese Chatfield

16 Mar 2021
Tom Chatfield

British author, tech philosopher and educator

Cosa significa porre l’etica della tecnologia su basi solide nel XXI secolo? In questo saggio, sosterrò che l’etica della virtù offre una base pratica e umana per farlo: che può aiutarci a esaminare i valori implicati dalla progettazione, dallo sviluppo e dalla regolamentazione della tecnologia; e che può farlo con una maggiore flessibilità e fedeltà all’esperienza vissuta rispetto a statuti etici generali.

Sosterrò anche che l’etica della virtù può aiutarci a evitare certi errori di categoria comuni a molte discussioni sulla tecnologia: proporre codici etici come una soluzione piuttosto che una diagnosi; concentrarsi troppo strettamente su dati, codici e processi interni; e cancellare i contesti sociali e politici attraverso affermazioni fuorvianti di neutralità e inevitabilità.

Oltre la retorica della tecnologia inevitabile, per l’efficienza

In particolare, sosterrò che dobbiamo guardarci dalla retorica banale della comodità, della facilità e dell’efficienza, e da due miti interconnessi: quello della neutralità della tecnologia e quello dell’inevitabilità dei cambiamenti che essa porta con sé. A fronte di ciò, dobbiamo prestare particolare attenzione alla natura del lavoro morale che le diverse situazioni comportano, e a ciò che implica l’outsourcing di tale lavoro tramite sistemi informatici.

WHITEPAPER
I 5 errori che caratterizzano la gestione delle Risorse Umane nel Manufacturing
Risorse Umane/Organizzazione
Smart working

Questa necessaria attenzione prende la forma di domande; e del tempo, dello spazio e della volontà di porle e affrontarle.

  • Che tipo di persona – che tipo di cittadino, studente, lavoratore, amico – questi sistemi ci incoraggiano ad essere.
  • Come ci incoraggiano a relazionarci con gli altri?
  • Quali presupposti di normalità, desiderabilità ed eccellenza stiamo automatizzando al loro interno?

Infine, esplorerò i frutti di questa ricerca nel progetto Digital Ego, un’iniziativa che sto co-conducendo presso il think-tank britannico Perspectiva, dedicata a facilitare conversazioni ricche, inclusive e rigorose intorno alla tecnologia e a ciò che significa allineare il suo sviluppo e la sua regolamentazione con la prosperità individuale e collettiva.

Big tech, troppo potere: tutte le proposte per risolvere il dilemma del decennio

I miti gemelli della neutralità e dell’inevitabilità della tecnologia

Non esiste uno strumento neutrale. Entrare in un veicolo significa trasformare il proprio rapporto con la geografia in modi particolari. Non avere un veicolo in un ambiente espressamente progettato intorno alle sue capacità – non potersi permettere un’auto a Los Angeles, per esempio – significa trovarsi in posizione scomoda in una serie di presupposti sulla libertà, lo spazio e la società.

Allo stesso modo, prendere un’arma significa muoversi in un mondo popolato da potenziali bersagli. Se ho una pistola nella fondina della mia cintura, questo cambia me e la mia relazione con gli altri in modi che possono essere compresi solo analizzando ciò di cui la nuova entità “io e la mia pistola” è capace e verso cui è disposta. Come ha detto il filosofo Bruno Latour nel suo saggio del 1992 “Where Are the Missing Masses? La sociologia di alcuni artefatti mondani”: le distinzioni tra umani e non umani, abilità incarnate o disincarnate, impersonificazione o “macchinazione”, sono meno interessanti della catena completa lungo la quale si distribuiscono competenze e azioni.

Perché questo è così significativo? Come suggeriscono slogan come “le pistole non uccidono le persone, le persone uccidono le persone”, la seducente nozione che la tecnologia in sé sia neutrale – che uno strumento è semplicemente uno strumento, e tutto ciò che conta è come viene usato – è troppo spesso evocata per evitare la discussione delle ipotesi e delle possibilità che essa incarna, per non parlare dei sistemi di regolazione, potere e profitto carichi di valori che la circondano.

Tecnologie neutre? Posizione ideologica

Se le tecnologie stesse sono neutre, le persone che le producono e le mantengono non hanno alcuna particolare responsabilità nei confronti delle persone che le usano (e su cui sono usate) al di là del garantire certi standard di qualità e funzionalità. Se il massimo che si può dire di una città in cui tutti vanno in giro con un fucile d’assalto è che spetta a loro usare i loro fucili in modo responsabile, non ha senso la questione di cosa significa vivere in una comunità in cui la forza letale è una prospettiva costantemente visibile.

Tutto ciò che si può esprimere è una speranza che le persone usino “bene” le loro armi di tipo militare – qualunque cosa ciò possa significare nel contesto di un artefatto progettato espressamente per uccidere in combattimento.

Parlare delle possibilità, dei valori e delle preferenze istanziate nelle tecnologie significa parlare di quelle che spesso vengono chiamate affordances: un termine coniato dallo psicologo James J. Gibson in un articolo del 1977 per descrivere le possibilità di azione presentate da un particolare ambiente.

Come nota la filosofa Shannon Vallor nel suo libro del 2016 Technology and the Virtues, riconoscere e analizzare le affordance delle tecnologie è una sfida antica, ma con elementi nuovi e urgenti oggi: l’invenzione dell’arco e delle frecce ci ha dato la possibilità di uccidere un animale a distanza di sicurezza o di fare lo stesso con un rivale umano, una nuova possibilità che ha cambiato il panorama sociale e morale. Le tecnologie di oggi aprono le loro nuove possibilità sociali e morali di azione. In effetti, l’attività tecnologica umana ha iniziato a rimodellare le condizioni planetarie stesse che rendono possibile la vita.

Le nostre scelte morali aggregate in contesti tecnologici impattano abitualmente sul benessere delle persone dall’altra parte del pianeta, su un numero impressionante di altre specie e su intere generazioni non ancora nate. Nel frattempo, è sempre meno chiaro quanto del futuro lavoro morale della nostra specie sarà svolto da individui umani.

Contro il determinismo tecnologico

In particolare, esplorare la natura gestaltica di questo lavoro morale – la sua diffusione di responsabilità tra coloro che progettano, regolano, usano e traggono profitto dalle diverse tecnologie – è un importante correttivo sia al mito della neutralità tecnologica che a un secondo errore correlato, incarnato dai cosiddetti conti deterministici dell’innovazione.

Il determinismo tecnologico si basa sull’affermazione che le nuove tecnologie portano più o meno inevitabilmente con sé una serie di comportamenti e risultati fissi, e che – prendendo in prestito una frase di un altro filosofo, LM Sacasas – “la resistenza è inutile” quando si tratta di sfidarli.

Sacasas stesso prende in prestito la frase da un’autorità nientemeno che Star Trek: The Next Generation, dove è il grido di battaglia del collettivo Borg, una civiltà cyborg la cui missione è assimilare tutte le altre forme di vita nella loro mente alveare.

“La resistenza è inutile!” (Resistance is futile) ripetono i suoi droni mentre cercano di estinguere ogni forma di coscienza e di libertà estranea alla loro. Si sbagliano, naturalmente: l’universo di Star Trek non sarebbe molto divertente se la resistenza fosse davvero futile. Ma la loro sinistra arroganza è una comoda (e gloriosamente pesante) metafora per tutte quelle mentalità che insistono sulla tecnologia come forma di destino. Come nota Sacasas, identificare e opporsi a quello che lui chiama il “complesso di Borg” come modalità di analisi della tecnologia è affermare il significato etico della libertà intellettuale – e dell’assunzione di responsabilità per le nostre creazioni.

Marshall McLuhan una volta disse: “Non c’è assolutamente nessuna inevitabilità finché c’è la volontà di contemplare ciò che sta accadendo”.

“La retorica che ho chiamato Complesso di Borg si oppone risolutamente proprio a questa contemplazione quando si tratta di tecnologia e delle sue conseguenze. Abbiamo bisogno di più pensiero, non di meno, e la retorica del complesso Borg è tipicamente impiegata per fermare piuttosto che far progredire la discussione.

Per di più, la retorica del complesso Borg equivale anche a un rifiuto della responsabilità. Non possiamo, dopo tutto, essere ritenuti responsabili di ciò che è inevitabile”.

Una delle cose più strane dei miti della neutralità e dell’inevitabilità tecnologica è che, anche se si contraddicono direttamente, sono spesso articolati insieme. Dire che uno strumento è neutrale è come dire che i suoi utenti sono gli unici responsabili di ciò che viene fatto con esso, presumibilmente sulla base del fatto che questa è la loro libera scelta. Al contrario, dire che la tecnologia ha una logica interna che detta certi risultati è come dire che le persone non possono in definitiva scegliere se o come usarla – e che il dissenso è la provincia degli sciocchi luddisti. Eppure questa retorica deterministica spesso si unisce a rapsodie sulla responsabilizzazione dell’utente.

Come ha detto il CEO di Evernote, Phil Libin, in un’intervista del 2012 (evidenziata da Sacasas nei suoi scritti):
“Sono davvero molto ottimista riguardo ai Google Glasses e a quelli di altre aziende che li produrranno… Li ho usati un po’ io stesso e – sto facendo una solida previsione – fra non più di tre anni non guarderò più il mondo con degli occhiali che non abbiano informazioni aumentate. Sembrerà barbaro non avere quella roba. Questo sarà il caso d’uso universale. Sarà mainstream. La gente pensa che sembri un po’ stupido in questo momento, ma l’esperienza è così potente che ti senti stupido non appena togli gli occhiali”.

È fin troppo facile fare il gioco di rivangare previsioni che non si sono avverate. Ma ciò che è significativo nella linea di argomentazione di Libin è il suo trattamento del desiderio umano e della possibilità tecnologica come due facce della stessa medaglia. I Google Glass offrono una così grande esperienza che chiunque li usi vorrà, apparentemente inevitabilmente, continuare ad usarli. Fare altrimenti diventerà “barbaro”: significherà esistere al di fuori del grande progresso della civiltà tecnologica.

Nel miglior stile neo-darwiniano, questa inquadratura suggerisce che i poteri della tecnologia prima o poi renderanno le sue offerte sinonimo del risultato di una libera scelta (e che tale scelta è quindi un’illusione quando si tratta di comportamenti umani aggregati nel tempo). Le persone stanno ricevendo più opportunità che mai da prodotti e piattaforme il cui dominio è preordinato: una lettura della storia che è plausibile solo se si ignorano le possibilità caoticamente ramificate, i dibattiti, i ripensamenti e le ripercussioni che circondano ogni innovazione.

Questi miti di neutralità e inevitabilità sono importanti non solo perché negano sia il potere che la responsabilità quando si tratta di qualsiasi scelta più fondamentale di “quale app devo installare dopo?” ma anche perché, così facendo, negano qualsiasi base per un’etica della tecnologia che non sia basata sia sulla condiscendenza degli esperti (per favore inventate la grande innovazione che ci salverà inesorabilmente!) sia sull’idealizzazione decontestualizzata della responsabilità personale.

In ogni caso, quello che pretende di essere un impegno etico è poco più che un’illusione: la pretesa che viviamo in un mondo in cui le complessità delle nostre “scelte morali aggregate in contesti tecnologici” possono essere sbandierate come non problemi o preferenze personali.
Qual è l’alternativa? Comincia con il prestare molta attenzione a ciò che sta realmente accadendo.

Le affordance tecnologiche e il lavoro morale

All’inizio del loro libro del 2018 Re-Engineering Humanity, il professore di diritto Brett Frischmann e il filosofo Evan Selinger esplorano un esempio di ciò che chiamano “ingegneria tecno-sociale” alla Oral Roberts University di Tulsa, Oklahoma.

Nel 2016, l’università ha introdotto l’obbligo per gli studenti di acquistare e indossare dispositivi di tracciamento Fitbit per una classe di educazione fisica. In precedenza, gli studenti avevano auto-registrato le loro attività quotidiane in un diario. Ora, queste attività sarebbero state registrate automaticamente dai loro dispositivi.

Ne è scaturita una piccola controversia su quanto gli studenti avessero dato il consenso informato a questo monitoraggio, su come i dati sarebbero stati conservati, e così via. Questa controversia è svanita una volta che è diventato chiaro che l’università aveva fornito garanzie adeguate. Un tipo di monitoraggio era stato semplicemente sostituito da un altro: la tecnologia di penne e carta con il tracciamento e la registrazione automatica. Chi, al giorno d’oggi, suggerirebbe seriamente che le cose dovrebbero essere diverse? Infatti, chi negherebbe che i Fitbit forniscono dati più dettagliati e più affidabili dei diari, e lo fanno in modo più conveniente?

Frischmann e Selinger non sono nel business di rimpiangere penne e carta. Ma, scavando nelle diverse possibilità degli approcci vecchi e nuovi, scoprono alcune complessità significative.

Per cominciare, sostengono che ci sono profonde differenze psicologiche tra registrare attivamente le osservazioni ed essere passivamente monitorati.

Gli studenti che registrano le loro attività fisiche quotidiane in un diario trovano che il mezzo analogico offre diversi passaggi che richiedono tempo e sforzo, pianificazione e pensiero. Può orientare gli studenti a registrare i dati di fitness in modi che le macchine automatiche e non riflettenti non potrebbero mai fare. Il mezzo indirizza l’attenzione degli studenti verso l’interno e verso l’esterno e i dati registrati possono rivelare più di quello che si vede.

Per Frischmann e Selinger, è questa distinzione attiva/passiva, non la presenza o l’assenza di una particolare tecnologia, che conta. Ciò che è in gioco è una certa etica o un insieme di valori.

Le attività di think-and-record ispirano auto-riflessione, consapevolezza interpersonale e giudizio. Queste attività sono preziose perché sono legate all’esercizio del libero arbitrio e dell’autonomia.

La chiave per l’ingegneria tecno-sociale di esseri umani migliori potrebbe risiedere nel prendere più seriamente questi strumenti più lenti.

Nello spazio di due paragrafi, siamo passati da una descrizione di studenti che scarabocchiano nei diari a una discussione sui valori associati all’essere un essere umano “migliore”. Questa mossa è giustificata? La risposta, suggerirei, è un enfatico sì – ed è tanto più importante per l’asprezza di porre un’affermazione così eticamente carica accanto a ciò che potrebbe essere più spesso trattato come un esempio minore di efficienza tecnologica.

Per capire perché, dobbiamo considerare non solo le azioni e le opzioni degli studenti, ma anche gli obblighi e le aspettative che le accompagnano. Chiedere a qualcuno di usare un dispositivo indossabile significa chiedergli di acconsentire a un processo di osservazione che genererà automaticamente dati esaustivi sulle sue attività quotidiane.

Una volta che hanno accettato, diventeranno parte di un sistema che, se funziona come previsto, richiede poco da loro oltre all’acquiescenza. Al contrario, chiedere loro di registrare le proprie azioni significa chiedere loro di intraprendere un processo di auto-osservazione e confidare che lo facciano diligentemente.

Questo secondo scenario richiede non solo uno sforzo pratico, ma anche il tipo di lavoro morale evidenziato da Vallor: impegnarsi a svolgere un compito con precisione e onestà, resistendo alla tentazione di distorcere o falsificare i risultati.

Specialmente nel contesto dell’istruzione, è ragionevole chiedersi che tipo di studente ciascuno di questi approcci incoraggia ad essere e secondo quali standard questo studente sarà valutato.

Un buono studente è qualcuno di cui ci si può fidare che possa assumersi la responsabilità di un’autovalutazione; o è qualcuno la cui comodità e convenienza sono meglio servite da un monitoraggio automatico non invasivo (e che quindi non ha più la possibilità di saltare il suo esercizio fisico quotidiano)?

Si potrebbe rispondere che la risposta più realistica è “un po’ di entrambi” – ma non è ovvio che entrambe le opzioni siano disponibili.

La sorveglianza forgia l’umano

Le implicazioni di scelte come questa si estendono ben oltre il loro contesto immediato. Che tipo di persona gli studenti sono incoraggiati a diventare da un sistema educativo che suggerisce che il monitoraggio costante e automatizzato è una caratteristica necessaria del mondo? 

Cosa potrebbe significare per una società integrare tale sorveglianza nel tessuto dell’educazione; per gli studenti eseguire tutti i loro compiti scolastici su dispositivi che automaticamente riportano le loro azioni o inazioni; o per i sistemi di riconoscimento facciale per tracciare l’attenzione nelle classi in tempo reale?

Nessuno di questi scenari è ipotetico. Ecco come Todd Feathers e Janus Rose hanno riferito per il sito Motherboard della rivista Vice nel settembre 2020 sull’uso crescente di software di “digital proctoring” per monitorare gli studenti in alcuni college statunitensi (e anche in Italia, Ndr.).

Proctoring, il software scova chi bara agli esami online. E gli studenti si rivoltano

Il software trasforma i computer degli studenti in potenti sorveglianti: le webcam monitorano i movimenti degli occhi e della testa, i microfoni registrano i rumori nella stanza e gli algoritmi registrano la frequenza con cui uno studente muove il mouse, scorre su e giù su una pagina e preme i tasti. Il software segnala qualsiasi comportamento che il suo algoritmo ritiene sospetto per una successiva visualizzazione da parte dell’istruttore della classe.

Per quanto distopico possa sembrare, ci sono chiare ragioni per l’adozione diffusa di tali strumenti. La pandemia di Covid-19 ha portato a un rapido aumento dell’apprendimento e della valutazione a distanza. Questo ha a sua volta lasciato i college alle prese con ciò che significa monitorare gli studenti che lavorano da casa, prevenire la copia e l’imbroglio su larga scala, e trovare proxy misurabili per la frequenza e la partecipazione.

Affective computing: cos’è, a cosa serve, e quali rischi

La discriminazione dell’algoritmo

Finché il software è utilizzato in modo responsabile, si potrebbe dire, sicuramente i diligenti e gli innocenti non hanno nulla da temere? Come suggerisce il resoconto di Motherboard, questa difesa comincia a naufragare una volta che le possibilità delle tecnologie remote sono esaminate più da vicino. Nel caso del software di supervisione progettato per monitorare gli esami online, per esempio, un fattore che dovrebbe essere del tutto irrilevante per qualsiasi valutazione – il colore della pelle di qualcuno – può diventare un grosso ostacolo grazie al fatto che alcuni sistemi di riconoscimento facciale classificano ripetutamente quelli con la pelle più scura come troppo poco illuminati per essere riconosciuti. Allo stesso modo, gli studenti con connessioni internet inaffidabili, disabilità, ansia, ADHD, o che vivono a stretto contatto con persone a carico, hanno maggiori probabilità di essere segnalati come “sospetti” grazie ai modelli del loro sguardo, il loro uso di tastiera e mouse, il loro ambiente fisico, i tempi di accesso, e così via.

In questi casi, i presupposti dei sistemi automatizzati su ciò che è desiderabile e “normale” non possono essere separati da questioni più ampie sulla natura dell’educazione del 21° secolo, o addirittura sull’appartenenza a una società del 21° secolo. Come scrive Shea Swauger, bibliotecario e istruttore senior presso la Biblioteca Auraria, in un articolo di aprile 2020 per Hybrid Pedagogy.

I tentativi di frode sono in aumento, non possiamo fidarci degli studenti, e la migliore strategia per proteggere l’integrità accademica è investire in sistemi di sorveglianza massiccia. Almeno, questa è la narrazione che le aziende tech che si occupano di istruzione superiore stanno vendendo sulla base dei loro prodotti e campagne di marketing.

Se faccio un test usando un algoritmo di controllo, questo codifica il mio corpo come normale o sospetto e i miei comportamenti come affidabili o minacciosi.

Come uomo bianco, cisgender, non disabile, neurotipico, queste tecnologie generalmente classificano il mio corpo come normale e affidabile, e per questo non metterebbero in pericolo la mia istruzione, il mio benessere, il mio lavoro o la mia posizione accademica.

La maggior parte degli studenti del mio campus non condivide il mio profilo e potrebbe avere un’esperienza molto diversa alle prese con gli algoritmi di correzione dei test.

Come i suoi venditori hanno sottolineato, i college non hanno alcun obbligo di usare questo software in un modo particolare, o addirittura in tutti i modi.

Ma la sua stessa esistenza incarna un potente insieme di incentivi e presupposti sulla fiducia, la privacy, e ciò che significa studiare e avere successo come studente nel 21° secolo.

E, curiosamente, non è l’unico modello in circolazione, né per l’istruzione né per la tecnologia. Esistono pratiche, approcci e atteggiamenti alternativi; e molti studenti ed educatori hanno passato il 2020 ad affermare la loro superiorità etica e pratica.
Anche se un sistema di sorveglianza può essere fatto funzionare senza soluzione di continuità, in modo efficace e imparziale (il che sembra improbabile), cosa significa per una società rendere la sottomissione a tale monitoraggio un modello per l’istruzione, il lavoro o la vita civile?

Come hanno detto Evan Selinger e il filosofo Evan Greer in un articolo del febbraio 2020, mettendo in guardia contro la mossa di implementare le tecnologie di riconoscimento facciale nei campus universitari (un avvertimento che si è presto rivelato profetico): “Dati i molti modi in cui la tecnologia [di riconoscimento facciale nei campus] può essere utilizzata e la facilità di aggiungere le sue funzioni alle telecamere esistenti, qualsiasi diffusione normalizzerà la pratica di consegnare le nostre informazioni biometriche sensibili a istituzioni private solo per ottenere un’istruzione. [Inoltre] la caratterizzazione facciale tende a essere sottoscritta dalla scienza spazzatura e integrarla nell’istruzione rischia di disumanizzare gli studenti e favorire approcci eccessivamente riduttivi all’insegnamento”.

Infatti, la sola prospettiva di una diffusa sorveglianza facciale avrà un effetto chilling sulla libera espressione nel campus. Gli studenti che hanno paura di essere se stessi e di esprimersi si tireranno indietro, rinunciando a sfruttare le opportunità cruciali di sperimentare la propria crescita intellettuale e lo sviluppo personale.

E gli studenti delle comunità emarginate saranno i più colpiti.

Socialmente, tale software è in sintonia con i movimenti che la pandemia di Covid-19 ha accelerato ovunque, dagli affari e dal tempo libero alla governance e all’amministrazione: verso la normalizzazione della sorveglianza e dell’elaborazione algoritmica dei dati in nome della sicurezza e della convenienza; verso offerte di efficienza e semplicità dietro le quali possono nascondersi pregiudizi sottovalutati o motivi di sfruttamento esplicito; e verso una fondamentale asimmetria tra ciò che gli utenti stessi comprendono e ciò che gli altri comprendono di loro.

Democrazia in declino nel mondo e la pandemia peggiora le cose

In effetti, la prospettiva di intere nazioni che introducono regimi di sorveglianza tecnocratica totale non è ora tanto una finzione speculativa quanto una realtà ben documentata. Quello che Human Rights Watch ha definito la “tirannia automatizzata” della risposta pandemica della Cina è un assaggio di tutti i nostri futuri?

Frischmann e Selinger toccano tutte queste preoccupazioni in Re-Engineering Humanity. Eppure non concludono il loro capitolo di apertura con una geremiade.

Invece, dopo aver analizzato le possibilità di vecchi e nuovi approcci nel caso della Oral Roberts University, suggeriscono alcuni modesti passi positivi che potrebbero essere fatti sulla base di tale analisi.

“L’università potrebbe combinare gli strumenti di fitness tracking. Potrebbe richiedere agli studenti di utilizzare un dispositivo di fitness tracking che raccoglie dati, e allo stesso tempo aspettarsi che scrivano relazioni sui dati raccolti in un diario. Questo processo in due fasi sarebbe più completo e accurato del solo diario. Dà anche agli studenti l’opportunità di riflettere sulle loro prestazioni e la libertà di definire come e cosa comunicare ai loro istruttori e compagni”.

Una volta che le domande giuste sono state poste, in altre parole, una negoziazione può in linea di principio avere luogo tra diversi sistemi e approcci, animata da una chiara discussione su quali fini umani il risultato dovrebbe essere diretto – e cosa potrebbe essere necessario mitigare.

Le domande giuste possono iniziare a essere poste, tuttavia, solo se si tiene conto delle affordance della tecnologia, insieme ai valori e agli scopi che queste incarnano. Questo a sua volta richiede una comprensione esplicitamente etica dei presupposti incorporati nella progettazione e nello sviluppo di una tecnologia, e la possibilità e la volontà di trasformare queste analisi in azione.

Verso una meta-etica della tecnologia

All’inizio di Technology and the Virtues, Shannon Vallor conia il termine “opacità tecnosociale” per riassumere le profondità dell’incertezza che caratterizzano le visioni del futuro del presente – e le profondità dell’ambivalenza che circonda il posto della tecnologia: “La nostra condizione attuale sembra non solo sfidare previsioni fiduciose su dove siamo diretti, ma anche sfidare la costruzione di una narrazione coerente su dove siamo esattamente. La breve storia della cultura digitale è stata una storia di generale miglioramento o declino umano? Su una curva di sviluppo, ci stiamo avvicinando alla prossima vertiginosa esplosione di progresso tecnosociale, come alcuni credono, o siamo in bilico su un precipizio in attesa di una caduta calamitosa. La nostra crescente cecità tecnosociale, una condizione che chiamerò acuta opacità tecnosociale, rende sempre più difficile identificare, cercare e assicurare il fine ultimo dell’etica – una vita degna di essere scelta una vita vissuta bene”.

Se, in un tale contesto, vogliamo invocare idee come “etica” e “scopo”, dove possiamo e dobbiamo cercare una guida su ciò che significano? Questa domanda riguarda la cosiddetta meta-etica.

Discutere di meta-etica significa discutere di come definiamo concetti fondamentali come giusto, sbagliato, bontà e moralità: chiedere cosa significa offrire un resoconto coerente e convincente dell’etica per i nostri tempi. Come suggerisce il titolo di questo saggio, credo che la risposta si trovi in una versione dell’approccio noto come etica della virtù.

Etica deontologica e utilitaristica

Prima di considerare tale etica in profondità, tuttavia, è importante considerare altre due importanti scuole di pensiero meta-etico nella filosofia occidentale – l’etica deontologica e l’etica utilitaristica – e perché potrebbero essere meno fruttuose. La mia analisi, va notato, è debitrice del lavoro fondamentale di Vallor.

L’etica deontologica è interessata a questioni di dovere morale e alle regole di azione giusta che potrebbero definire tale dovere. Forse il più famoso di questi è l’imperativo categorico di Immanuel Kant: l’argomento che ogni individuo dovrebbe chiedere ad ogni sua azione: “il principio in base al quale sto agendo è quello che dovrebbe governare anche le azioni di tutte le altre persone in situazioni simili? In altre parole, un’azione è giusta solo se scaturisce da una regola morale che ogni persona ben pensante vorrebbe fosse universale.

La regola di Kant offre una potente risposta alla prospettiva che le persone scelgano le definizioni personali di giusto e sbagliato, così come all’idea che non si possano affermare standard etici universali basati esclusivamente sull’esperienza umana.

Come sottolinea Vallor, tuttavia, la sua stessa universalità la rende anche curiosamente impotente di fronte alle incertezze del presente: “Considerate il doveroso kantiano di oggi, che deve chiedersi se può volere un futuro in cui tutte le nostre azioni sono registrate da strumenti di sorveglianza pervasivi, o un futuro in cui tutti noi condividiamo le nostre vite con i robot sociali… Come può uno qualsiasi di questi mondi possibili essere immaginato con sufficiente chiarezza per informare la volontà di una persona? Per immaginare un mondo di sorveglianza pervasiva e costante, è necessario sapere cosa verrà fatto con le registrazioni, chi potrebbe controllarle, e come sarebbero accessibili o condivise”.

In altre parole, le domande contingenti poste da qualsiasi scenario futuro rendono incoerente la formulazione di doveri universali. A meno che, naturalmente, non siamo disposti ad abbracciare proprio l’incertezza di cui l’etica deontologica cerca di fare a meno: inquadrare i doveri del futuro in termini di ciò che potremmo doverci l’un l’altro in casi specifici, e chiedere quali diverse domande morali potremmo voler porre a ciascuna situazione emergente.

L’altra grande scuola meta-etica del pensiero utilitarista fonda analogamente sull’opacità. L’utilitarismo – e la più ampia categoria etica a cui appartiene, il consequenzialismo – si basa sul principio fortemente pragmatico che le azioni giuste sono quelle allineate con il miglior risultato possibile per il maggior numero possibile di persone. Questo approccio può anche essere inquadrato in termini di riduzione del danno e del rischio, come si vede nel lavoro di filosofi come Peter Singer e Nick Bostrom. Le azioni giuste, in questo contesto, sono quelle che fanno di più per ridurre la sofferenza umana (e animale) prevenibile, e/o che rendono meno probabili eventi futuri catastrofici.

Mentre l’etica deontologica è interessata principalmente al senso del dovere di un individuo – e quindi ai modi in cui le intenzioni personali si traducono in regole morali generalizzabili – l’etica utilitaristica è interessata al raggiungimento di particolari stati di cose nel mondo.

Per parafrasare uno degli argomenti più famosi del libro di Singer del 2009 The Life You Can Save, quasi chiunque salterebbe naturalmente in uno stagno poco profondo in cui un bambino stesse annegando se l’unico costo fosse la sostituzione delle sue scarpe da ginnastica nuove di zecca. Eppure, per meno del prezzo di un paio di scarpe da ginnastica, quasi tutti coloro che vivono in un certo grado di comfort possono trasformare la vita di diverse persone che soffrono altrove, per esempio, donando a un ente di beneficenza come la Against Malaria Foundation. Quindi, tutti dovrebbero farlo, o cercare di intraprendere azioni con un impatto simile.

Per me, argomenti come quello di Singer sono allo stesso tempo convincenti, di immenso significato etico, e inadeguati. Offrono una guida pragmatica per massimizzare certi risultati desiderabili da certe risorse – e sono stati influenti sui tentativi di stabilire rigorose strutture utilitaristiche come il movimento dell’Altruismo Efficace – senza costituire in alcun modo un resoconto sistematico delle relazioni etiche umane. Una volta che siamo d’accordo che certi risultati sono desiderabili, il calcolo ragionato per massimizzare questi risultati è enormemente prezioso. Ma il ragionamento etico che sostiene tale calcolo deve inesorabilmente aver avuto luogo altrove, in contesti in cui anche un appello apparentemente ovvio come quello di ridurre la sofferenza non può offrire una chiara guida. Dove sono, per riprendere la critica di Bernard Williams all’utilitarismo, i sentimenti morali non soggettivi a cui potremmo fare appello quando cerchiamo una prospettiva “impersonale” da cui fare la nostra valutazione?

All’altra estremità della scala rispetto all’attenzione di Singer sulla sofferenza immediatamente evitabile – una divergenza che suggerisce la difficoltà di riconciliare le cornici utilitaristiche rivali – pensatori come Bostrom suggeriscono una serie di criteri e avvertenze in settori chiave, volti a evitare il disastro civile. Questi criteri sono caratterizzati dalla convergenza di quadri etici per l’IA intorno a principi come la trasparenza, la giustizia e l’equità, la non-maleficenza, la responsabilità e la privacy.

C’è molto da ammirare (e ascoltare) negli avvertimenti contro gli scenari peggiori per la nostra specie. Nelle loro applicazioni, tuttavia, tali strutture iniziano ad assomigliare più da vicino alla saggezza pratica a cui aspira l’etica della virtù che ai comandamenti kantiani o consequenzialisti.

Come hanno sostenuto Anna Jobin, Marcello Ienca & Effy Vayena in ‘Nature Machine Intelligence’ nel settembre 2019, quando si tratta del futuro dell’IA c’è “divergenza sostanziale in relazione a come questi principi sono interpretati, perché sono ritenuti importanti, a quale questione, dominio o attori appartengono, e come dovrebbero essere implementati”.

Tali codici etici sono molto meno simili al codice del computer di quanto i loro creatori potrebbero desiderare. Non sono tanto insiemi di istruzioni quanto aspirazioni, espressi in termini che generano almeno tante domande quante sono le loro risposte.
Nonostante il potere e l’importanza delle analisi utilitaristiche all’interno di certi domini, in altre parole, non c’è una grande prova sociale da superare, nessun singolo consenso o paradigma da spostare – e nessun modo di imporre presunte soluzioni in tali spazi senza mettere a tacere molte di quelle voci che hanno più bisogno di essere ascoltate.

C’è, piuttosto, l’incessante sfida collettiva di trovare modi di prosperare in condizioni di opacità tecnosociale e, in modo incrementale e imperfetto, di creare cicli virtuosi di sviluppo, interrogazione e impiego della tecnologia.

La virtù nella pratica

Una tesi centrale dell’etica della virtù è che, date le profonde incertezze che circondano ogni vita che si svolge, nessuna traiettoria è garantita per fornire uno scopo o una soddisfazione, ma che è possibile descrivere il tipo di condizioni e attitudini compatibili con la realizzazione del potenziale umano. Tale realizzazione è chiamata, nella tradizione etica delle virtù aristoteliche, eudaimonia.

Cosa comporta l’eudaimonia? La filosofa e classicista Edith Hall ne illustra alcune complessità nel suo libro del 2018 Aristotle’s Way: “Il prefisso eu significa ‘bene’ o ‘buono’; l’elemento daimonia viene da una parola con tutta una serie di significati: essere divino, potere divino, spirito guardiano, fortuna o sorte nella vita. Così eudaimonia è venuta a significare benessere o prosperità, che certamente include la contentezza. Ma è molto più attivo di ‘contentezza’. Si ‘fa’ l’eudaimonia; richiede un input positivo. Infatti, per Aristotele, la felicità è attività (praxis). Egli fa notare che se fosse una disposizione emotiva con cui alcune persone nascono o non nascono, allora potrebbe essere posseduta da un uomo che ha trascorso la sua vita dormendo, “vivendo la vita di un vegetale…””.

Aristotele è, nota Hall, “utilmente gregario e concreto come modello per la virtù nella pratica”, il che non è la stessa cosa che essere corretto senza tempo. Aristotele aveva torto su molte cose (tra cui le politiche di genere e la schiavitù). Nel lasciare in eredità al mondo una visione dell’etica che insiste sulla loro qualità concreta e contingente, tuttavia, ha fornito una struttura adatta ad affrontare le tensioni e le interdipendenze che ho analizzato finora, per non parlare di una filosofia compatibile con una serie di altre tradizioni impegnate nello sviluppo personale.

In particolare, l’etica della virtù è impegnata nell’idea che il carattere morale è il cuore dell’etica e che, paradossalmente, è soprattutto lavorando sul nostro carattere che diventiamo capaci di trattare bene gli altri. Il carattere morale è un concetto capiente. Non si basa su regole fisse di azioni sbagliate e giuste, ma piuttosto sulla pratica di comportamenti virtuosi nella vita quotidiana – e sull’importanza psicologica dei modelli di ruolo sul comportamento e le credenze. Ogni azione, non importa quanto piccola, è potenzialmente un precedente.

Allo stesso modo, le inazioni e il caso sono di grande importanza. Essere svantaggiati, abusati o sfortunati significa trovarsi di fronte a ostacoli alla prosperità che può risultare impossibile superare. In questo senso, le virtù civiche come il rispetto per la giustizia, l’equità e la libertà – e la loro coltivazione comunitaria – possono avere un peso maggiore delle conquiste puramente personali.

Forse soprattutto, l’etica della virtù è decisamente modesta nelle sue ambizioni. Vede la prosperità e la bontà come viaggi che durano tutta la vita senza una destinazione finale, e anche i migliori di noi sono solo troppo umani. Come dice il filosofo Julian Baggini nel suo libro del 2020 The Godless Gospel, un’esplorazione delle parole e delle azioni di Gesù come modello per l’etica secolare: “Una caratteristica trascurata dell’esempio di Gesù è che egli modella la necessità di lavorare su se stessi. La presunta divinità di Cristo tende a farci pensare che la sua bontà sia intrinseca, ma non è così che viene ritratto nei Vangeli. Sicuramente aveva una saggezza precoce …. Eppure non iniziò il suo ministero fino all’età di trent’anni. Anche una persona moralmente dotata come Gesù aveva bisogno di tempo per far crescere la sua saggezza, e questa saggezza aveva bisogno di essere nutrita costantemente”.

Equità dell’intelligenza artificiale, il problema è politico: tutti i temi sul tavolo

Esempio concreto di virtù nella pratica della tecnologia

È utile a questo punto considerare un esempio concreto di virtù nella pratica quando si tratta di tecnologia; e, in particolare, cosa significa allineare lo sviluppo e la diffusione di una tecnologia con la crescita, la libertà e il potenziamento di coloro che ne sono interessati.
Nel novembre 2016, la ricercatrice Joy Buolamwini – allora laureanda al MIT – ha parlato al TEDxBeaconStreet di sistemi di riconoscimento facciale e razza. Quando era una studentessa della Georgia Tech che studiava informatica, spiega Buolamwini, lavorava sui cosiddetti robot sociali e presto scoprì che il robot che stava usando non poteva “vederla” a causa del colore della sua pelle.

Anticipando il problema con alcuni software di controllo discusso in precedenza in questo saggio, ha scoperto che doveva “prendere in prestito” la faccia della sua compagna di stanza (dalla pelle più chiara) per completare un progetto. Poco dopo, ha visitato Hong Kong per partecipare a un concorso di imprenditorialità e ha fatto visita a una start-up locale che stava dimostrando uno dei suoi robot sociali. “Probabilmente potete immaginare”, dice Buolamwini, cosa è successo dopo:
“Il demo ha funzionato su tutti, finché non è arrivato a me… Non riusciva a rilevare la mia faccia. Ho chiesto agli sviluppatori cosa stava succedendo, e e si è scoperto che avevamo usato lo stesso software generico di riconoscimento facciale. Dall’altra parte del mondo, ho imparato che i pregiudizi algoritmici possono viaggiare con la stessa velocità con cui si scaricano alcuni file da internet”.

Come un recente flusso di esempi ha sottolineato – dalle chiamate di Zoom che “tagliano via” le teste di coloro che hanno la pelle scura, agli algoritmi di Twitter che mettono automaticamente i volti bianchi al centro delle immagini ritagliate – Buolamwini è stato escluso di default da categorie come “normale”, “significativo” e persino “umano”. È importante, tuttavia, che lei era anche tutt’altro che una vittima passiva.

Affinché un computer possa “vedere” qualcosa, un algoritmo di apprendimento automatico deve essere addestrato esponendolo a campioni di ciò che dovrebbe riconoscere: in questo caso, centinaia di migliaia di esempi sia di volti che di cose che non sono volti. Se solo certi tipi di volti sono inclusi nel set di allenamento, quelli che si discostano troppo dalla norma saranno più difficili da individuare. Tutto questo, nota Buolamwini, incarna non tanto il verdetto implacabile di un sistema automatizzato quanto il prodotto esplicito di una serie di scelte umane: “I set di allenamento non si materializzano dal nulla. Possiamo effettivamente crearli. Quindi c’è l’opportunità di creare set di formazione a tutto spettro che riflettono un ritratto più ricco dell’umanità… possiamo iniziare a pensare a come creare un codice più inclusivo e impiegare pratiche di codifica inclusive. Inizia davvero con le persone. Quindi chi codifica è importante. Stiamo creando team a tutto spettro con individui diversi che possono controllare i punti ciechi degli altri? Dal punto di vista tecnico, come codifichiamo è importante. Stiamo tenendo conto dell’equità mentre sviluppiamo i sistemi? E infine, perché codifichiamo è importante. Abbiamo usato strumenti di creazione computazionale per sbloccare un’immensa ricchezza. Ora abbiamo l’opportunità di sbloccare un’uguaglianza ancora maggiore se facciamo del cambiamento sociale una priorità e non un ripensamento”.

Le domande da farsi

Perché, come, chi: per tutta la complessità delle risposte che richiedono, le domande che sbloccano la scatola nera dell’ingiustizia codificata non potrebbero essere più semplici. E questo a sua volta suggerisce alcune delle cose più fondamentali che possiamo dire sui pregiudizi e le ingiustizie latenti nei sistemi tecnologici: che tutti questi sono solo latenti o invisibili a qualcuno; e che è solo una narrazione strettamente deterministica che permette a questo qualcuno di dichiararsi ignorante a nome di tutta l’umanità.

Sono passati quasi cinque anni dal discorso di Buolamwini, tempo in cui ha contribuito a costruire uno tra un numero crescente di movimenti che sostengono un’IA equa e responsabile. Eppure proprio il difetto che ha identificato continua a creare divisioni e svantaggi, così come innumerevoli altre disuguaglianze, esclusioni e ingiustizie (si consideri lo scandalo in corso del licenziamento da parte di Google dei due co-leader del suo team etico AI, i ricercatori di fama mondiale Timnit Gebru e Margaret Mitchell).

Cosa sta succedendo; e cosa si può fare al riguardo? La risposta, vorrei suggerire, riguarda tanto le persone e le priorità presenti (e assenti) nei consigli di amministrazione e nei luoghi di lavoro quanto i dati o il codice. E punta al cuore del problema dell’etica tecnologica stessa. Quando si tratta di tecnologia, non è sufficiente cercare strumenti virtuosi o persone virtuose. Piuttosto, dobbiamo chiederci cosa implichi perché il processo continuo di progettazione, discussione e implementazione di una tecnologia sia esso stesso virtuoso.

Cosa si deve fare?

Se il pregiudizio e l’ingiustizia sono inscritti nei dati che forniamo alle macchine, allora esaminare questi dati presenta una profonda opportunità etica: una possibilità di riconoscere e correggere simultaneamente le disuguaglianze e le esclusioni strutturali. È importante, tuttavia, ribadire che non sarà mai eticamente adeguato concentrarsi solo (o anche principalmente) sui dati stessi. Perché?

Come hanno sostenuto i ricercatori Alex Hanna, Emily Denton, Andrew Smart, Hilary Nicole e Razvan Amironesei in un saggio del dicembre 2020 per la rivista Logic: “Una conseguenza particolarmente perniciosa del concentrarsi solo sui dati è che le discussioni sulla “equità” dei sistemi di IA diventano semplicemente sull’avere dati sufficienti. Quando i fallimenti sono attribuiti alla sottorappresentazione di una popolazione emarginata all’interno di un set di dati, le soluzioni sono sottomesse a una logica di accumulazione; la presunzione sottostante è che set di dati più grandi e diversificati alla fine si trasformeranno in (mitici) set di dati imparziali. Secondo questo punto di vista, le aziende che già siedono su enormi cache di dati e potenza di calcolo – grandi aziende tecnologiche e startup centrate sull’AI – sono le uniche che possono rendere i modelli più “equi””.

C’è, in altre parole, una lacuna nel cuore di qualsiasi argomento secondo il quale le questioni etiche possono essere risolte solo facendo affidamento sulle grandi aziende per costruire serie di dati più grandi e migliori. Per lo stesso motivo per cui non esiste una prospettiva etica “neutrale” da cui un utilitarista possa pesare il mondo nella sua bilancia, i set di dati “imparziali” sono artefatti mitici basati su un’impossibilità: un mondo in cui non esistono scelte o preferenze cariche di valore intorno alla ricerca di una tecnologia, alla sua analisi e al suo sviluppo. governo e regolamentazione.

Per me, un grande dono dell’etica della virtù è che ci richiede di affrontare precisamente questo contesto attraverso la lente delle potenzialità e della dignità di ogni vita: che riconosciamo le interdipendenze esplicitamente etiche delle norme, delle inclusioni e delle esclusioni di una società, e le pesanti richieste individuali e collettive che ci vengono fatte dalle speranze di crescita e prosperità

Infatti, forse la più pesante di tutte queste richieste è che riconosciamo la profondità della nostra fallibilità, vulnerabilità e dipendenza, sia gli uni dagli altri che dai sistemi che ci circondano. Nel suo libro del 1999 “Dependent Rational Animals“, il filosofo Alasdair MacIntyre sostiene che discutere l’esistenza umana in termini di capacità “normali” di adulti sani e apparentemente autonomi è un profondo errore etico di categoria. Questo non solo perché farlo significa ignorare l’arbitrarietà delle disuguaglianze del mondo, ma anche perché la nostra esistenza è definita nel senso più fondamentale dalla dipendenza: dall’infanzia e dalla fanciullezza estesa della nostra specie; dalla malattia, dall’infermità e dall’età; dagli strumenti, dal commercio e dalla tecnologia, senza i quali non esiste una società umana.

Le nostre vite intrecciate alle altre

Se vogliamo discutere in modo significativo della vita come viene vissuta, suggerisce MacIntyre, dobbiamo iniziare non con un’istantanea di un adulto nozionalmente indipendente, ma piuttosto riconoscendo che la traiettoria intrecciata di ogni vita richiede: £che coloro che non sono più bambini riconoscano nei bambini ciò che erano una volta, che coloro che non sono ancora disabili per età riconoscano nei vecchi ciò che stanno diventando, e che coloro che non sono malati o feriti riconoscano nei malati e feriti ciò che spesso sono stati e saranno e sempre potranno essere”.

È anche importante, continua MacIntrye, che questo riconoscimento della dipendenza reciproca non sia espresso in termini di paura o rifiuto. Essere umani è nascere nella più totale impotenza, in circostanze che non possiamo scegliere. È crescere e cambiare, costretti da queste circostanze e dall’eredità biologica. È raggiungere una certa misura di indipendenza, per un certo tempo, nel contesto delle vaste reti di scambio e competizione della società. Ed è cercare non solo la sopravvivenza, ma anche – fintanto che i bisogni fondamentali del corpo sono soddisfatti – una qualche forma di fioritura o soddisfazione. Non c’è vittoria finale, nessuna garanzia di successo e nessuna guida infallibile. C’è solo l’attività contingente di provare, insieme, a vivere e a conoscerci un po’ meglio.

Tutto ciò comporta, per ripetere una frase che ho già usato varie volte, un lavoro morale la cui difficoltà e significato sono inestricabilmente legati. Ho due figli piccoli e, come molti genitori, una delle prime lezioni che ho faticato a padroneggiare è che i desideri dei miei figli sono una guida imperfetta per il loro benessere; e che rendere la loro vita più facile non è sempre il modo migliore per prepararli alla vita. Proprio come gli studenti descritti da Frischmann e Selinger, è più importante per me aiutarli gradualmente a sviluppare una misura di autocontrollo, di equità e di ambizione – e mostrare loro che la fiducia può essere guadagnata – che monitorare costantemente e intervenire in tutto ciò che fanno.

Inoltre, come molti genitori, una seconda lezione che sto ancora cercando di imparare è che l’altra persona che troppo spesso ha bisogno di migliorare il proprio autocontrollo sono io stesso. Amare e nutrire altri esseri umani porta dolore così come gioia; frustrazione ed esaurimento così come gioia; la prospettiva di una perdita devastante accanto al guadagno di un amore consumato. E queste soddisfazioni e questi sacrifici non possono essere separati in modo ordinato. Ritirarsi da qualsiasi relazione è rendersi meno vulnerabile, ad un prezzo: è diminuire ciò che si rischia e si dà, ma anche ciò che si può ricevere e guadagnare.

Potrei semplificarmi la vita affidando l’educazione, la disciplina e il nutrimento dei miei figli ai suggerimenti di sistemi esperti, proprio come un governo potrebbe scegliere di premiare o punire le azioni dei suoi cittadini attraverso una sorveglianza implacabile e onnipresente.

In ogni caso, comunque, la fantasia di un’esistenza ottimizzata è una di quelle che svuotano non solo le relazioni delle persone, ma anche il valore della maggior parte delle altre cose che valga la pena perseguire. Significa cercare di imporre una visione vuota di perfettibilità al posto dei conflitti significativi attraverso cui la dignità e il potenziale umano sono affermati e sostenuti.

Virtù per il virtuale

Fondamentalmente, nel momento in cui coloro che progettano e distribuiscono una tecnologia iniziano a cercare l’esperienza degli altri piuttosto che fare supposizioni per loro conto – nel momento in cui iniziano a incarnare domande aperte quali “perché, come e chi” in un processo di progettazione piuttosto che dichiarare che le preferenze di certi tecnocrati sono sinonimo della “logica” della tecnologia stessa – iniziano, per la prima volta, a vedere la tecnologia come è realmente.

Cioè, cominciano a vedere il mondo fatto dall’uomo come uno di quelli di cui i suoi creatori e manutentori sono responsabili e che istanziano costantemente questa responsabilità al suo interno.

Mentre il mondo si piega sotto la pressione della pandemia Covid-19, sta diventando fin troppo facile per la sorveglianza infiltrarsi sempre di più nelle nostre vite – e farlo in nome del mantenimento degli standard, della prevenzione di frodi, della garanzia di equità e della fornitura di supporto ai cittadini.

Tali punti sono vuoti nel profondo: non perché siano inefficaci (è la loro presunta efficacia ed efficienza che le rende così seducenti) ma perché sono troppo spesso corrosivi della possibilità stessa di guadagnare o concedere fiducia. Corrosivi anche degli spazi privati all’interno dei quali la conoscenza di sé, la self-authorship e un ricco impegno reciproco possono avvenire.

Che cosa è necessario

A fronte di ciò, ciò che è necessario è:

  • una comprensione esplicitamente etica dei presupposti incarnati nel design e nell’impiego di una tecnologia.
  • Una comprensione viva della complessità, dell’opacità e delle interdipendenze del contesto del XXI secolo;
  • una comprensione in grado di affrontare e correggere le ingiustizie strutturali a livello istituzionale e tecnologico;
  • una comprensione in grado di definire e difendere le cornici etiche e legali entro le quali la raccolta, la conservazione e l’elaborazione proporzionata e responsabile delle informazioni può avere luogo.

Né la condiscendenza degli esperti né l’elogio decontestualizzato della responsabilità personale sono adeguati a tali compiti – e nemmeno le ragioni universalizzate del dovere morale o il calcolo utilitaristico possono fornire un fondamento etico sicuro.

Nella tradizione etica della virtù, tuttavia, c’è qualcosa di sufficientemente modesto e umano per parlare ai nostri tempi: qualcosa che inizia riconoscendo i nostri limiti, le nostre interdipendenze e il significato delle nostre circostanze; che abbraccia la pluralità di percorsi verso la prosperità umana; e che comprende la natura necessariamente contingente e comunitaria delle pratiche da cui tale prosperità potrebbe derivare.

Al centro dell’idea di virtù c’è la sua coltivazione pratica nel corso di ogni vita e, parallelamente a questo, una fede nel potenziale umano di crescere oltre i nostri inizi: seguire modelli e potenzialmente diventarne uno per gli altri; cercare self-authorship nel contesto di una comunità significativa in un modo strettamente allineato al concetto tedesco di Bildung.

In particolare – nel contesto delle società contemporanee in cui la tecnologia è implicata in ogni aspetto della vita – è necessaria un’etica della tecnologia fondata sull’interrogazione attenta di una pluralità di esperienze.

  • Questa dovrebbe prendere la sua direzione dallo smantellamento delle ingiustizie e delle disuguaglianze incorporate intorno alla “normalità” e alla desiderabilità;
  • delle forme di sfruttamento e manipolazione della sorveglianza;
  • e della perdita di dignità umana e di potenziale che viene dall’esternalizzazione dell’educazione, del lavoro e del governo a sistemi opachi e incontestabili.

Se molto di quanto detto sembra astratto, le sue implicazioni – come si addice a una tradizione filosofica che enfatizza l’importanza della praxis (azione ponderata) e della phronesis (saggezza pratica) – sono fin troppo tangibili.

Come la psicologa sociale Shoshana Zuboff articola nella sua critica al “capitalismo della sorveglianza”, una delle frontiere più significative dell’era dell’informazione per il potere e il profitto implica sistemi algoritmici che prevedono le azioni aggregate dei loro utenti e cospirano per far sì che queste previsioni si avverino. Cioè, comporta il dispiegamento di modelli comportamentali interessati soprattutto a mantenere i loro utenti “bloccati” in certi schemi prevedibili. Per l’autore e tecnologo Jaron Lanier, un tale modello non costituisce niente di meno che la dipendenza per progettazione, con tutte le perdite e le riduzioni che ne derivano: “L’algoritmo sta cercando di catturare i parametri perfetti per manipolare un cervello, mentre il cervello, per cercare un significato più profondo, sta cambiando in risposta agli esperimenti dell’algoritmo…. Mentre l’algoritmo cerca di fuggire da un solco prefissato, la mente umana vi finisce bloccata dentro”.

Digital Ego

È qui che il progetto Digital Ego – che ho sviluppato per Perspectiva insieme allo scrittore e ricercatore Dan Nixon – entra in gioco. Per citare il primo dei suoi principi fondamentali, il progetto è dedicato a “definire e difendere ciò che significa essere liberi nell’era digitale”, in contrapposizione al rimanere “bloccati” all’interno di sistemi esplicitamente progettati per opporsi a tale libertà.

Di conseguenza, il progetto si concentra su modelli di comunità online basati sulla libertà e l’autonomia; sulle sfide all’affermazione dell’ottimizzazione, dell’efficienza e della novità come in qualche modo inerenti alla tecnologia; e, riflettendo l’attenzione trasversale di Perspectiva su sistemi, anime e società, su un resoconto fondamentalmente plurale dei percorsi di fioritura umana.

Nel corso del 2021, il Digital Ego Project svilupperà risorse destinate a facilitare conversazioni più ricche intorno alla tecnologia e alla prosperità umana: per offrire non risposte, ma domande e modelli per smantellare i falsi presupposti intorno alla società e alla tecnologia. Cercheremo di catturare queste conversazioni, di co-sviluppare risorse in risposta ad esse, e di raggiungere le istituzioni che vanno dalle aziende tecnologiche alle organizzazioni no-profit alle scuole sulla base del fatto che l’atto stesso di osservare da vicino e mettere in discussione la propria esperienza – e di seguire da vicino i racconti degli altri – è una base necessaria per un cambiamento significativo.

Come dovrebbe essere la cittadinanza nell’era digitale? Fino a che punto i canali attraverso i quali conversiamo e apprendiamo il mondo modellano la sostanza e lo stile delle nostre apprensioni – e i limiti della nostra empatia e volontà di imparare?

Queste sfide in particolare sono urgenti per il mondo post-pandemico; e affrontarle richiede non tanto tecnologie migliori quanto un impiego migliore e più selettivo della tecnologia, con un’enfasi particolare sulla traduzione del dibattito democratico, della responsabilità e della partecipazione nel dominio digitale, e sulla soppressione della diffusione armata della disinformazione e della falsità.

Il progetto è, spero, un’impresa gregaria e pragmatica: un progetto che riconosce che queste sfide dovrebbero essere risolte principalmente attraverso pratiche e comunità piuttosto che enumerazioni di principi; che non esiste un’analisi della tecnologia che non sia anche un’analisi del suo radicamento in particolari circostanze sociali e politiche; e che uno degli impegni più importanti dell’umanità quando si tratta di tecnologia è quello di resistere e rifiutare le sue implementazioni sconsiderate.

Dai sistemi di riconoscimento facciale alla normalizzazione della sorveglianza onnipresente, dalle armi autonome agli ecosistemi di social media trasformati in arma (weaponised), non c’è mai stato una giustificazione più forte per una moratoria consapevole; per il dissenso e il disconoscimento – e per forme di pensiero etico che pongano tale dissenso su basi solide.

Come dice la filosofa Carissa Véliz nel suo libro del 2020 Privacy is Power, parlare di virtù e di esperienza vissuta nei tempi attuali significa necessariamente parlare di giusta rabbia così come di fredda considerazione; del fatto che la crescita e la fioritura umana a volte sono meglio servite dalla resistenza “Aristotele sosteneva che parte dell’essere virtuosi consiste nell’avere emozioni adeguate alle circostanze. Quando il tuo diritto alla privacy viene violato, è appropriato provare indignazione morale. Non è appropriato provare indifferenza o rassegnazione. Non sottomettersi all’ingiustizia. Non pensare di essere impotente – non lo sei”.

C’è sempre una scelta. La mia speranza è che, insieme, possiamo renderla più spesso una scelta saggia.

BIBLIOGRAFIA

Baggini, Julian. The Godless Gospel (Granta, 2020)

Frischmann, Brett, and Selinger, Evan. Re-engineering Humanity, (Cambridge University Press, 2018)

Gibson, J. J.. ‘The theory of affordances’ (1977). In R. Shaw & J. Bransford (eds.), Perceiving, acting, and knowing: Toward an ecological psychology (Hillsdale, NJ: Erlbaum.)

Hall, Edith. Aristotle’s Way (Penguin, 2018)

Hanna, A., Denton, E. Amironesei, R., Smart, A., Nicole, H. ‘Lines of Sight’ in Logic 12 (20th December 2020)

Jobin, A., Ienca, M. & Vayena, E. ‘The global landscape of AI ethics guidelines’. Nat Mach Intell 1, 389–399 (2019). https://doi.org/10.1038/s42256-019-0088-2

Lanier, Jaron. Ten arguments for deleting your social media accounts right now, (Random House, 2018)

Latour, Bruno. ‘Where are the missing masses, sociology of a few mundane artefacts.’ (1992) in Shaping Technology-Building Society. Studies in Sociotechnical Change, Wiebe Bijker and John Law (eds), (MIT Press, 1992)

MacIntyre, Alasdair. Dependent rational animals (Bloomsbury, 1999)

Sacasas, L. M. The Frailest Thing, (self-published digital edition, 2019)

Singer, Peter. The Life You Can Save (Penguin, 2009)

Vallor, Shannon. Technology and the Virtues, (Oxford University Press, 2016)

Véliz, Carissa. Privacy is Power (Bantam, 2020)

Zuboff, Shoshana. The Age of Surveillance Capitalism, (Profile Books, 2019)

Saggio fornito in inglese dall’autore e tradotto dalla redazione

WEBINAR
19 Ottobre 2021 - 17:00
Business of Experience! Tecnologie e creatività: il mix per esperienze vincenti
Big Data
CRM
@RIPRODUZIONE RISERVATA

Articolo 1 di 4