macchine e alienazione

L’intelligenza artificiale minaccia la nostra responsabilità morale: ecco come

La tecnologia con l’intelligenza artificiale rischia di portare alle estreme conseguenze la sua capacità di alienare l’umano dalle conseguenze delle azioni. Una deresponsabilizzazione con molteplici conseguenze che proviamo a esaminare

15 Nov 2019
Nicola Strizzolo

docente sociologo Università di Udine


E’ uno dei rischi dell’intelligenza artificiale più subdoli e meno discussi: che possa indebolire la nostra responsabilità morale.

Disimpegno morale e disumanità

Lo chiarisce bene Albert Bandura, nel volume tradotto da Riccardo Mazzeo, Disimpegno morale. Come facciamo del male continuando a vivere bene indaga (e soprattutto spiega; 2017): su come le persone possano comportarsi in modo disumano senza perdere la stima in sé stesse, anzi, a volte trovare in questo comportamento conferma del proprio valore. Situazioni che non solo riguardano crudeltà di ampia portata ma anche il vissuto quotidiano. Questo può avvenire grazie a strategie di disimpegno morale che Bandura indica come manovre psico-sociali per deresponsabilizzare le persone dalle proprie azioni. Queste si traducono nello spostare la responsabilità delle azioni, le cause scatenanti, al di fuori di chi le compie: nell’ambiente, nella cultura, nella natura umana, nel contesto, nel dovere, nella vittima o anche a trasformarle, azzerando la disumanità delle stesse, o modificandone la percezione attraverso il linguaggio. Per cui, chi compie gravi ingiustizie o crudeltà può assolversi dicendo: “non è colpa mia”, “è colpa di un’altra persona”, “della situazione”, negando che esista una qualche colpa o negatività nell’azione svolta.

In aggiunta, assistiamo ad una: a) deresponsabilizzazione di massa e ad una b) iperprotettività in ambito formativo.

In base alla prima (a), è sempre colpa di qualcun altro e questa è alimentata da un clima di post verità (di cui il web – tecnologia – è almeno catalizzatore): possiamo sempre costruirci, attraverso le informazioni che ci fanno comodo, la definizione di realtà più accomodante.

Per la seconda (b), “non è colpa di nostro figlio”. In questo appiattimento del giudizio si azzerano però anche relazioni di causa effetto: quella ad esempio tra infrazione (un danno o un abuso) e punizione, tra investimento (impegno nello studio) e premio (il voto). Socializzazione a piene mani alla caduta effettiva di connessione tra titolo di studio e stipendio (o ruolo di governo), prestazione di competenze e costo e, inversamente, lavoro e percezione di un reddito. Come se l’immaterialità della finanza, nella quale non sempre è facile cogliere un senso tangibile, avesse contaminato la concretezza del mondo del lavoro.

Tecnologia e alienazione

In questa alienazione della realtà, in quanto alienazione dalle conseguenze delle azioni, un ruolo determinante lo ha giocato la tecnologia, proprio come l’alienazione dal prodotto del proprio lavoro o l’alienazione più ampia, dell’uomo nella metropoli tecnologica, dall’ambito di una vita relazionale reale (indagato dai primi sociologi come anomia, distacco blasè o disincantamento del mondo).

Tecnologia sono anche le leggi, regolamenti e procedure ai quali si demandano le motivazioni del proprio agire; “ho seguito il regolamento”; le gerarchie: “ho ubbidito agli ordini”; le procedure organizzative interne ed i loro passaggi per parcellizzare e scomporre il male finale in compiti di per sé, se isolati, innocui. Il linguaggio è una tecnologia: per mascherare una scelta come “atto dovuto; licenziamenti collettivi come “razionalizzazione” ed individuali come “possibilità di rimettersi in gioco, di crescere professionalmente e non invecchiare nella stessa azienda”; gli “attacchi preventivi”, spesso per “importare democrazia”, trasformano coloro che vengono attaccati in imminenti aggressori da anticipare, “effetti collaterali” inclusi.

La guerra chirurgica, rappresenta la sinergia di tecnologie (tra cui il termine stesso, che la assimila ad un intervento sanitario) per allontanare il più possibile le vittime da chi preme il grilletto (oggi il clic di un sistema teleguidato) ed il pubblico dalle immagini della guerra; un dispositivo molto discusso, infatti, sono i droni nei quali la distanza del contesto (il pilota può condurre una vita apparentemente comune a quella del suo vicino di casa), la costruzione dell’ambiente lavorativo (il pilota segue sullo schermo delle ricostruzioni di scenari con indicazioni strumentali, alle sue spalle riceve degli ordini – non vede da chi) e la decodifica di ciò che è di difficile interpretazione (cane, bambino o terrorista…) allontana e parcellizza la responsabilità morale percepita.

La stessa “scienza”, nel momento in cui attribuisce caratteri innati che dispongono a certi comportamenti può da una parte – in tribunale è avvenuto – deresponsabilizzare il colpevole, ma anche, in termini di razza, deresponsabilizzare crimini di massa; convinzioni condivise sulla bestialità – deumanizzazione – di un nemico, di una certa etnia o di un regime politico, possono far percepire come giuste azioni efferate.

Il sistema dei lager ha rappresentato l’organizzazione scientifica del male: il risultato era la deumanizzazione delle vittime – già declassate ideologicamente sulla base di una gerarchia di presunte razze – “Scienza”! – e di orientamenti di genere – “Contro natura”! – ridotte a qualcosa di irriconoscibile (come in “Se questo è un uomo” di Levi) e per l’orrore che incarnavano, da rimuovere, pur sempre ottimizzando – sostenibilità infernale – ogni elemento economico.

WEBINAR
WEBINAR - Come trasformare l’esperienza dei clienti e i processi con App e Realtà Aumentata
Intelligenza Artificiale
Marketing

I gulag, non erano da meno, tecnologia per l’allontanamento di ogni possibile – anche preventivamente – forma di dissenso e contraddizione interna, valvola di sfogo di altre contraddizioni insanabili, dalle paranoie dei suo leader, alla corruzione degli uomini del Partito, dei suoi servitori fino ai comuni criminali: in questo caso la vittima è il nemico del popolo, il prigioniero politico, il dissidente, pericolo per l’intera società comunista, umiliato anche dai ladri, da cui veniva spogliato con la complicità delle guardie. Dispositivi nei quali è intrinseco l’asservimento dei suoi principi: ogni forma di dissenso (bastava il sospetto o un’accusa fittizia) viene fagocitata al suo interno per essere triturata dai suoi stessi meccanismi ed il tutto oliato dalla paura e dalla delazione tra prossimi.

Regimi retti anche dalla ideologia della tecnica, asservita per manifestare la loro presunta superiorità rispetto alle altre nazioni e per controllare e indottrinare al suo interno. Sostenuti da personalità autoritarie, che necessitano di delegare a capi le loro scelte di valore e soprattutto di indicare, di volta in volta, a quale capro espiatorio accollare le disgrazie personali e della patria e celebrare così, nella violenza e nell’usurpazione, la superiorità di popolo e individui.

Senza la comunicazione e il controllo delle masse, non sarebbero potute esistere le società di massa, il loro controllo e i crimini di massa.

Ora la tecnologia sta viaggiando sempre più velocemente verso l’utilizzo esteso dell’AI, progresso autoalimentato dall’AI stessa.

L’opacizzazione del legame azione-responsabilità, come di casua-effetto, trova in questa un grande alleato: decide sempre di più al posto dell’uomo (o indirizza le decisioni), privandolo della capacità del libero arbitrio e della responsabilità morale conseguente.

Molte piattaforme, attraverso degli algoritmi che si basano sulle nostre scelte passate, decidono che contenuti offrirci senza doverci impegnare nello sforzo di cercarli o sceglierli. Modalità simili possono essere utilizzate per ipotizzare nostri comportamenti futuri o presunti e costituire seri pregiudizi sotto la forma del controllo, del giudizio con forza di legge, delle assicurazioni, del prestito bancario o delle cure.

Intelligenza artificiale e perdita dell’empatia

In Estonia si sono messe in pratica le prime esperienze di giudici robot.

Una ricerca dell’Università di Alabany (Eubanks, 2018) ha messo in luce come negli USA e in vari altri Paesi siano degli algoritmi ad influenzare la decisione di togliere ai genitori i bambini, per maltrattamenti o carenze genitoriali, o di selezionare a chi riconoscere sussidi di povertà o disoccupazione.

In questa maniera si perde una delle caratteristiche più importanti che va a collocare le scelte nella dimensione umana dell’empatia: si riducono i mediatori umani tra il codice dei regolamenti e le loro applicazioni, in questo caso implementate da codici e algoritmi di macchine.

Ma un’intelligenza senza empatia (e senza un orizzonte etico legate al contesto) è riconducibile alla sociopatia: come sarà allora una società governata da macchine?

Il falso mito della neutralità delle macchine

Inoltre, la neutralità delle macchine è in parte un falso mito: gli algoritmi, per adesso, sono ancora un artefatto umano come la selezione di quali informazioni ritenere salienti. In questo, l’AI potrebbe amplificare, per potenza di calcolo e capacità di pescaggio delle informazioni, dei bias umani.

In altri casi, non si può opportunamente ribattere alle scelte dell’AI, perché l’algoritmo può essere oscurato per motivi di segretezza dei software. È il caso ad esempio di Eric Loomis, che sulla base di indicazioni di algoritmi di AI che hanno previsto una sua elevata tendenza alla violenza ed alla recidività, è stato condannato a 6 anni di carcere. ProPublica, una redazione indipendente, ha condotto una ricerca su 7000 casi evidenziando come solamente un quinto di coloro che secondo gli algoritmi in questione avrebbero commesso crimini, li hanno perpetrati davvero e che quel quinto era in maggioranza afro-americana.

Questo “stigma” algoritmico purtroppo ha degli analoghi in altri ambiti: ad esempio, nel 2015 è stato rilevato come Google mostrava più annunci di lavoro di alto livello agli uomini che alle donne, ma non è stato possibile capire il perché studiando l’algoritmo, ovviamente segreto, mentre un altro studio ha evidenziato che Google News etichettava, con maggiori probabilità, una donna come casalinga e un uomo come programmatore.

Rispetto al delegare scelte e responsabilità alle macchine, chi avrà coraggio di opporsi a indicazioni di IA in ambito sanitario e medico, assumendosi così la responsabilità di rischi?

Fino ad arrivare al caso più esplicito: l’uso dell’AI per creare macchine da guerra in grado di operare in modo autonomo. Compresa la decisione di sparare o no. Contro i killer robots molte associazioni per i diritti civili stanno facendo battaglia. Ma resta un settore dove Cina e Stati Uniti, in primis, stanno investendo molto, nell’idea che la guerra del futuro possa e debba essere combattuta così.

Si dice che se la prima guerra mondiale è stata combattuta con la chimica e la seconda con la fisica (atomica), la terza (eventuale) sarà basata sulla matematica (l’AI).

Solo l’umano ci salverà

E allora cosa ci salverà? L’umano. Sempre e solo l’umano.

Forse potrebbe essere di monito la scelta del tenente colonnello Stanislav Petrov, un analista che la notte del 26 settembre 1983 sostituì, per caso, al turno di guardia ai calcolatori un militare professionista: alle 00.15 improvvisamente giunsero segnali di missili termonucleari lanciati dagli Usa che avrebbero colpito l’URSS in poco meno di mezz’ora. Ma era un analista e pensò con la sua testa: non credeva possibile un attacco militare USA di solamente un grappolo di missili. Si assunse la responsabilità di ritenere i segnali un’avaria del sistema e non applicò il protocollo di comunicare ai vertici per lanciare l’immediata controffensiva, che avrebbe spazzato via, in un conflitto atomico, gran parte dell’umanità.

WEBINAR
Intelligenza Artificiale, Data Analysis e Image Recognition: i vantaggi concreti per l’azienda
Big Data
Intelligenza Artificiale

@RIPRODUZIONE RISERVATA

Articoli correlati