Se l'algoritmo super efficiente minaccia la democrazia: ecco perché | Agenda Digitale

l'analisi

Se l’algoritmo super efficiente minaccia la democrazia: ecco perché

Anche un algoritmo di AI senza errori può essere pericoloso. Perché favorisce la sorveglianza di massa e auto-perpetua disuguaglianze, minacciando equilibri sociali. Il motivo è che la sua efficienza non è finalizzata all’umano e all’utilità sociale, ma solo all’efficienza sistemica e industriale

07 Set 2020
Lelio Demichelis

Docente di Sociologia economica Dipartimento di Economia- Università degli Studi dell’Insubria


Tutte le critiche sociali agli algoritmi di intelligenza artificiale puntano un dito sulle loro inefficienze ed errori, che causano razzismo, discriminazioni. Non riescono a ben riconoscere i volti di afro americani e donne, per esempio, nei sistemi di polizia e così hanno portato innocenti alla sbarra.

Eppure è il momento di affermare un passo ulteriore. Che anche un algoritmo massimamente efficiente produce problemi sociali. Per la semplice ragione che la sua efficienza non è finalizzata all’uomo e all’utilità sociale, ma solo all’efficienza sistemica e industriale di cui l’algoritmo è parte oggi sempre più funzionale.

Sorveglianza di massa

Un primo semplice motivo che porta a questa conclusione è il rischio di sorveglianza di massa. Già adesso l’AI e gli algoritmi favoriscono sistemi di sorveglianza di massa, persino nei Paesi democratici. Quando questi sistemi diventeranno iper-efficienti, non ci sarà scampo alla sorveglianza. Che disastro per la libertà di critica e protesta se la polizia potrà identificare, con riconoscimento facciale, i partecipanti a uno sciopero, una manifestazione.

Anche per questo motivo crescono le richieste di messa a bando delle tecnologie di riconoscimento facciale e alcune municipalità hanno già fatto questo passo. Nell’attesa che ci sia una regolamentazione più precisa, in grado di bilanciare i diversi interessi in gioco.

Perpetuare diseguaglianze automatizzandole

Più complesso comprendere il rischio di aumento delle diseguaglianze e discriminazioni per via di algoritmi molto efficienti nel decidere, ad esempio, a chi dare sussidi, prestiti e a chi dare una pena più severa o sottoporre a un controllo di polizia. Si vedano gli spunti di O’Neill ed Eubanks. Algoritmi orientati solo al profitto delle banche o a ridurre i costi del welfare penalizzeranno certe categorie sociali più a rischio, per motivi di efficienza; così perpetuando e cristallizzando la loro condizione, in un circolo vizioso. Laddove invece una società dovrebbe cercare di aiutare i più deboli a recuperare il distacco con la media.

Un algoritmo poliziesco che controlla e penalizza soprattutto chi vive in un certo quartiere (degradato), anche se è vero che lì ci sono più reati, renderà la vita più difficile ai suoi residenti; aumenterà il tasso di arresti di quelle persone, che poi quindi avranno una fedina penale peggiore della media e da questa saranno ulteriormente giudicati e penalizzati dall’algoritmo. In un circolo vizioso. Che è già in atto nelle nostre società, ma automatizzandolo con l’algoritmo azzeriamo ogni possibilità di eccezione positiva, umana, al destino dei ceti svantaggiati.

Arrivare ad aumentare la severità di una pena di un condannato in base al suo quartiere di residenza – come avviene con certi algoritmi giudiziari americani – è mostruoso perché significa marchiare una persona non per azioni negative che ha fatto ma per condizioni strutturali di partenza. La sua povertà. La criminalizzazione della povertà è uno dei rischi immanenti in una società che si disumanizza affidando scelte sociali agli algoritmi.

E a poco servirà togliere l’attributo razziale nei criteri dell’algoritmo, perché implicitamente la discriminazione razziale verrà fuori lo stesso, se i quartieri poveri sono a maggioranza afro-americani o ispanici. Persino, l’algoritmo potrebbe indirettamente capire da solo che i soggetti sono appartenenti a certe minoranze, mettendo assieme altri paramenti all’apparenza neutri, e confermare una discriminazione razziale.

WEBINAR
Come aumentare il ROI e ottenere forecast sempre più precisi? AI & Deep Learning per il finance
Finanza/Assicurazioni
Intelligenza Artificiale

Le disuguaglianze 2.0

A un livello concettuale più profondo, si può dire che gli algoritmi sono parte ormai strutturale di ciò che chiamiamo tecnica e che è (con Umberto Galimberti) sia l’insieme dei mezzi (cioè le tecnologie) che nella loro crescente integrazione/convergenza in sistemi sempre più grandi compongono l’apparato tecnico o la mega-macchina; sia e soprattutto, essendone la premessa, la razionalità strumentale/calcolante-industriale (riprendendo la Scuola di Francoforte di mezzo secolo fa, ma sempre attualissima) che preside al loro impiego in termini di “funzionalità e di efficienza”. Cioè di calcolo. E quindi la tecnica – in sé e per sé – non ha altro fine (come il capitalismo) che il proprio incessante accrescimento (a questo serve la razionalità solo strumentale/calcolante-industriale che da tre secoli governa la vita dell’uomo industriale/capitalistico), non si pone e non sopporta (o lo sopporta con grande fatica, cercando di liberarsene il più rapidamente possibile) alcun limite di carattere etico, morale, antropologico, fisico/ambientale, democratico e nessun principio di responsabilità per l’oggi e per il futuro; ed anzi crea un mondo tutto artificiale (pur chiamandolo “ecosistema” per farsi accettare come “naturale” e normale facendolo credere capace di autogovernarsi grazie all’insieme di mano invisibile del mercato e di mano invisibile dell’apparato/razionalità tecnica) e chiede di funzionare al massimo dell’efficienza e della prestazione che può richiedere agli uomini e alle macchine, a prescindere del controllo che gli uomini, il demos, possono esercitare sulla tecnica.

Perché ogni razionalizzazione in termini di mera efficienza basata sul calcolo e sulla sussunzione funzionale degli uomini nel sistema tecnico – a questo oggi servono algoritmi/IA/machine learning/Industria 4.0, IoT – produce disuguaglianze, gerarchie e asimmetrie di potere generando una progressiva perdita di soggettività dell’uomo che insieme delega sempre più alle macchine la propria vita: un uomo ridotto ieri ad appendice delle macchine e oggi invece totalmente sussunto/integrato con/a un algoritmo (e anche gli algoritmi sono macchine, cioè “tecnica” nel senso visto sopra, che fanno funzionare altre macchine e gli uomini): questo è l’Industria 4.0, taylorismo digitalizzato; questa è la nostra vita che dipende da un insieme di app, dove il comando sul lavoro e oggi – peggio – sulla vita intera dell’uomo passa/è generato appunto da un algoritmo che ci dice cosa fare, come e in quanto tempo, seguendo l’uomo passo passo nella sua vita, determinandone sempre più le scelte, espropriandolo della capacità e della possibilità umana di valutare e poi decidere. Questo è il post-umano, un mondo che può prescindere dall’uomo e dalla sua Ragione, producendo il massimo di alienazione dell’uomo da se stesso e il massimo di disuguaglianza tra l’uomo (ridotto a minorità e a totale eteronomia kantiana rispetto al potere degli algoritmi che decidono per lui, a prescindere da lui) e le macchine/algoritmi. Algoritmi sempre più simili a un Leviatano hobbesiano, dove però non sono più le leggi dettate dal sovrano politico ad essere le “catene che legano le orecchie di ciascun uomo alla bocca del sovrano che dice la legge”, come per Hobbes, ma appunto un algoritmo, una catena virtuale che ci lega, facendoci però credere di essere liberi (essendo una catena virtuale, che non si impone in modo hard ma ci guida in modo soft – ed è un’altra forma di disuguaglianza, questa volta esistenziale).

L’uso capitalistico delle macchine (e degli algoritmi)

Perché tecnica e capitalismo sono una cosa sola – ciò che chiamiamo “tecno-capitalismo” – sono reciprocamente funzionali (al reciproco accrescimento) e le macchine (la tecnica, gli algoritmi che sono macchina e il massimo della razionalizzazione strumentale/calcolante-industriale) sono usate dal capitalismo e il capitalismo, come la tecnica, non è fondato sulla uguaglianza e la fraternità e neppure sulla libertà vera dell’uomo, ma sulla produzione incessante di disuguaglianza e di competizione. Come scriveva Raniero Panzieri settant’anni fa, ma attualissimo ancora oggi nella sua analisi qualitativa del sistema – richiamandolo ma rivedendo criticamente la posizione positivistica di Marx sulle macchine: “La tecnologia, incorporata nel sistema capitalistico consolida sistematicamente la divisione del lavoro quale mezzo di sfruttamento della forza-lavoro (…) ma allo stesso tempo si completa la sua assoluta dipendenza dall’insieme della fabbrica, quindi dal capitalista. Lo stesso progresso tecnologico si presenta quindi come modo di esistenza del capitale, come suo sviluppo e nel moderno sistema di fabbrica l’automa stesso è il soggetto e gli operai sono coordinati ai suoi organi incoscienti solo quali organi coscienti e insieme a quelli sono subordinati a quella forza motrice centrale. Si può dunque stabilire” – continuava Panzieri – “a) che l’uso capitalistico delle macchine (…) determina lo sviluppo tecnologico; b) che la scienza, le immani forze naturali e il lavoro sociale di massa… sono incarnati nel sistema delle macchine e…con esso costituiscono il potere del padrone. Per cui lo sviluppo capitalistico della tecnologia comporta, attraverso le diverse fasi della razionalizzazione di forme sempre più raffinate di integrazione ecc., un aumento crescente del controllo capitalistico (…) nel progressivo espandersi della pianificazione dalla fabbrica al mercato, all’area sociale esterna”. E più è sussunto nella fabbrica/macchina, più l’uomo perde (di nuovo) soggettività, adattandosi/identificandosi con la macchina e sussumendosi alla soggettività predominante/prevaricante della macchina (subordinandosi alla macchina e quindi disuguagliandosi rispetto alla macchina/algoritmo). Ovvero, essendo l’algoritmo utilizzato capitalisticamente ed essendo il capitalismo disuguagliante/disruptivo per essenza e vocazione, l’algoritmo non può che essere disuguagliante. Ovvero, gli algoritmi sono/permettono la nuova/vecchia organizzazione scientifica del lavoro. Potrebbe esistere un algoritmo non capitalistico, non disuguagliante? Dovremmo prima uscire dalla razionalità strumentale/calcolante, di cui l’algoritmo è figlio…

La rete/algoritmi come fabbrica integrata globale

Di più, ancora Panzieri: “la fabbrica si generalizza, tende a pervadere e a permeare tutta la società civile. (…) E la fabbrica scompare come momento specifico. Lo stesso tipo di processo che domina la fabbrica, caratteristico del momento produttivo, tende a imporsi a tutta la società e quindi quelli che sono i tratti caratteristici della fabbrica (…) tendono a pervadere tutti i livelli della società”. Cioè il capitalismo cerca in ogni modo di “estendere la sua razionalizzazione” strumentale/calcolante-industriale “oltre i limiti della fabbrica, per ritornare poi a questa” – e oggi possiamo dire che, grazie a rete/digitale/algoritmi questa fabbrica pervade l’intero globo e lo ha occupato con la sua razionalità irrazionale e disuguagliante (oltre che insostenibile ambientalmente).

È una fabbrica integrata globale dove tutti siamo messi al lavoro h24 e sette giorni su sette (la tendenza del capitale, scriveva già Marx è quella di estendere la durata della giornata lavorativa alle 24 ore), ovvero siamo proletari globali di una fabbrica globale chiamata rete che funziona grazie ad algoritmi e questa fabbrica non ha un sindacato globale, anzi non deve avere un sindacato, non è democratica (il manager e la gestione/organizzazione del lavoro è fatta da un algoritmo autocratico e automatico), quindi genera il massimo di disuguaglianza dentro la fabbrica globale (dove però tutti si devono credere imprenditori di se stessi), dove il vero padrone (la razionalità strumentale/calcolante-industriale) è invisibile ma assolutamente presente e dominante (sempre nel senso visto sopra).

Essendo basate su una mera razionalità strumentale/calcolante-industriale, la tecnica e le macchine, compresi quindi gli algoritmi, prescindono e anzi rimuovono deliberatamente non solo – come detto – ogni concetto di limite e di responsabilità, ma anche di giustizia sociale, ambientale, redistributiva e soprattutto di democrazia: perché se gli algoritmi imparano da soli o sono gestiti da imprese private o non possiamo controllarli nella loro genesi e nel loro funzionamento, il sistema non può che produrre/pianificare deliberatamente un colossale deficit di democrazia e di cittadinanza attiva e uno sbilanciamento dei poteri mentre si accresce la disuguaglianza sociale, civile e politica.

L’efficienza basata solo sul calcolo – se non contrastata da una diversa razionalità, umanistica e ambientale – considera infatti la giustizia e l’uguaglianza e la democrazia come qualcosa di irrazionale in sé, che inceppa il buon funzionamento della macchina e dell’algoritmo, rappresentando cioè una distorsione rispetto alla razionalità calcolante (e infatti qualcuno vorrebbe sostituire il voto con una serie di feedback, perfettamente funzionali a questa razionalità irrazionale). Giustizia e uguaglianza – come il concetto di fraternità/solidarietà – quindi non rientrano (non devono rientrare) tra i parametri inclusi in un algoritmo.

E se gli algoritmi sono razzisti (secondo l’US Department of Justice, in America si ha più del doppio di probabilità di essere arrestati se si è neri invece che bianchi; e un nero ha cinque volte più probabilità di un bianco di essere fermato dalla polizia senza una giusta causa; non solo, secondo il Mit: “A number of studies have shown that these tools perpetuate systemic racism, and yet we still know very little about how they work, who is using them, and for what purpose. Or (…) far from avoiding racism, they may simply be better at hiding it. Many critics now view these tools as a form of tech-washing, where a veneer of objectivity covers mechanisms that perpetuate inequities in society”), lo sono molto di più in termini di creazione deliberata e pervasiva di disuguaglianza nel potere di controllo sul loro funzionamento e sulla loro impostazione (che dovrebbe essere ex ante e non solo ex post), sulla capacità di modificarne e governarne gli effetti, in termini di potere sulla vita umana.

La sovrastruttura algoritmica

E se l’uso che le polizie fanno dei dati raccolti sui criminali o sugli oppositori al sistema – veri o presunti – contengono dei bias (termine che in psicologia indica una propensione a dare della realtà una propria versione soggettiva, basata su pregiudizi personali o su dati e informazioni raccolte in modo non corretto, portando così a un errore di valutazione o a una mancanza di oggettività di giudizio sulla base, appunto, di pre-giudizi) che ne stravolgono la scientificità, producendo errori clamorosi e soprattutto discriminazioni di massa, analogamente accade per gli algoritmi di organizzazione del lavoro, del consumo, dei social e della raccolta dei dati personali (dove si raggiunge il massimo della disuguaglianza tra l’uomo (che non sa come funzionano questi algoritmi e che uso ne viene fatto e chi li controlla), e la macchina/algoritmo. Per cui non basta cercare di eliminare i bias introdotti per rendere l’algoritmo meno discriminante e meno disuguagliante, poiché resterebbe comunque la profilazione/spionaggio di massa: che è una pratica tipica dei totalitarismi ma inaccettabile sempre e comunque se svolta da parte di uno stato (specie se si dice democratico e se ha una Costituzione, come quella italiana che all’articolo 15 afferma esplicitamente che “la libertà e la segretezza della corrispondenza e di ogni altra forma di comunicazione sono inviolabili. La loro limitazione può avvenire soltanto per atto motivato dall’autorità giudiziaria”), e soprattutto di un’impresa privata.

Ovvero, possiamo dire quindi che il potere (di polizia ma soprattutto tecno-capitalista) – e rifacendoci ora a una lettura marxiana della realtàgenera oggi anche una sovrastruttura algoritmica discriminante/escludente e soprattutto disuguagliante per legittimare e replicare in altro modo, ma con gli stessi obiettivi un discorso di classe (ma insieme evitando la lotta di classe), garantendo così la perpetuazione della struttura di potere capitalistico-borghese-maschile dominante, mantenendo e accrescendo la distinzione tra dominanti e dominati grazie agli algoritmi (nome-mantello che in realtà contiene molte cose).

L’algoritmo come carcere e come gabbia d’acciaio

Se Michel Foucault – autore del famoso e fondamentale “Sorvegliare e punire”, dove una parte fondamentale del saggio era dedicata al Panopticon e al controllo di massa sugli individui che nasce con quella modernità che contraddittoriamente si dice liberale – fosse vivo oggi aggiungerebbe un nuovo capitolo al suo saggio del 1975, e modificherebbe probabilmente il titolo in “Sorvegliare, predire e punire”, trasformando il sottotitolo di allora (“Nascita della prigione”, intendendo per prigione non solo quella carceraria in senso stretto), in “La digitalizzazione della prigione” o “La prigione digitale”. Qui ricordando come Foucault sostenesse che il sistema “carcerario” – che nasce nel XVI secolo ma che si rafforza sempre più dal XVIII e XIX secolo, parallelamente e in sincronia con la rivoluzione industriale, portandoci fino all’oggi dove cambia la “forma” del sistema carcerario, ma non la sua “norma” di funzionamento e di organizzazione/divisione sociale – ha come scopo quello di rendere “naturale e legittimo il potere di punire”; che il suo funzionamento panottico (oggi panottico-algoritmico) si basa su incessanti procedure “di fissazione, ripartizione, registrazione” degli uomini (appunto, oggi i dati che tutto “registrano”, “ripartendo” per categorie e “fissando” i comportamenti in stereotipi/pregiudizi/bias), tendenti a generare “una immensa attività di esame che ha oggettivato i comportamenti umani” (oggi il Big Data, l’uomo ridotto non più solo a cosa – Marx, ancora – ma a mero dato, la datificazione dell’uomo essendo forse peggio della sua reificazione a cosa/merce). Dove il sistema carcerario – basato sugli elementi definiti da Foucault – si replica anche nel capitalismo come weberiana gabbia d’acciaio, che “fissa” i comportamenti secondo la propria razionalità strumentale, cioè finalizzata al profitto, dopo averli “registrati e ripartiti” per schemi preordinati/bias (con il marketing e le diverse forme di organizzazione scientifica del lavoro che hanno anticipato gli algoritmi ma la logica è la stessa, cambia il modo con cui viene perseguito l’obiettivo della classificazione, della registrazione e quindi della standardizzazione/ingegnerizzazione degli uomini).

Un processo invasivo e insieme espropriativo della soggettività umana – quindi nuovamente disuguagliante – che riguarda la polizia di tutti i paesi del mondo e soprattutto un capitalismo ormai globale (contro il quale a volte si alzano grida di protesta), e soprattutto quelle macchine capitalistiche di datificazione/”registrazione-ripartizione-fissazione” (e quindi di ingegnerizzazione dei comportamenti umani) che si chiamano social (contro i quali pochissimi alzano invece grida di protesta, facendosi fuorviare dal termine social).

E si pensi ancora agli algoritmi utilizzabili nei luoghi di lavoro e negli smartphone aziendali concessi ai dipendenti, così rendendo disponibili per l’impresa molte informazioni private utilizzabili anche per decidere quali compiti affidare al lavoratore o per motivare un suo licenziamento; alla capacità di riconoscimento facciale (pratiche cresciute a dismisura con il covid-19 per evitare ogni forma di touch), all’utilizzo degli algoritmi nei sistemi sanitari, alle smart cities e all’IoT che permettono il controllo di dati e informazioni relative alla vita delle persone e dei gruppi, affidandoli per di più nelle mani di società private il cui fine è – di nuovo – la massimizzazione del profitto.

Il nuovo che avanza verso il passato

Ricapitoliamo. La rete era nata libera e un poco anarchica, e questo ci piaceva tanto, figlia virtuosa e creativa del “sessantotto” – così sembrava a noi che ne eravamo figli, continuando oggi con i suoi nipoti – e invece è diventata oggi tutto meno che libertaria perché è piuttosto una “fabbrica integrata globale” dove tutti siamo messi al lavoro a mobilitazione totale e a produttività crescente. Si diceva anche che fosse libera e democratica (“uno vale uno”, la sua promessa di orizzontalità…) quando in realtà è governata da un sistema che ha orizzontalizzato non la democrazia (semmai sempre più verticalizzata via rete e populismi digitali – un’altra forma di disuguaglianza politica), ma la “forma” della fabbrica, comunque centralizzando ancora di più il comando del sistema sulla vita dell’uomo.

Anche l’Industria 4.0 sembrava un altro “nuovo che avanzava” mentre il “capitalismo di piattaforma” ci prometteva di poter essere imprenditori di noi stessi e non più lavoratori subordinati/proletari (e quale meraviglia poter diventare “il boss di se stessi”, come titolava pochi anni fa – dimostrando una totale incapacità di analisi dei processi in atto – un importante settimanale di “affari e finanza”): e invece la prima è quasi solo il vecchio taylorismo, sia pure nella “forma” digitale (ma peggio del primo, per l’incremento ulteriore dei tempi-ciclo di lavoro e della subordinazione dell’uomo alla macchina/algoritmo), mentre il secondo si è manifestato per quello che avevamo indicato fin dal suo inizio, cioè una forma esternalizzata/decentralizzata di fordismo-taylorismo, ma anche di caporalato. Tutte forme di disuguaglianza e di alienazione permesse/prodotte da algoritmi che per altro crediamo perfettamente razionali perché sempre più “In Machine we trust”.

Ovvero, l’innovazione può tradursi in conservazione, il progresso in regresso – anche se si offre come nuovo, noi incapaci di distinguere tra la buona Ragione illuministica e la pessima razionalità strumentale/calcolante-industriale – imposta dal capitale cancellando la Ragione illuministica, per massimizzare oggi algoritmicamente i propri profitti accrescendo il nostro pluslavoro alle 24 ore (che è un’altra forma, ancora, di disuguaglianza).

Il foucaultiano “Sorvegliare e punire” è traducibile infatti anche in “sorvegliare per produrre profitto privato”. In entrambi i casi si tratta di una evidente violazione della libertà dell’uomo, portato “liberamente” (a questo servono il marketing e l’economia comportamentale) a preferire “un po’ di sicurezza rinunciando alla felicità e alla libertà” – come scriveva Sigmund Freud. Con la differenza – e questo cambia radicalmente la riflessione di Freud – che oggi i social-panottici-fabbrica promettono anche la felicità e la socialità e l’amicizia e molti like, in cambio della libertà (potendo funzionare infatti solo grazie alla rinuncia di ciascuno a quella privacy che della libertà è fattore costitutivo, perché: no privacy, no libertà). Offrendoci cioè molta sicurezza (essere parte di una comunità/community autoreferenziale e confortevole, avere molti amici e molti followers), insieme a un po’ di felicità (i like che attivano in noi la giusta dose di dopamina): con il che la rinuncia alla libertà – e l’accettazione della disuguaglianza, come della alienazione – diventa persino piacevole e desiderabile.

WHITEPAPER
Data warehouse nel cloud: 6 considerazioni per un passaggio efficace
Big Data
Cloud

@RIPRODUZIONE RISERVATA

Articolo 1 di 2