Homo Sapiens o intelligenza artificiale? Ecco perché stiamo sbagliando tutto | Agenda Digitale

Atlas of ai, il libro

Homo Sapiens o intelligenza artificiale? Ecco perché stiamo sbagliando tutto

Nel libro “Atlas of AI”, Kate Crawford scrive di come intendiamo e viviamo l’AI con troppo ottimismo, se non – aggiungiamo – con feticismo. Ma soprattutto ci ammonisce sul fatto che occorre, urgentemente, una forma di regolamentazione

27 Mag 2021
Lelio Demichelis

Docente di Sociologia economica Dipartimento di Economia- Università degli Studi dell’Insubria

Davvero siamo sapiens, nel senso di uomini sapienti ma anche intelligenti? Oppure siamo implicitamente consapevoli di non esserlo – e di non poterlo mai essere davvero – che preferiamo annullarci e annichilirci del tutto, rinunciare alla nostra soggettività e autonomia, alla conoscenza e alla sapienza e alla intelligenza (a ciò che ci definisce come sapiens), delegando tutto alle macchine? E ancora: siano davvero sapiens se abbiamo creato delle macchine – da ultimo l’Intelligenza Artificiale (“una forma di intelligenza non biologica, in grado persino di apprendere e migliorarsi e che, nel suo progresso continuo, può avere un importante impatto sulle nostre vite, società, economie”[1]) – capaci di sostituirci e di rendere tutto automatico, veloce ed efficiente in termini di produttività? E macchine capaci magari (è forse il nostro sogno nascosto?) di darci le risposte prima ancora di avere fatto le domande, convinti (da chi, come e con quale scopo?) che pensare è una fatica diventata insopportabile, da cui è meglio liberarci il prima possibile – e se una macchina intelligente lo può fare al posto nostro, perché non farglielo fare?

E perché non ascoltiamo l’attrice Rosamund Pike, interprete di Marie Curie, per la quale “usare il cervello è più sexy che saper usare Instagram” e invece continuiamo a credere che nulla sia più sexy di un touch-screen e di camminare con la testa piegata sullo schermo dello smart-phone, invece di guardare il mondo? Un nuovo libro ci aiuta a ragionare ancora di Intelligenza Artificiale. E di molte altre cose.

Il pensiero e/o il calcolo

Ma prima di arrivare al libro, ancora due riflessioni – come dire? – filosofiche. Ovvero, possiamo dirci sapiens se ci affidiamo non più al pensiero lento, quindi riflessivo e responsabile, ma al calcolo e a un algoritmo sempre più veloce, dimenticando quanto scriveva il filosofo Aldo Masullo, cioè che “il pensiero senza il controllo del calcolo, è delirio. Ma il calcolo, sottratto al governo della vita pensante, è insensatezza”[2], cioè: solo il pensiero (lento) genera libertà; on invece la tecnologia che genera piuttosto dipendenza da sé stessa; e neppure il mero calcolo. E invece crediamo di essere liberi delegando appunto alle macchine – compresa l’AI – la nostra libertà; che tuttavia è tale solo e solo se siamo consapevolisapiens, appunto – delle scelte che compiamo e responsabili delle azioni che effettuiamo – altrimenti diveniamo pezzi di una macchina che è per altro sfuggita al nostro controllo, che anzi ci rifiutiamo sempre più di controllare (è intelligente e automatica, quindi perché controllarla, dato che si controlla da sola?), questa delega alle macchine riempiendoci anzi di un godimento quasi erotico. Cioè dimentichiamo (ancora Aldo Masullo) che “la tecnica è diventata oggi una sfida continua alla libertà dell’uomo”.

WEBINAR
30 Giugno 2021 - 12:00
Taglio netto di costi e tempi: ecco il Webinar che svela i segreti della rivoluzione RPA
Intelligenza Artificiale
IoT

Dire questo non significa – sia chiaro – essere tecnofobi (il sogno di chi scrive è anzi quello di essere su una delle sonde Voyager che sono uscite dal sistema solare e stanno esplorando lo spazio interstellare – e questa è tecnologia che produce conoscenza, mentre l’AI ci toglie conoscenza e ci chiede – ma è il sistema tecnico e capitalista e il sistema formativo che ce lo impone – di acquisire soprattutto competenze/skills a fare – e a farlo sempre più in automatico – e non conoscenza per pensare prima di fare). Dire questo vuole invece richiamare l’attenzione sul fatto che una tecnologia non controllata è altamente rischiosa per la libertà dell’uomo, per la sua autonomia, per la democrazia, l’uomo ponendosi alle dipendenze di qualcosa che non controlla, cioè rinuncia a priori alla propria libertà. Ma questo è proprio il comportamento infantile – volutamente inconsapevole, volutamente irresponsabile – che teniamo nei confronti dell’innovazione tecnologica, delle macchine e oggi anche dell’Intelligenza Artificiale – ingegnerizzati a credere che questo sia il nuovo che avanza e che non si può e non si deve fermare.

E ancora, ma passando a un piano diverso (o apparentemente diverso, posto che si manifestano in realtà i medesimi meccanismi comportamentali): possono dirsi sapiens i 30mila che hanno riempito Piazza Duomo a Milano per festeggiare lo scudetto dell’Inter (uno spettacolo osceno e soprattutto oltraggioso per i 120mila che sono morti di Covid-19)? Quanti di quei 30mila (tutti, ovviamente) sono bravissimi a smanettare tutto il giorno con uno smart-phone, cioè con l’Intelligenza Artificiale, ma sono chiaramente privi di senso di responsabilità e di rispetto per sé stessi e per gli altri. Di più: applicando quella forma di Ignoranza Artificiale che sono i comportamenti di gregge e di folla di cui scriveva il controverso ma sempre necessario Gustave Le Bon cento e più anni fa: quella folla “che non accumula intelligenza, ma mediocrità” e dove “ogni sentimento, ogni atto è contagioso e contagioso a tal punto che l’individuo sacrifica molto facilmente il proprio interesse personale all’interesse collettivo”, seguendo le logiche della suggestione e del contagio e acquisendo “una sorta di anima collettiva per il solo fatto di appartenere a una folla”, che “li fa sentire, pensare e agire in un modo del tutto diverso da come ciascuno di loro – isolatamente – sentirebbe, penserebbe e agirebbe”[3]?

Non è forse questo il nostro comportamento folle e di folla anche rispetto alla rete, ai social, ai processi di innovazione tecnologica, alla stessa IA?

Atlas of AI

E veniamo al libro – “Atlas of AI” – e alla sua autrice, Kate Crawford[4], docente alla University of Southern California e ricercatrice a Microsoft. Che scrive di come sulla AI stiamo sbagliando quasi tutto, o meglio, che la intendiamo e la viviamo con troppo ottimismo, se non – aggiungiamo – con feticismo. Ma soprattutto ci ammonisce sul fatto che occorre, urgentemente, una forma di regolamentazione (“many applications and side effects of AI are in urgent need of regulation”) – e qui diciamo che l’Europa è più avanti rispetto agli Usa – il 21 aprile scorso la Commissione europea avendo pubblicato una proposta di Regolamento appunto per i sistemi di Intelligenza Artificiale, offrendo per la prima volta un quadro legislativo generale e sufficientemente coerente per questa tecnologia.

Dunque, partiamo dalla affermazione perentoria di Kate Crawford: “AI is neither artificial nor intelligent”. Che aggiunge: “AI systems are not autonomous, rational, or able to discern anything without extensive, computationally intensive training with large datasets or predefined rules and rewards”. Di più: “AI systems are ultimately designed to serve existing dominant interests. In this sense, artificial intelligence is a registry of power”. Che produce effetti sociali oltre che tecnologici, come tutte le tecnologie moderne. Infatti (…) artificial intelligence is a purely technical domain. At a fundamental level, AI is technical and social practices, institutions and infrastructures, politics and culture. Computational reason and embodied work are deeply interlinked. AI systems both reflect and produce social relations and understandings of the world.”[5].

E questo ci trova pienamente d’accordo; come non si può non essere d’accordo nel ribadire il dato di realtà che sempre Kate Crawford opportunamente invece ci ricorda – ma che troppo spesso dimentichiamo, credendo che tutto sia quasi-magico – ovvero che “AI is made from vast amounts of natural resources, fuel, and human labor”. Ma soprattutto che vi sono profonde differenze tra la mente umana e l’intelligenza artificiale – che “is not able to discern things without extensive human training, and it has a completely different statistical logic for how meaning is made”. E invece – e questo fin dai primi sviluppi dell’Intelligenza Artificiale – sempre ci è stato fatto credere che “minds are like computers and vice versa”. Ovvero, l’AI è uno strumento del potere e di potere. È una forma di capitalismo che diventa tecnologia che diventa una forma del potere politico e sociale del capitale, prima che tecnologico in senso stretto. E quindi, ancora Kate Crawford: “By invoking an atlas, I’m suggesting that we need new ways to understand the empires of artificial intelligence. We need a theory of AI that accounts for the states and corporations that drive and dominate it, the extractive mining that leaves an imprint on the planet, the mass capture of data, and the profoundly unequal and increasingly exploitative labor practices that sustain it”[6].

Matematizzazione del mondo e naturalizzazione dell’artificiale

Ma soprattutto e molto peggio, l’AI “is explicitly attempting to capture the planet in a computationally legible form”[7].

Ovvero – aggiungiamo e integriamo le riflessioni di Kate Crawford – le retoriche sulla AI sono anche o soprattutto una tecnica di ingegnerizzazione comportamentale per renderci normale e farci meglio accettare l’avvento dell’Intelligenza Artificiale e soprattutto la trasformazione del mondo e della vita in matematica, in calcolo, in quella che la Scuola di Francoforte chiamava più di secolo fa, criticandola in quanto negazione dell’illuminismo, razionalità strumentale/calcolante-industriale. Tecniche di ingegnerizzazione comportamentale utili per farci vivere anche l’AI come simile a noi; e che quindi, essendo simile a noi e al nostro cervello, è qualcosa di naturale (anche se non biologico o chimico come il cervello, per non parlare di quella vecchia e dimenticata cosa che si chiamava anima), che si affianca al cervello umano per aiutarlo.

D’altra parte, creare affinità tra il mondo artificiale/virtuale e quello naturale, parlare di ecosistemi digitali richiamando il concetto di ecosistema naturale (quando in realtà sono due cose profondamente diverse), fa parte di quei processi e di quelle pedagogie di naturalizzazione dell’artificiale che servono appunto a introdurre qualcosa di artificiale in un mondo naturale e nel mondo degli uomini. Uomini sempre affascinati, come bambini, dalla tecnologia, ma da sempre bisognosi di credere che l’artificiale che hanno prodotto non corrompa il naturale, anche se poi è proprio questo l’effetto che si produce.

Qualcosa di psicologico e di psicologia sociale che ha a che fare con quella tecnica moderna e industriale che è tutta diversa dalla tecnica e dalle tecnologie pre-moderne/pre-industriali, essendo queste ultime soprattutto macchine singole, cioè nella piena disponibilità del soggetto che deve usarle avendo consapevolezza del come erano fatte e per cosa servivano; mentre le tecnologie moderne sono macchine che funzionano solo se integrate in (o che formano) macchine più grandi, essendo il principio di convergenza (“una convergenza inarrestabile, che è causata dalla tecnica, perché la tecnica è la rivoluzione permanente”) delle macchine/tecnologie, secondo Anders[8] l’essenza della tecnica moderna e del tramutarsi delle forme tecniche in forme sociali – cioè il modo in cui funzionano le macchine diventa il modo con cui noi funzioniamo con le macchine e come macchine o addirittura, come con l’AI, siamo sostituiti dalla macchine non tanto nel fare quanto nel pensare.

Perché l’AI/machine learning/algoritmi che imparano da soli sono la realizzazione del concetto di auto-referenzialità (creano cioè la narrazione che li sostiene/promuove, che li legittima e li riproduce); sono autotelici secondo il sociologo Luciano Gallino (“i sistemi tecnologici paiono in certi casi riprodursi ed evolversi come se, anziché mezzi per aiutare la nostra sopravvivenza e riproduzione, o quella dei sistemi socioculturali (…), essi badassero anzitutto ai loro interessi riproduttivi”[9]); o autopoietici, cioè sistemi, in particolare tecnici come appunto l’AI, che hanno la caratteristica di escludere ogni necessità di un organismo/soggetto individuale o collettivo con funzioni di governo e di organizzazione (come ad esempio il demos sovrano), in quanto sono essi stessi capaci di svolgere funzioni organizzative e ordinatrici, ponendosi così nella condizione di essere allo stesso tempo soggetto che ordina e oggetto dell’ordine da essi stessi prodotto[10]. Appunto, come l’AI, capace di decidere autonomamente.

È il massimo dell’alienazione umana. Ma la chiamiamo Intelligenza Artificiale, con un mix di feticismo e di sadomasochismo – cioè quella condizione sadomasochistica dell’uomo che genera in lui il piacere della sottomissione e dell’obbedienza (in particolare nella società capitalistica e tecnologica, che necessita di uomini funzionali alle proprie esigenze di funzionamento e di profitto privato – ma possiamo rifarci anche al rapporto servo-padrone di Hegel o alla servitù volontaria di Etienne de la Boètie); sadomasochismo di cui si era occupata anche la Scuola di Francoforte (in particolare Erich Fromm ed Herbert Marcuse) nella ricerca su “Autorità e famiglia” del 1936. Con la differenza che oggi non è tanto la famiglia borghese a generare questo piacere della sottomissione e dell’obbedienza (anche all’AI), ma il tecno-capitalismo in sé e per sé.

E se scrivessimo intelligenza artificiale in minuscolo?

Di cui l’Intelligenza Artificiale – domanda: e se iniziassimo intanto a scriverla in minuscolo, giusto per detronizzarla da quel luogo fideistico e metafisico a cui ingenuamente l’abbiamo elevata, mitizzandola e facendone oggetto di una autentica religione tecnologica? – è solo l’ultimo tassello. Ovvero, quell’uomo che senza la tecnica non sopravvive si ritrova oggi ad essere esautorato da quell’intelligenza artificiale che pure ha creato, ma che oggi procede sempre più in automatico, a prescindere dall’uomo. Bell’esempio di eterogenesi dei fini – quel processo che si ha quando, rispetto a un fine che si vuole raggiungere si produce invece qualcosa di opposto alle intenzioni.

Scriveva il francofortese Max Horkheimer, già nel 1972: “la società si trasformerà in un mondo totalmente amministrato. (…) Tutto potrà essere regolato automaticamente (…), tutto si ridurrà al fatto di imparare come si usano i meccanismi automatici che assicurano il funzionamento della società”[11].

Che è appunto la società calcolante-industriale/algoritmica/matematizzata e di intelligenza artificiale di oggi.

Bibliografia

  1. A. Longo – G. Scorza (2020), “Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà), Mondadori Università, Milano, pag. 1
  2. A. Masullo (2011), “La libertà e le occasioni”, Jaca Book, Milano, pag. 208
  3. G. Le Bon (2004), “Psicologia delle folle”, Tea, Milano, pag. 49 e 53
  4. K. Crawford (2021), “Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence”, Yale University Press, New Haven and London
  5. Ivi, pag. 8
  6. Ivi, pag. 10
  7. Ivi, pag. 11
  8. G. Anders (2003), “L’uomo è antiquato” II, Bollati Boringhieri, Torino, pag. 98
  9. L. Gallino (2007), “Tecnologia e democrazia”, Einaudi, Torino, pag. 124
  10. L. Demichelis (2020), “Sociologia della tecnica e del capitalismo. Ambiente, uomini e macchine nel Tecnocene”, FrancoAngeli, Milano, pag. 130
  11. M. Horkheimer (1979), “La società di transizione. Individuo e organizzazione nel mondo attuale”, Einaudi, Torino, pag. 168 e 174
@RIPRODUZIONE RISERVATA

Articolo 1 di 4