“Le macchine sono in grado di pensare?” – si chiedeva Alan Turing in un famoso, citatissimo ma a volte oscuro articolo pubblicato sulla rivista di filosofia Mind nel 1950 e ora riproposto – per la cura, con la traduzione e il commento analitico di Diego Marconi – da Einaudi, conservando il titolo originale di Macchine calcolatrici e intelligenza[i].
Indice degli argomenti
La domanda di Turing: possono le macchine pensare?
E poi aggiungeva – dopo avere spiegato quello che definiva come gioco dell’imitazione: “Cosa intendiamo con la parola macchina?” – che è tema di stretta attualità anche allora, sì che “l’attuale interesse per le macchine pensanti è stato stimolato da un particolare tipo di macchina che di solito viene chiamata calcolatore elettronico o calcolatore digitale”[ii].
Domande che non possono non riproporsi appunto oggi, in tempi di algoritmi e di cosiddetta intelligenza artificiale – che sono comunque macchine, a cui molti attribuiscono il potere e la capacità (già oggi o domani) di pensare. Ma che pensiero pensano, ammesso che davvero pensino, le macchine e l’intelligenza artificiale? E non è forse conseguente che se le macchine pensano, meno pensano gli umani che le usano, portati ad accettare sempre di più ciò che pensano o non pensano le macchine?
La funzione dell’intelligenza artificiale tra tecnica e capitalismo
Su tutto: l’intelligenza artificiale produce sapere/conoscenza oppure è un ulteriore passaggio nella colonizzazione capitalistica e tecnica del mondo e della vita?
Giusta la seconda – e quindi non è sapere ma solo un gioco di potere che deve ridurre il sapere e la conoscenza umana (questo è nel determinismo/teleologia di capitalismo e tecnica) dopo averla integrata in macchine che funzionano solo in termini di tecnica (semplificazione – e “mi semplifichi il documento” è appunto la prima cosa che ci offre l’Assistente IA sul nostro pc, escludendo ogni approfondimento -, schemantismi, automatismi, specialismi, ripetizione del già detto/pensato ma in forme apparentemente sempre nuove) e di capitalismo (profitto, profitto e ancora profitto).
E ancora, le macchine che pensano – ammesso che davvero pensino – sapranno fare pensiero critico (il pensiero, se non è critico non è pensiero)? No, ovviamente – e quindi non dovremmo essere noi cosiddetti sapiens a costruire una nuova Teoria critica, rielaborando e aggiornando quella della Scuola di Francoforte? Ma oggi esiste ancora qualche sapiens capace di fare pensiero critico sulla tecnica – e qualche sapiens capace di fare pensero critico sul capitalismo e di dirsi con orgoglio anti-capitalista?
Domande a cui cerchiamo di dare risposta partendo dunque da Turing.
Padre venerato delle macchine pensanti, il quale tuttavia ricordava – per noi senza rendersi conto della contraddizione implicita introducendo il concetto di calcolabilità – come il calcolo aritmetico è “un procedimento automatico: non richiede inventiva, tanto che potrebbe essere svolto da una macchina”[iii]. E poiché le macchine – anticipiamo una parte della nostra risposta – funzionano sulla base del calcolo (e “l’unità esecutiva di un computer digitale è la parte che svolge singole operazioni che costituiscono un calcolo”[iv]) e il calcolo è appunto un automatismo, se le macchine cosiddette pensanti pensano in realtà solo sulla base del calcolo matematico, cioè di un automatismo (che come tutti gli automatismi è avalutativo, quindi senza intelligenza/pensiero), allora non saranno mai macchine che davvero pensano o macchine intelligenti (il pensiero è anche calcolo, ma non è solo calcolo, come scriveva il filosofo Aldo Masullo), non possedendo il dono solo umano dell’inventiva, della fantasia, dell’immaginazione, della creatività, della critica.
La coscienza delle macchine e il pensiero critico
E ancora, le macchine possono avere una coscienza, senza la quale pensare è impossibile in sé?
Turing cita il Professor Jefferson: “fino a quando una macchina non sarà in grado di scrivere un sonetto o di comporre un concerto grazie ai suoi pensieri e alle emozioni che prova, e non per via di una pioggia casuale di simboli [di numeri] non potremo accettare che macchina sia uguale a cervello; s’intende, non solo di scrivere un sonetto ma di sapere di averlo scritto”[v]. Tesi che Turing contesta tautologicamente e apoditticamente: “il solo modo in cui si potrebbe essere sicuri che una macchina pensa è essendo la macchina e sentendosi pensare. Analogamente il solo modo di sapere che un essere umano pensa è essere quello specifico essere umano”[vi].
Ma Turing, tra le altre che qui per evidenti ragioni omettiamo, si concentra anche sulla obiezione di Lady Lovelace – Ada Lovelace, figlia del poeta George Byron e della moglie Annabella Milbanke, valente matematica e amica e collaboratrice di Charles Babbage – secondo la quale la Macchina analitica di Babbage “non ha la pretesa di dare origine a niente. Essa può fare qualsiasi cosa che sappiamo come ordinarle di eseguire”[vii]. Obiezione analoga, chiosa Turing, a quella per cui “una macchina non può mai fare niente di veramente nuovo”, che è invece quanto anche noi sosteniamo, ricordando ad esempio che la quarta rivoluzione industriale è analoga, nella sua essenza, alla prima; che il digitale è sempre taylorismo.
Le radici filosofiche del pensiero critico contro l’IA
Anche ai tempi dell’articolo di Turing “filosofi come Karl Popper e Michael Polanyi sostenevano che soltanto la mente umana (Polanyi) o il cervello umano (Popper) possono conferire significato”, cioè “soltanto il nostro cervello umano può prestare un significato alla cieca capacità dei calcolatori di produrre verità”. In altre parole, scrive Marconi, le elaborazioni della macchina, anche se formulate in linguaggio naturale, assumono significato solo grazie all’interpretazione di un utente umano.
Invece Turing, attribuendo alla macchina stessa la capacità di pensare, trattava quelle elaborazioni come intrinsecamente significanti (“se le sue elaborazioni fossero in sé prive di significato, non si potrebbe dire che la macchina pensa”[viii]) – ma questa è un’altra tautologia e nulla di più. Ma l’obiettivo di Turing era invece proprio quello “di rendere plausibile l’idea che una macchina possa pensare, facendo vedere che non è impossibile che, potenziando e perfezionando gli attuali calcolatori elettronici, si ottengano macchine le cui prestazioni (nella comprensione e produzione del linguaggio, nella risoluzione di problemi) siano difficilmente distinguibili da prestazioni umane[ix]”. Plausibile, ma non dimostrabile. Soprattutto perché, come detto, calcolare non è pensare, anche se è utile al pensare.
E invece Turing, nel suo articolo cercava appunto di dimostrare la possibilità anche per una macchina di sviluppare nuove capacità – analogamente si cerca di farlo oggi – e “la sua proposta è di simulare il processo di apprendimento e maturazione intellettuale di un essere umano, governato da un sistema di premi e punizioni, rinforzando le scelte corrette e penalizzando le scelte sbagliate”.
Ovvero, continua Marconi, questo metodo assomiglia per certi aspetti all’addestramento degli attuali sistemi di intelligenza artificiale generativa”, anche se oggi “il sistema corregge le ipotesi che elabora via via, non tanto grazie agli interventi punitivi del programmatore che aveva in mente Turing (che possono comunque esserci), ma soprattutto attraverso l’acquisizione di nuovi dati”[x]. Che tuttavia, aggiungiamo, è un processo di addestramento; che quindi non innova e non crea/non pensa anche se si auto-addestra; e ogni addestramento – anche umano – si ottiene solo attraverso ripetizione e standardizzazione dei comportamenti di chi o di ciò (nel caso della macchina) che si deve addestrare (rimandiamo a Sorvegliare e punire di Michel Foucault); ma soprattutto bisogna sempre ricordare che l’addestramento non produce mai autonomia del soggetto addestrato; e meno che meno processi di individuazione e quindi neppure di intelligenza e di coscienza e di consapevolezza, per non parlare di pensiero critico e di riflessività – come è ben chiaro nell’addestramento militare, come nell’organizzazione scientifica del lavoro di Taylor, come in quella algoritmica/digitalizzata di oggi.
E conseguentemente, neppure possiamo definire intelligente l’intelligenza artificiale – anche se il capitalismo vuole assolutamente farcelo credere, pur essendo appunto l’i.a. non un sapere, non conoscenza, ma un puro esercizio del potere del capitale attraverso il controllo ancor più centralizzato della conoscenza, che il capitale traduce poi solo ed esclusivamente in competenze a fare che ciascuno deve apprendere.
L’espropriazione della conoscenza nel tecno-capitalismo
E su questo ci viene in aiuto John Searle, citato da Marconi, per il quale “un sistema computazionale – un calcolatore programmato – è un puro manipolatore di simboli di cui ignora il significato e che non acquisiscono significato […] per il fatto di essere manipolati secondo la procedura descritta.
La prestazione del calcolatore può anche essere perfetta – le risposte sono effettivamente adeguate alle domande – ma le procedure che realizzano quella prestazione sono tali da escludere che essa possa essere descritta come comprensione di domande ed elaborazione di risposte a quelle domande, cioè come risultante da processi di pensiero”[xi].
E infatti per gli LLM, i grandi modelli di linguaggio, l’addestramento serve ad acquisire “la capacità di prevedere l’n+1-esima parola di una frase a partire dalle prime n parole ed è la rete stessa a verificare la correttezza del suo output e a realizzare le opportune modifiche”[xii]; ma è sempre calcolo di probabilità sulla base delle n parole precedenti, ovvero non è pensiero ma ancora calcolo sulla base dell’esistente. Nessun pensiero, nessuna creatività, nessuna immaginazione, nessuna elaborazione mentale/di pensiero.
Sempre e solo calcolo. E così per GPT-4, l’addestramento avviene sulla base di “un corpus testuale di 5 milioni di milioni di parole e ciascuna parola è tradotta in formato numerico e lo scopo è quello di prevedere [ancora prevedere probabilisticamente, quindi non pensare], a partire da una sequenza di n parole, la continuazione più probabile”[xiii]. E tutto sembra funzionare – ma anche funzionare non è pensare, funzionare rimanda allo schema prefissato, non lascia spazio alla libertà, all’autonomia, alla conoscenza, all’approfondimento – che sono anzi disfunzionali all’efficientamento del sistema (di lavoro, di consumo, di prevedibilità – uomo compreso).
Anche se non sono escluse del tutto le allucinazioni, cioè “la generazione di enunciati falsi – come nell’esempio, ormai famoso, dell’ostilità di Cicerone all’uso del tabacco (notoriamente arrivato in Europa solo all’inizio del Cinquecento)”[xiv]. Senza infine dimenticare che l’i.a. e le sue reti neurali è costruita sulla analogia con i processi cognitivi umani, ma sappiamo ancora molto poco di come avvengono tali processi, quindi stiamo costruendo qualcosa sulla base di conoscenze ancora imprecise e parziali.
Intelligenza artificiale e la centralizzazione della conoscenza
E quindi è falso – una allucinazione umana e capitalistica – dire che l’IA è intelligente. Perché in realtà con l’IA si replica il modello taylorista. Dove i dirigenti, scriveva Taylor, “si assumono nuovi compiti, oneri nuovi e responsabilità mai sognate nel passato. Chi ha mansioni direttive si assume, ad esempio, l’incarico di raccogliere tutte le nozionitradizionali possedute in precedenza dalla mano d’opera, e di classificarle, ordinarle in tabelle e sintetizzarle in prescrizioni, leggi e formule, che riescono immensamente utili al lavoratore nella sua attività quotidiana” – e questo era il contesto di dati di allora, oggi diventato appunto algoritmico e automatico, ma sempre si tratta di conoscenza/esperienza che viene espropriataagli individui/forza-lavoro, per essere trasformata in numeri, schemi, tabelle, programmi digitali, piattaforme.
E oggi con l’IA accade lo stesso processo di espropriazione e di centralizzazione del sapere, della conoscenza, dell’esperienza. Con macchine, conferma Pietro Montani[xv], “che vengono nutrite da immensi database di carattere linguistico, cioè da innumerevoli testi di diversa natura e lunghezza. Da questi enormi repertori esse ricavano una competenza semantica integralmente intra-sistemica, nel senso che nella loro routine generativa il significato delle espressioni viene gestito in modo esclusivamente statistico e predittivo. Immaginate, e potenziatelo in modo esponenziale, il lavoro che fa il processore testuale del vostro smartphone quando, mentre scrivete, corregge le parole sbagliate e anticipa quelle che state per digitare.
Le macchine loquaci con cui oggi interagiamo, dunque, si intendono solo di linguaggio, ma nulla sanno del mondo là fuori – quello che i segni linguistici denotano e ri-descrivono ogni volta che serve – perché ne padroneggiano esclusivamente le traduzioni (fatte da esseri umani) in dati digitalizzati di cui esse si nutrono”. E “anche le prestazioni dei sistemi capaci di riconoscere e generare immagini non si riferiscono in alcun modo a contesti extralinguistici ma sempre e solo a un materiale di base costituito da immensi repertori di immagini (fisse o mobili) accoppiate di regola ad altrettante etichette linguistiche.
Cioè tutto si fonda su un repertorio pregresso che, anche senza mettere nel conto gli inevitabili arbitrii imputabili a chi provvede alla sua costruzione e ai suoi aggiornamenti, può dar voce e immagine solo allo statu quo di un assetto culturale acquisito – quello archiviato nei diversi database –ma non dispone di alcuno strumento per metterlo in contatto con l’imprevedibilità delle cose mondane. Può solo ripeterlo e riassortirlo all’infinito dall’interno”.
Qualcosa di perfettamente funzionale alla perpetuazione e insieme all’accrescimento infinito del potere del tecno-capitalismo[xvi]. Che però, per sua essenza, non è intelligente. E noi con esso.
Bibliografia
[i] A. Turing, “Macchine calcolatrici e intelligenza” (a cura di Diego Marconi), Einaudi, Torino 2025
[ii] Ivi, pag. 10
[iii] D. Marconi, in “Ivi”, pag. 62
[iv] A. Turing, “Ivi”, pag. 12
[v] In “Ivi”, pag. 27
[vi] “Ivi”, pag. 28
[vii] In “Ivi”, pag. 34
[viii] D. Marconi, in “Ivi”, pag. 79
[ix] “Ivi”, pag. 80
[x] “Ivi”, pag. 87
[xi] “Ivi”, pag. 93-94
[xii] “Ivi”, pag. 103
[xiii] Ibid
[xiv] “Ivi”, pag. 106
[xv] P. Montani, “Macchine loquaci” – https://www.doppiozero.com/macchine-loquaci
[xvi] L. Demichelis, “La società-fabbrica. Digitalizzazione delle masse e human engineering”, LUISS UP, Roma 2023