intelligenza artificiale

L’AI non è un destino: il libro che smonta il mito dell’inevitabilità



Indirizzo copiato

Un economista di Oxford ribalta la narrazione dominante sull’intelligenza artificiale: non è una forza naturale incontrollabile, ma uno strumento plasmato da precise scelte di potere. Per risolvere il problema propone una via d’uscita democratica

Pubblicato il 11 mar 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



intelligenza artificiale nel mondo del lavoro (1)

In The Means of Prediction: How AI Really Works (and Who Benefits), Maximilian Kasy, economista all’Università di Oxford, dimostra che il vero conflitto non è tra umani e macchine, ma tra chi controlla i dati, la potenza di calcolo, le competenze, l’energia e chi ne subisce le conseguenze. Un libro tecnico e politico insieme, che arriva in un momento in cui l’Europa deve decidere che tipo di governance vuole per l’AI.

Il mito dell’AI inevitabile da smontare

C’è una narrazione che attraversa trasversalmente il dibattito pubblico sull’intelligenza artificiale, l’idea che essa sia una forza autonoma, quasi naturale, che avanza secondo logiche proprie e al cui sviluppo non si possa che adattarsi. Maximilian Kasy la chiama “rassegnazione pubblica”, la percezione paralizzante che l’AI sia un destino condiviso, non una scelta collettiva.

The Means of Prediction: How AI Really Works (and Who Benefits), pubblicato dall’University of Chicago Press, parte proprio dallo smontare questo mito e lo fa con un argomento tanto semplice quanto dirompente: l’intelligenza artificiale non è particolarmente complessa nella sua logica di fondo.

Ciò che la rende insidiosa non è l’algoritmo in sé, ma la sua capacità di orientare i risultati verso gli obiettivi di chi la controlla, mascherando scelte politiche sotto una parvenza di oggettività tecnica.

Non umani contro macchine, ma potere contro tutti gli altri

Il punto di svolta interpretativo del libro è netto: il conflitto reale non è tra esseri umani e macchine, ma tra chi detiene i mezzi per costruire e orientare i sistemi predittivi e il resto della società. Come scrive Gardner sul MIT Technology Review, Kasy argomenta che le conseguenze negative dell’AI, dalla discriminazione nei processi di selezione del personale alle distorsioni nei sistemi giudiziari, non sono effetti collaterali indesiderati, ma il sistema che funziona esattamente come progettato.

Se un algoritmo di selezione del personale scarta candidati con responsabilità di cura familiare, o se un sistema di raccomandazione massimizza l’engagement alimentando l’indignazione, è perché quei risultati sono funzionali agli obiettivi di profitto di chi ha finanziato e orientato il sistema. Questa posizione distingue Kasy dalla maggior parte dei critici dell’AI: non crede che lavorare su algoritmi meno distorti o più equi risolva il problema di fondo. Correggere i bias lascia intatti gli incentivi al profitto che li generano. La questione, per Kasy, è strutturale.

I quattro pilastri del controllo

Al centro dell’analisi ci sono quelli che l’autore definisce i mezzi di predizione, le risorse materiali e infrastrutturali senza le quali nessun sistema di AI può esistere. Sono quattro: i dati, la potenza di calcolo, le competenze tecniche e l’energia. La loro concentrazione nelle mani di pochi soggetti privati non è un incidente della storia tecnologica, ma la materializzazione di dinamiche economiche e di classe nell’era digitale. Chi controlla questi pilastri stabilisce unilateralmente gli obiettivi dell’AI, quali problemi risolvere, per chi, a quale costo sociale.

Gli algoritmi non sono strumenti neutri ma strumenti di riproduzione del potere economico e sociale, potenzialmente riconvertibili verso fini collettivi solo attraverso un intervento politico esplicito. Il parallelo con la teoria marxiana dei mezzi di produzione è volutamente evocato dal titolo stesso del libro, un rimando che Kasy riconosce esplicitamente. Kasy non si ferma alla diagnosi, propone strumenti concreti di governance, dai “data trust”, organismi collettivi che gestiscono i dati per conto dei loro produttori, a schemi fiscali che tentino di internalizzare i danni sociali prodotti dall’AI.

Una tecnica chiara al servizio di un’analisi politica

Una delle qualità più rare del libro è la capacità di tenere insieme due piani solitamente separati. La prima metà di The Means of Prediction è una spiegazione accessibile ma rigorosa di come funziona l’AI, dalla regressione statistica al supervised learning, dal deep learning al trade-off tra exploration e exploitation. Kasy non semplifica per rendere il testo popolare, semplifica per dimostrare che la complessità tecnica è spesso una maschera retorica usata per sottrarre la tecnologia al controllo pubblico.

La seconda metà affronta le implicazioni politiche, il tema della value alignment, della privacy, dell’automazione, della fairness e dell’explainability, tutti affrontati non come problemi tecnici da ottimizzare, ma come scelte sociali da negoziare democraticamente. Il libro ha ricevuto endorsement di peso. Daron Acemoglu, premio Nobel per l’Economia e coautore di Why Nations Fail, ha sottolineato come il futuro dell’AI dipenderà dalle istituzioni che ne governeranno lo sviluppo più che dalla tecnologia stessa e che la traiettoria attuale rischia di condurre al disastro più che all’abbondanza. Kate Crawford, autrice di Atlas of AI[1], lo ha definito un contributo capace di spostare il dibattito dal piano tecnico a quello del potere e dell’interesse pubblico.

La proposta: democratizzare i mezzi di predizione

Kasy è consapevole che denunciare la concentrazione del potere non basta. Per questo la seconda metà del libro è dedicata interamente alle soluzioni, articolate su tre livelli che si tengono insieme.

Il primo e più radicale è il controllo democratico sugli obiettivi, non si tratta di rendere gli algoritmi esistenti “più giusti” attraverso aggiustamenti tecnici, ma di decidere collettivamente, attraverso processi politici pubblici, cosa l’AI deve ottimizzare e per chi. Oggi questa scelta spetta esclusivamente a chi possiede i mezzi di predizione; Kasy vuole che spetti alla società. Il secondo livello riguarda la socializzazione delle infrastrutture, in particolare attraverso i “data trust”, organismi collettivi che gestiscono i dati non per conto delle piattaforme ma nell’interesse delle comunità che li producono, sul modello dei beni comuni digitali. Il terzo è la tassazione dei danni sociali, ovvero schemi fiscali che obblighino le aziende AI a internalizzare i costi che oggi scaricano sulla collettività, discriminazione sistemica, instabilità lavorativa, danni alla salute mentale, invece di privatizzare i profitti e socializzare le perdite. Fin qui la diagnosi è lucida e convincente. Ma è proprio qui che il libro incontra la sua tensione più profonda e più onesta.

Tutto l’impianto di Kasy presuppone uno stato democratico sufficientemente autonomo dagli interessi delle Big Tech, capace di agire come garante del controllo pubblico. Il problema è che i mezzi di predizione sono già così concentrati da permeare le istituzioni politiche stesse, attraverso lobbying, finanziamenti e un continuo scambiodiruoli tra dirigenti tech e regolatori pubblici. Chi garantisce, allora, che lo stato sia un agente neutro capace di redistribuire il potere invece di consolidarlo ulteriormente? Kasy non si fa illusioni sulla facilità del percorso, sa che costruire nuove istituzioni pubbliche credibili richiede tempo e volontà politica, proprio nel momento in cui la fiducia nelle istituzioni è ai minimi storici. Il libro non risolve questa contraddizione, la riconosce e la lascia aperta come sfida politica, non tecnica. In questo senso è più una grammatica critica che un piano d’azione, descrive con precisione cosa andrebbe fatto, ma non indica chi ha la forza per farlo e contro quali resistenze concrete. Certamente è un limite, ma anche una forma di onestà intellettuale rara in un genere, quello dei libri sull’AI, che tende a promettere più di quanto possa mantenere.

Cosa significa per la governance europea

Il libro arriva in un momento cruciale per l’Europa. L’AI Act è in fase di implementazione, il dibattito sulle AI Gigafactory è aperto e la Commissione europea sta definendo i contorni della propria strategia industriale sull’AI. In questo contesto, la domanda che Kasy pone, chi controlla gli obiettivi dell’AI e come questo controllo viene mantenuto? Questa è esattamente la domanda che i decisori pubblici dovrebbero avere sul tavolo. Come osserva Diane Coyle sul suo blog Enlightened Economist, si tratta probabilmente di un libro che ogni funzionario e ogni politico impegnato sul tema AI nei servizi pubblici dovrebbe leggere. Non perché offra risposte semplici, Kasy è esplicito nel riconoscere le difficoltà istituzionali e la resistenza degli interessi consolidati, ma perché fornisce la grammatica concettuale per porre le domande giuste. La domanda finale che il libro lascia aperta è se abbiamo ancora il tempo per intervenire.

Conclusione: una scelta, non un destino

The Means of Prediction riesce in un’impresa editorialmente rara, collegare in modo organico spiegazione tecnica, analisi politica e proposta normativa. Il suo messaggio finale non è pessimista, l’AI è una scelta, non un destino. Ma perché quella scelta diventi collettiva, occorre prima smettere di trattare la tecnologia come un fenomeno che ci accade, e iniziare a riconoscerla per quello che è il prodotto di decisioni umane, modificabili attraverso la politica e le istituzioni. Per chi si occupa di policy digitale, questo libro non è solo una lettura consigliata, è uno strumento di lavoro.

Chi è Maximilian Kasy

Maximilian Kasy è professore di Economia all’Università di Oxford, dove coordina il Machine Learning and Economics Group. Ha conseguito il dottorato alla UC Berkeley e ha insegnato a UCLA e Harvard prima di approdare a Oxford. La sua ricerca si colloca all’intersezione tra machine learning, economia politica e diseguaglianza: studia le fondamenta sociali della statistica e dell’AI, con un’attenzione particolare all’impatto degli algoritmi sulle decisioni collettive. Oltre alla ricerca accademica contribuisce al dibattito pubblico internazionale su governance tecnologica e reddito di base. The Means of Prediction è il suo primo libro per un pubblico generalista.


[1] https://en.wikipedia.org/wiki/Atlas_of_AI

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x