Le tecnologie più capaci di amplificare l’intelligenza umana vengono sistematicamente costruite per renderla superflua. Ma un’altra via è possibile e auspicabile, per il bene dell’umano e della società. Un’intelligenza artificiale costruita per i lavoratori (“pro worker”).
Questo, in sintesi, il paradosso al centro di Building Pro-Worker Artificial Intelligence, il paper pubblicato a febbraio 2026 da Daron Acemoglu, David Autor e Simon Johnson per The Hamilton Project della Brookings Institution.
Un documento che merita attenzione non per il suo tono allarmistico, che qui non c’è, ma per la nitidezza analitica con cui scompone il problema e per la serietà con cui propone soluzioni. Il punto di partenza è empirico. Nel 2024, il 52% dei lavoratori statunitensi si è dichiarato preoccupato dall’impatto dell’AI sul proprio impiego. Il dato più interessante è però un altro: il 42% di chi usa già l’AI sul lavoro ritiene che ridurrà le proprie opportunità future.
Chi ha più informazioni è più pessimista. Non è paura del nuovo, è una valutazione fondata sull’esperienza diretta. Per comprendere la portata di questo paper, conviene partire da dove Acemoglu aveva lasciato il discorso appena due anni prima. Nel 2024, in The Simple Macroeconomics of AI aveva costruito un modello quantitativo volutamente sobrio, in cui concludeva che solo il 4,6% delle mansioni lavorative statunitensi era effettivamente automatizzabile nel decennio successivo, il guadagno di produttività totale si sarebbe fermato attorno allo 0,66% su dieci anni, l’incremento di PIL non avrebbe superato l’1,16%.
Stime che smontavano sia l’euforia di Goldman Sachs (+7% di PIL globale) sia i toni apocalittici sull’occupazione. Quel paper rispondeva alla domanda quanto trasformerà l’AI l’economia?. Il paper del 2026, scritto con Autor e Johnson, sposta l’asse su una domanda diversa e più urgente: indipendentemente da quanto trasformerà, in quale direzione possiamo orientarla?
Si passa dalla diagnosi alla prescrizione, un salto significativo. Mentre il paper appena pubblicato circolava, i mercati finanziari offrivano una conferma plastica di queste preoccupazioni. Nelle settimane precedenti centinaia di miliardi di dollari di capitalizzazione sono stati bruciati su Wall Street.
Software enterprise, cybersecurity, wealth management, interi settori ad alta intensità di lavoro cognitivo qualificato, colpiti dalla proiezione che l’AI li avrebbe resi obsoleti. L’ipotesi sottostante è duplice, l’AI trasformerà l’economia radicalmente e il suo percorso non può essere riorientato. La seconda assunzione, quella dell’inevitabilità, Acemoglu, Autor e Johnson la contestano forza.
“Non ci sono dubbi sulla capacità dell’AI di automatizzare il lavoro e dislocare i lavoratori. Crediamo però che abbia un potenziale altrettanto trasformativo per agire da moltiplicatore di forza per le competenze umane.”
Indice degli argomenti
La tassonomia dell’AI pro-worker che cambia il modo di guardare all’IA
Il contributo teorico più solido del paper è una tassonomia a cinque categorie del cambiamento tecnologico, che permette di distinguere con precisione cosa fa davvero una tecnologia rispetto al lavoro umano:
- Labor-augmenting: rende i lavoratori più produttivi nelle attività che già svolgono (effetto ambiguo sui salari);
- Capital-augmenting: migliora le macchine nelle attività che già eseguono (effetto ugualmente ambiguo);
- Automating: sostituisce il lavoro umano con macchine, rendendo l’expertise una commodity (non pro-worker);
- Expertise-leveling: permette a lavoratori meno specializzati di svolgere compiti prima riservati ad altri (ambiguo: crea vincitori e vinti);
- New task-creating: genera domanda di nuove competenze umane, espandendo l’occupazione e la quota del lavoro sul valore aggiunto (inequivocabilmente pro-worker).
Solo l’ultima categoria è, secondo gli autori, inequivocabilmente favorevole ai lavoratori, perché non si limita a fare more work, più lavoro dello stesso tipo, ma genera new work: attività che richiedono competenze inedite, scarse, quindi remunerate. Le altre categorie producono effetti ambigui o negativi sulla quota di reddito che va al lavoro.
La distinzione è cruciale e spesso elusa nel dibattito pubblico. Si tende a pensare che una tecnologia sia pro-worker se crea più posti di lavoro in assoluto. Gli autori dimostrano che questo non basta. Le app di ride-hailing hanno creato milioni di posti da autista, ma ha anche de-professionalizzato il mestiere e abbassato i salari medi.
Quella nuova occupazione non richiedeva expertise scarsa e difficile da replicare, era destinata a diventare essa stessa bersaglio della successiva ondata automatizzante.
Il fallimento di mercato e l’AI pro-worker: tre meccanismi che distorcono gli investimenti
Il paper si distingue per non fermarsi alla diagnosi. Gli autori identificano tre meccanismi strutturali che spiegano perché il mercato sotto investe sistematicamente nell’AI pro-worker.
Il primo è il disallineamento degli incentivi aziendali. Le imprese, specie quelle con relazioni conflittuali con la forza lavoro o con dipendenti che percepiscono rendite salariali superiori al loro costo-opportunità, hanno interesse ad adottare tecnologie che riducono la dipendenza dai lavoratori qualificati, non quelle che la aumentano.
La realtà operativa è coerente con questa diagnosi. Block, la piattaforma di servizi finanziari fondata da Jack Dorsey, ha annunciato il licenziamento di 4.000 dipendenti su 10.000 motivandolo esplicitamente con la capacità dell’AI di svolgere le loro mansioni. Amazon utilizza sistemi di tracciamento delle performance nei magazzini e telecamere sempre attive nei furgoni di consegna per sorvegliare i lavoratori.
Burger King ha annunciato test con cuffie dotate di AI in grado di verificare se i dipendenti dicono per favore e grazie. Queste applicazioni non amplificano l’expertise umana, la controllano, la comprimono, la sostituiscono.
Il secondo meccanismo è la path dependence dei grandi sviluppatori. Le imprese dominanti nel settore AI hanno costruito competenze, modelli di business e clienti attorno all’automazione enterprise. Nessuna delle grandi aziende sta investendo nemmeno una piccola frazione delle proprie risorse nello sviluppare l’AI come strumento pro-umano e pro-worker.
Le startup, a loro volta, gravitano verso prodotti vendibili agli incumbent o che le posizionino come target di acquisizione, perpetuando lo stesso orientamento.
Il terzo, il più interessante sul piano intellettuale, è ideologico. La comunità dell’AI è dominata da una visione teleologica che pone l’AGI, Artificial General Intelligence, come obiettivo supremo. Macchine che superano gli esseri umani in tutte le attività cognitive.
Se l’AGI è il fine ultimo, l’AI pro-worker è, nella migliore delle ipotesi, un obiettivo di secondo livello. Nella peggiore, un ostacolo alla linearità della roadmap.
Le nove proposte per un’AI pro-worker: un programma credibile, non utopico
Nella sezione di policy il paper esprime il suo contributo più operativo. Le nove direzioni proposte non sono slogan, ma leve concrete che incidono su incentivi, strutture di mercato e processi istituzionali.
Le prime due riguardano i settori a maggiore leverage pubblico. Sanità ed educazione rappresentano insieme circa il 24% del PIL statunitense, in entrambi i settori lo Stato è il principale acquirente di tecnologia: il 43% della spesa sanitaria transita dai programmi federali Medicare (anziani) e Medicaid (fasce vulnerabili), mentre il 92% della spesa per l’istruzione di base, il sistema K-12, dall’asilo al diploma, è a finanziamento pubblico.
In Italia la leva è analoga, se non più concentrata. Il Servizio Sanitario Nazionale copre circa il 75% della spesa sanitaria complessiva, la scuola pubblica assorbe la quasi totalità della spesa per l’istruzione primaria e secondaria. In entrambi i sistemi, dunque, lo Stato non deve costruirsi un ruolo di orientamento tecnologico, lo ha come pagatore dominante.
Usarlo per condizionare gli acquisti di AI, privilegiando strumenti che amplificano le capacità di medici, infermieri e insegnanti invece di sostituirli, significherebbe spostare gli incentivi dell’intero mercato senza dover creare nuove strutture normative.
Alcuni esempi suggeriti dagli autori, assistenti AI che aiutano gli infermieri a svolgere compiti medici più avanzati, strumenti che permettono agli insegnanti di offrire supporto personalizzato agli studenti.
La terza proposta, costruire expertise di AI all’interno dei governi, è condizione necessaria per tutte le altre. In Italia questo deficit è particolarmente acuto. Il parlamento ha approvato nel 2025 una legge sull’AI (L. 132/2025) e istituito strutture di governance, ma il gap di competenze tecniche nella PA rimane un vincolo strutturale non affrontato.
La quarta e quinta proposta toccano il grant-making pubblico per la ricerca su human-AI collaboration e il riequilibrio fiscale. Su quest’ultimo punto la formulazione di Autor è tagliente, il sistema fiscale attuale favorisce enormemente il capitale, mentre è molto gravoso verso i lavoratori.
Le imprese che scelgono di acquistare un chatbot invece di assumere e formare un dipendente godono di un vantaggio fiscale strutturale. Una maggiore neutralità tra capitale fisico-algoritmico e capitale umano ridurrebbe questa distorsione.
Le ultime quattro direzioni, antitrust, rappresentanza dei lavoratori, tutela della proprietà intellettuale e riforma delle licenze professionali, affrontano nodi strutturali di lungo periodo che il paper tratta con meno dettaglio rispetto alle prime cinque, ma che non sono meno rilevanti.
La più urgente è la questione del furto di competenze, che il paper chiama expertise theft. Il meccanismo è semplice, le aziende AI raccolgono liberamente testi, immagini, video e dati da tutto il web, articoli giornalistici, post sui social, contenuti di creator, li usano per addestrare i loro modelli, e poi vendono l’accesso a quei modelli senza pagare nulla a chi quei contenuti li ha prodotti.
Autori, giornalisti, traduttori, artisti, musicisti si ritrovano il proprio lavoro trasformato in materia prima altrui. L’economista di Oxford Maximilian Kasy, nel libro The Means of Prediction, paragona questo processo all’enclosure medievale: i proprietari terrieri recintarono le terre comuni che i contadini usavano liberamente da secoli, trasformandole in proprietà privata produttiva.
Qualcosa di simile sta accadendo con internet. Come ha detto Autor al New Yorker: “una larga parte di internet viene recintata e rivenduta come proprietà privata, si tratta di una gigantesca riallocazione di diritti di proprietà”.
Ma il problema non si ferma ai contenuti pubblici. Sempre più spesso le imprese usano i dati prodotti dai propri dipendenti, le loro email, i loro documenti, i loro processi decisionali, per addestrare sistemi AI destinati a svolgere quelle stesse mansioni in futuro.
Come nota il paper, nessun lavoratore accetterebbe consapevolmente di formare il proprio sostituto, ma è esattamente quello che succede, ogni giorno, senza che esistano tutele adeguate.
Questioni aperte sull’AI pro-worker: tra limiti analitici e lacune redistributive
Il paper è solido, ma alcune tensioni meritano di essere segnalate. La prima riguarda la coerenza interna del percorso intellettuale di Acemoglu stesso. Nel 2024, in The Simple Macroeconomics of AI, lo stesso autore aveva costruito un modello quantitativo che portava a conclusioni deliberatamente sobrie, quella lettura prudente non è scomparsa nel paper del 2026, ne costituisce anzi la premessa implicita.
Ma emerge qui una tensione che vale la pena esplicitare. Se l’impatto macroeconomico dell’AI è destinato a essere modesto, come le stime del 2024 suggerivano, allora l’urgenza dell’agenda pro-worker si fonda meno sull’entità della trasformazione e più sulla sua distribuzione, non quanto PIL produrrà l’AI, ma chi ne beneficierà.
Il paper del 2026 sposta esattamente l’asse in questa direzione, ma non torna esplicitamente sulle stime precedenti né le aggiorna alla luce dei modelli più recenti. Una omissione che indebolisce la base quantitativa su cui poggiano alcune delle nove proposte, specie quelle che presuppongono una trasformazione sufficientemente rapida e pervasiva da giustificare interventi fiscali strutturali nel breve periodo.
La distinzione tra new work e more work è analiticamente pulita, ma empiricamente difficile da misurare ex ante. Il caso dei data scientist, citato nel paper come esempio virtuoso di expertise valorizzata dal digitale, potrebbe diventare nei prossimi anni un caso di expertise-leveling, replicando la traiettoria già percorsa dai traduttori professionisti.
Il paper non dice chi dovrebbe valutare, e con quali criteri, se una nuova categoria di compiti genera competenze genuinamente difficili da replicare o le rende invece accessibili a chiunque, svuotandole di valore.
Sul piano redistributivo, nell’intervista al New Yorker ci sono due proposte di Autor che non compaiono nel paper scritto. La prima è un’assicurazione salariale per chi perde il lavoro a causa dell’AI ed è costretto ad accettare un impiego peggiore, lo Stato integrerebbe temporaneamente la differenza di stipendio.
La seconda è una dotazione di capitale universale: un conto di investimento pubblico aperto alla nascita per ogni cittadino, che nel tempo potrebbe diventare una fonte di reddito indipendente dal lavoro.
Orientare lo sviluppo dell’AI in senso pro-worker aiuta chi è già nel mercato del lavoro, ma non offre risposte a chi ne viene espulso.
Le nove proposte sono pensate per il contesto statunitense. In Europa, in Italia in particolare, il mix pubblico-privato nella sanità e nell’istruzione è diverso, le strutture di contrattazione collettiva hanno storicamente maggiore peso, il dibattito sull’EU AI Act segue logiche di neutralità tecnologica che si discostano dall’approccio market-shaping che gli autori propongono.
AI pro-worker: una bussola per chi governa l’IA
Building Pro-Worker Artificial Intelligence è uno dei contributi più rigorosi usciti negli ultimi mesi sul rapporto tra AI e mercato del lavoro. Non perché proponga ricette semplici, non lo fa, ma fornisce una mappa concettuale precisa dei meccanismi in gioco e un programma di policy sufficientemente specifico da essere valutato, emendato, adottato o respinto.
Il messaggio centrale è chiaro: la direzione del cambiamento tecnologico non è determinata dalla tecnologia, ma dalle scelte di imprese, governi e istituzioni di ricerca.
Come ricordano Acemoglu e Johnson nel loro libro Power and Progress, la lezione delle trasformazioni economiche precedenti è che non si può fermare il cambiamento tecnologico, ma lo si può orientare.
I fabbricanti tessili britannici dell’Ottocento non cambiarono rotta spontaneamente, ci volle la legislazione sulle fabbriche e poi i sindacati. Che l’AI possa essere pro-worker non è un’utopia, è una questione di incentivi. Gli incentivi si cambiano con le politiche.
Per i responsabili di policy in Europa questo paper offre una lente analitica che va oltre il binomio regolamentazione del rischio vs promozione dell’innovazione che spesso domina il dibattito attuale. La domanda rilevante non è solo questa AI è sicura? Ma questa AI per chi crea valore e come? Una domanda difficile, forse è quella giusta.


















