Nel saggio pubblicato dal Knight First Amendment Institute, Arvind Narayanan e Sayash Kapoor (Arvind Narayanan and Sayash Kapoor, AI as Normal Technology, 25-09 Knight First Amend. Inst. Apr. 14, 2025) propongono di considerare l’intelligenza artificiale come una tecnologia normale.
Indice degli argomenti
intelligenza artificiale come tecnologia normale: la prospettiva
L’intento non è quello di ridurne la portata trasformativa, quanto piuttosto di collocarla all’interno della traiettoria storica delle tecnologie general purpose, come l’elettricità o internet: strumenti che hanno modificato profondamente l’economia e la società, pur restando pienamente governati dall’uomo.
Questa prospettiva si discosta nettamente dalle narrazioni utopiche o apocalittiche che da tempo influenzano il discorso pubblico sull’AI. Un esempio emblematico è la celebre affermazione di Nick Bostrom, secondo cui “machine intelligence is the last invention that humanity will ever need to make” (2012). Tale visione colloca l’intelligenza artificiale su un piano radicalmente altro rispetto alle tecnologie precedenti, come se fosse destinata a diventare una forma di superintelligenza autonoma e potenzialmente ingovernabile. Narayanan e Kapoor rifiutano questa impostazione, sostenendo che l’AI odierna non presenta tali caratteristiche e che immaginarla come un’entità simile all’intelligenza umana non è solo inesatto, ma anche poco utile per comprenderne l’impatto sociale.
L’idea di “AI come tecnologia normale” assume in questo contesto un triplice significato: è una descrizione della natura attuale dell’AI, una previsione del suo sviluppo nel futuro prossimo e una raccomandazione su come affrontarla a livello politico e istituzionale. Secondo questa impostazione, l’intelligenza artificiale è e deve rimanere uno strumento sotto controllo umano. Non sono necessarie svolte tecniche radicali né approcci regolatori emergenziali.
Al contrario, serve una comprensione realistica del suo funzionamento e delle sue implicazioni, che permetta di costruire politiche pubbliche pragmatiche e strutture di governance flessibili, capaci di adattarsi nel tempo. L’idea di tecnologia normale riguarda il rapporto tra tecnologia e società. Questo approccio rifiuta ogni forma di determinismo tecnologico, in particolare la visione dell’AI come agente autonomo capace di determinare da sé il proprio futuro. Si ispira alle lezioni delle rivoluzioni tecnologiche passate, sottolineando quanto i processi di adozione e diffusione siano spesso lenti, incerti e fortemente influenzati dal contesto sociale. Allo stesso tempo, mette in evidenza la continuità tra passato e futuro in termini di impatto dell’AI sulla società e di ruolo delle istituzioni nel modellarne lo sviluppo.
La velocità del progresso nell’intelligenza artificiale

Come accade per altre tecnologie ad uso generale, l’impatto dell’intelligenza artificiale non si realizza nel momento in cui migliorano i metodi o le capacità tecniche, ma quando tali progressi vengono tradotti in applicazioni concrete e si diffondono nei settori produttivi dell’economia. Su questo punto, Narayanan e Kapoor riprendono anche le riflessioni di Jeffrey Ding, che nel suo libro Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024) sottolinea come esistano dei “limiti di velocità” in ciascuna fase del processo: sviluppo, applicazione e diffusione non avvengono automaticamente, ma sono soggetti a vincoli economici, culturali e istituzionali.
Il dibattito sul futuro dell’AI oscilla tra due scenari: uno sviluppo graduale che consente a persone e istituzioni di adattarsi, oppure salti improvvisi capaci di generare forti discontinuità, fino all’ipotesi di una singolarità tecnologica. Per affrontare questa domanda, gli autori propongono di distinguere tra compiti ad alto impatto e quelli meno rilevanti, partendo dall’analisi della velocità con cui l’AI viene adottata e diffusa, prima ancora di considerare il ritmo dell’innovazione e dell’invenzione.
Nel loro schema concettuale, invenzione indica lo sviluppo di nuovi metodi, come i modelli linguistici di grandi dimensioni; innovazione si riferisce alla creazione di applicazioni concrete basate su tali metodi; adozione è la scelta di utilizzare una tecnologia; diffusione è il processo sociale che porta all’adozione su larga scala.
Nel caso di tecnologie particolarmente dirompenti, la diffusione può richiedere trasformazioni profonde nelle organizzazioni, nelle norme sociali e nei sistemi giuridici. Nel paper Against Predictive Optimization (Wang et al., 2023) https://dl.acm.org/doi/10.1145/3593013.3594030, gli autori censiscono circa 50 applicazioni in cui il machine learning viene impiegato per prendere decisioni con forti implicazioni individuali, come nella previsione del rischio criminale, assicurativo o nella valutazione della probabilità di maltrattamenti sui minori. In questi contesti, l’obiettivo è ottimizzare la precisione predittiva per supportare scelte operative o politiche. Un elemento che colpisce è la prevalenza di tecniche statistiche tradizionali: modelli semplici, interpretabili, spesso basati su regressioni con un numero limitato di variabili selezionate manualmente.
Metodi di machine learning più complessi, come le foreste casuali, sono rari; quelli più recenti, come i modelli transformer o i large language model, sono del tutto assenti. Una possibile spiegazione, a mio avviso rilevante, è che nel 2023 i LLM non fossero ancora sufficientemente maturi o affidabili per essere adottati in contesti regolamentati e ad alta responsabilità.
Non si tratta dunque solo di una questione tecnica, ma anche di fiducia istituzionale, accountability e capacità delle organizzazioni di gestire strumenti sofisticati all’interno di cornici etiche e legali ancora in evoluzione.
Intelligenza artificiale e sicurezza nei contesti critici
Molte applicazioni dell’AI in ambiti sensibili, come giustizia, sanità o assicurazioni, continuano a basarsi su modelli statistici semplici e interpretabili, come regressioni con pochi indicatori selezionati manualmente. Tecniche più avanzate, come i transformer, non sono ancora diffuse. Come già osservato in precedenza, anche in questi casi l’adozione dell’AI è in forte ritardo rispetto all’innovazione.
Un motivo centrale è la sicurezza: quanto più un modello è complesso e opaco, tanto più è difficile prevederne il comportamento in contesti reali. Il caso dell’algoritmo di Epic per la sepsi è emblematico: pur mostrando un’alta accuratezza nei test interni, ha fallito sul campo, mancando due terzi dei casi reali e inondando i medici di falsi allarmi (JAMA Internal Medicine, 2021). Il problema? Una variabile usata nel modello, la prescrizione di antibiotici, era in realtà un effetto della diagnosi stessa. Senza strumenti maturi di auditing e interpretabilità, questi rischi continueranno a frenare l’integrazione dell’AI nei processi decisionali più critici.
Errori e limiti dell’intelligenza artificiale generativa
Anche nel caso dell’AI generativa, sottolineano gli autori, errori evidenti sono sfuggiti ai test: il chatbot Bing “Sydney” ha avuto comportamenti anomali durante conversazioni prolungate (A Conversation With Bing’s Chatbot Left Me Deeply Unsettled, Kevin Roose, The New York Times, febbraio 2023) e il generatore di immagini Gemini non è stato testato su figure storiche, generando risultati offensivi (‘We definitely messed up’: why did Google AI tool make offensive historical images?, Dan Milmo e Alex Hern, The Guardian, marzo 2024). Questi episodi, pur non critici, confermano, secondo gli autori, che nei compiti ad alto impatto la diffusione dell’AI resta limitata da forti vincoli di sicurezza, spesso imposti da regolamentazioni stringenti come quelle dell’FDA o dell’AI Act europeo (Societal adaptation to advanced AI, Jamie Bernardi et al., arXiv, maggio 2024; Artificial Intelligence Act, Regolamento (UE) 2024/1689).
Diffusione dell’intelligenza artificiale e adattamento sociale
Sottolineano gli autori che la diffusione dell’AI è frenata non solo da vincoli tecnici o di sicurezza, ma dalla velocità con cui persone, organizzazioni e istituzioni riescono ad adattarsi. Anche nei contesti non critici, l’adozione è più lenta di quanto suggeriscano i dati mediatici: ad agosto 2024, il 40% degli adulti statunitensi aveva usato AI generativa, ma solo in modo saltuario, traducendosi in appena lo 0,5–3,5% delle ore lavorative complessive e in un incremento della produttività tra lo 0,125 e lo 0,875% (The Rapid Adoption of Generative AI, Alexander Bick, Adam Blandin, David J. Deming, National Bureau of Economic Research, 2024). Sebbene l’adozione dell’AI appaia più rapida rispetto a quella del personal computer (40% degli adulti in due anni, contro il 20% in tre anni per i PC), questo confronto non considera le differenze in termini di intensità d’uso e barriere d’accesso (The Rapid Adoption of Generative AI, Bick et al., 2024).
Come nel caso dell’elettrificazione, i benefici tecnologici non emergono immediatamente: le dinamo elettriche erano “ovunque, tranne che nelle statistiche sulla produttività”, per quasi quarant’anni dopo la centrale di Edison (The dynamo and the computer, Paul A. David, The American Economic Review, 1990; Why didn’t electricity immediately change manufacturing?, Tim Harford, BBC, 2017). Solo con la riorganizzazione completa delle fabbriche e dei processi produttivi si sbloccarono i veri vantaggi dell’elettricità. Allo stesso modo, l’AI richiede trasformazioni profonde nei sistemi di lavoro, nella formazione e nelle pratiche operative, che possono svilupparsi solo nel tempo e attraverso sperimentazioni diffuse (AI and the Automation of Work, Benedict Evans, 2023).
Intelligenza artificiale e limiti della realtà operativa
Gli autori distinguono chiaramente tra il progresso nei metodi di AI e lo sviluppo di applicazioni concrete: se i primi avanzano rapidamente, le seconde incontrano limiti imposti dalla realtà operativa. Narayanan e Kapoor descrivono questo progresso come una “scala della generalità”, dove ogni gradino riduce lo sforzo necessario per svolgere nuovi compiti (AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference, Princeton University Press, 2024). Il “capability–reliability gap”, ovvero il divario tra ciò che un sistema può teoricamente fare e ciò che può fare in modo affidabile, resta un ostacolo ricorrente. Anche per compiti meno rischiosi, come l’assistenza clienti, emergono difficoltà legate a conoscenze tacite, dati sensibili e limiti regolatori, che impediscono un apprendimento su larga scala (AI companies are pivoting from creating gods to building products, AI Snake Oil newsletter, 2024). Infine, l’acquisizione di nuova conoscenza, scientifica o sociale, impone limiti strutturali: per progredire servono interazioni o esperimenti con persone e organizzazioni, ma i costi e i vincoli etici rendono impossibile una scalabilità rapida (Why AI is harder than we think, Melanie Mitchell, arXiv, 2021).
Intelligenza artificiale tra benchmark e utilità reale
Sottolineano gli autori che molti benchmark misurano i progressi nei metodi di AI, non l’efficacia delle applicazioni reali. Questo fraintendimento ha generato hype ingiustificato. Ad esempio, il fatto che GPT-4 rientri nel 10% migliore dei candidati all’esame da avvocato dice poco sulla sua reale capacità di esercitare la professione (GPT-4 technical report, OpenAI, 2023). Il divario tra test e utilità concreta si riscontra anche nel coding: l’AI brilla nei problemi scolastici, ma ha impatto limitato nella programmazione reale (Do LLM Coding Benchmarks Measure Real-World Utility?, Ehud Reiter, 2025). Solo gli studi condotti in ambienti realistici, con professionisti in attività concrete, offrono indicazioni utili: mostrano benefici reali ma contenuti, legati all’aumento delle capacità umane più che alla sostituzione (Experimental evidence on the productivity effects of generative artificial intelligence, Noy & Zhang, Science, 2023; Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality, Dell’Acqua et al., 2023). Una conferma arriva anche dallo studio condotto in Procter & Gamble, che analizza l’uso quotidiano dell’AI generativa nei team di lavoro: l’AI migliora la collaborazione, potenzia il lavoro di squadra e sostiene la produttività, ma non sostituisce le persone (Il mio collega cibernetico: come l’AI migliora il lavoro di squadra, Maurizio Carmignani, Agenda Digitale, 2025).
Gli impatti economici dell’AI saranno graduali, non rivoluzionari
L’idea che l’intelligenza artificiale possa trasformare improvvisamente l’economia globale si basa spesso sull’ipotesi che si possa raggiungere una forma di “Artificial General Intelligence” (AGI), ovvero un sistema unico in grado di svolgere tutti i compiti economicamente rilevanti svolti oggi dagli esseri umani. Questa visione, diffusa soprattutto in ambito mediatico e tra alcuni esponenti del mondo tech, presuppone una discontinuità radicale nei sistemi produttivi e nelle dinamiche occupazionali. Secondo una prospettiva più prudente, supportata da studi empirici e da analogie storiche con altre tecnologie general purpose, l’AGI rimane un concetto ipotetico e fortemente sovraccarico di aspettative. È molto più realistico interpretare l’AI come una tecnologia incrementale, che estende gradualmente le capacità umane, piuttosto che sostituirle in blocco. In un mio recente articolo, ho analizzato in dettaglio le ambiguità e i limiti concettuali del termine AGI, evidenziando quanto sia fondamentale distinguere tra i progressi attuali nei modelli generativi e una vera “intelligenza generale” capace di adattarsi a qualsiasi contesto. In questa prospettiva, la trasformazione dell’economia non sarà improvvisa né totalizzante, ma richiederà, come già accaduto per elettricità, computer e internet, lunghi cicli di innovazione, sperimentazione e diffusione. Come dimostrato storicamente da tecnologie general purpose come elettricità, computer e internet, il cambiamento economico avviene attraverso un ciclo lento di innovazione e diffusione. La creazione di valore dipende infatti dalla capacità di integrare l’AI nei contesti concreti d’uso, non soltanto dal progresso tecnico dei modelli. Questo è particolarmente evidente nei settori safety-critical, dove i requisiti di affidabilità, accountability e controllo rallentano ulteriormente l’adozione (Narayanan & Kapoor, 2024). Su questi aspetti insiste anche Daron Acemoglu, premio Nobel per l’economia 2024, che con John Johnson sottolinea come i benefici delle tecnologie emergenti dipendano meno dalla loro “potenza intrinseca” e più dalla loro complementarità con istituzioni, capitale umano e asset organizzativi. Il rischio, secondo Acemoglu, è che l’AI rafforzi disparità esistenti se non accompagnata da scelte redistributive e da investimenti nei “complementi” necessari (Acemoglu & Johnson, Power and Progress, 2023). Nel mio articolo “L’impatto dell’AI su produttività e PIL: un futuro di benessere o nuove disparità?”, basato sull’analisi del paper “The Simple Macroeconomics of AI” di Daron Acemoğlu), sottolineo l’importanza di valutare l’AI come fattore abilitante e non come sostituto automatico dell’intelligenza umana.
Limiti e prospettive dell’intelligenza artificiale come tecnologia normale
La lentezza del cambiamento economico si osserva anche nello sviluppo dei metodi. Pur in presenza di una crescita esponenziale nella produzione scientifica (Krenn et al., Nature Machine Intelligence, 2023), il progresso sostanziale è rallentato da una forte “ossificazione del canone”: nei campi dove si pubblica molto, è più difficile che nuove idee riescano a emergere (Chu & Evans, PNAS, 2021, https://www.pnas.org/doi/10.1073/pnas.2021636118). Un esempio è il dominio incontrastato dell’architettura Transformer, nonostante i suoi limiti noti. Anche i benchmark, spesso usati per misurare il progresso, rischiano di fornire un’immagine distorta dell’utilità reale dell’AI. Il superamento del Turing Test da parte dei modelli linguistici ha perso significato, perché questi sistemi mostrano capacità conversazionali senza una vera comprensione (Biever, Nature, 2023; Mitchell, Science, 2024, https://www.science.org/doi/10.1126/science.adq9356). Ogni volta che un sistema raggiunge un traguardo, ci si accorge che era solo una “falsa vetta”, utile a ridefinire i criteri di valutazione. Infine, nonostante la crescita in velocità e potenza dell’AI, permangono limiti tecnici e culturali. La fine della cultura della condivisione nella ricerca industriale, i vincoli computazionali legati ai costi e alla scalabilità e la mancanza di pluralismo metodologico sono tutti fattori che contribuiscono a rallentare il reale impatto trasformativo dei sistemi.