L’intelligenza artificiale entra nei processi aziendali, nei software di produttività, nei flussi clinici, nei contact center, nello sviluppo software, nelle piattaforme educative e nei sistemi di supporto decisionale. Più negli Usa che in Europa; meno ancora in Italia. Ma quello che conta ora è un’adozione matura, da costruire nelle aziende, nelle PA.
Precondizione per farlo è capire: capire dove l’AI funziona bene, dove resta fragile e quali condizioni organizzative, normative ed economiche servono perché generi valore senza aumentare il rischio. È proprio questo il valore che ognuno di noi – ma soprattutto i decisori – può trarre dal quadro che emerge dall’AI Index 2026 di HAI Stanford.
Un report molto atteso ogni anno.

Indice degli argomenti
Il report AI index Stanford
Un messaggio di fondo invita a cautela. Le capacità dell’AI accelerano (e ormai il vantaggio dei modelli USA è ridotto sulla Cina), ma la nostra capacità di misurarle, governarle e renderle affidabili cresce molto più lentamente.
I numeri aiutano a capire un po’ di più la situazione.
La generative AI ha raggiunto il 53% di adozione nella popolazione in tre anni, più rapidamente del personal computer e di internet; l’88% delle organizzazioni dichiara ormai un uso dell’AI; i modelli di frontiera hanno raggiunto o superato benchmark umani in aree come domande scientifiche di livello PhD, ragionamento multimodale e matematica competitiva. Non siamo dunque davanti a una tecnologia che deve ancora dimostrare di poter entrare nell’economia reale: ci è già entrata, e ci è entrata in fretta.

I numeri, si diceva, sono un indicatore utile. I numeri, ma anche un paradosso: Stanford mostra bene la natura ancora irregolare di questa intelligenza (jagged frontier, frontiera frastagliata). Gemini Deep Think ha ottenuto una prestazione da medaglia d’oro alle Olimpiadi internazionali della matematica del 2025, ma su ClockBench il miglior modello legge correttamente un orologio analogico solo nel 50,1% dei casi, contro il 90,1% degli esseri umani.
Nello stesso tempo, gli agenti che operano al computer migliorano rapidamente: su OSWorld l’accuratezza è salita da circa 12% a 66,3%, arrivando a pochi punti dal livello umano.
È la fotografia più fedele dell’AI di oggi: eccellente in alcuni compiti strutturati, molto meno affidabile quando servono percezione, contesto, pianificazione robusta e rapporto con il mondo fisico.

Dove l’AI funziona già e perché
La zona più solida resta quella del lavoro tecnico, standardizzabile e misurabile. Nel coding i progressi sono stati impressionanti: su SWE-bench Verified le performance sono passate da circa 60% a quasi 100% del livello umano in un solo anno. Sul piano economico, i guadagni di produttività più robusti emergono proprio dove l’output è verificabile e il margine di controllo è alto: l’AI Index raccoglie evidenze di aumenti del 14-15% nel customer support e del 26% nello sviluppo software. È qui che si spiega una parte importante dell’entusiasmo di sviluppatori, analisti e power user: stanno usando l’AI nel suo territorio migliore, quello in cui errore, qualità e tempo guadagnato sono relativamente facili da misurare.
La seconda area in cui l’AI sta già producendo valore è quella degli strumenti verticali, ben inseriti in un flusso di lavoro e accompagnati da supervisione umana. In sanità, per esempio, gli strumenti che generano automaticamente note cliniche durante la visita hanno visto una diffusione ampia nel 2025. Stanford riporta che, in più sistemi ospedalieri, i medici hanno dichiarato fino all’83% di tempo in meno dedicato alla scrittura delle note, con riduzione del burnout, mentre un sistema ospedaliero ha stimato un ritorno sull’investimento del 112%. Il punto qui è decisivo: non è “l’AI medico universale” a mostrare i risultati più convincenti, ma l’AI che si incastra bene in una procedura specifica, con un compito chiaro e una responsabilità professionale che resta umana.
È anche per questo che, nei settori regolati, conviene diffidare della narrativa unitaria sull’AI. In medicina, lo stesso ecosistema che produce casi d’uso utili e già implementati mostra anche una base di evidenza ancora debole per molte applicazioni più ambiziose. Una review di oltre 500 studi richiamata da Stanford Medicine, nel quadro del rapporto ARISE Stanford-Harvard del gennaio 2026, segnala che quasi la metà delle valutazioni usa ancora domande in stile esame e che solo il 5% si basa su dati reali di pazienti. È un punto importante anche fuori dalla sanità: brillare su un test non equivale a essere pronti per un contesto reale ad alto rischio.
In ogni caso, è su quelle frontiere che ci dobbiamo aspettare un’accelerazione nei prossimi mesi, da parte di OpenAI e Anthropic, in particolare, in vista delle loro IPO. Perché è in quegli usi, business specifici, che ci può essere più valore. Per le aziende utilizzatrici e quindi per quelle che offrono i servizi di AI.

Dove l’AI è ancora debole
La debolezza più chiara resta la generalizzazione nel mondo reale. In robotica il divario tra laboratorio e ambiente domestico è ancora enorme: i robot riescono solo nel 12% dei compiti domestici reali, mentre in ambienti simulati e controllati, su RLBench, arrivano all’89,4%.
Una speranza viene dai World Model.

Lo stesso vale, in forma diversa, per molti sistemi agentici: possono apparire potenti in benchmark ordinati e ripetibili, ma degradano rapidamente quando il contesto è sporco, ambiguo, fisico o richiede adattamento continuo.

Benchmark AI
C’è poi il problema della misura. Lo Stanford AI Index 2026 avverte che i benchmark restano utili, ma sono sempre meno sufficienti a raccontare ciò che un sistema farà davvero in azienda, in un ufficio pubblico o in ospedale. Una review citata nel capitolo tecnico ha rilevato tassi di domande invalide fino al 42% in valutazioni molto usate, mentre altre analisi suggeriscono che alcune leaderboard possono premiare, almeno in parte, l’adattamento alla piattaforma più che una capacità generale del modello.
Responsabilità
A questo si aggiunge il capitolo della sicurezza e della responsabilità. Stanford osserva che il benchmarking sulla responsible AI non tiene il passo con il benchmarking sulle capacità: quasi tutti i principali sviluppatori pubblicano risultati sulle performance, molti meno pubblicano dati solidi su sicurezza, fairness, robustezza e impatto post-deployment. Intanto gli incidenti documentati continuano a salire: 362 casi nel 2025, contro 233 nel 2024. Nello stesso periodo, il Foundation Model Transparency Index è sceso in media da 58 a 40 punti, segnalando minore disclosure su dati di addestramento, risorse computazionali e impatti dopo il rilascio. In altre parole: i modelli migliorano, ma diventano anche più difficili da ispezionare.
Insomma: non solo l’AI mostra limiti effettivi; ma non sono nemmeno chiari quali questi siano e quali sono i rischi.
Perché il giudizio sull’AI resta così diviso
Uno dei dati più interessanti del rapporto riguarda lo scarto tra esperti e pubblico. Negli Stati Uniti, il 73% degli esperti si aspetta un impatto positivo dell’AI sul lavoro, contro il 23% del pubblico. Divari simili emergono per l’economia (69% contro 21%) e per la cura medica (84% contro 44%). Questo non vuol dire soltanto che gli esperti sono “più ottimisti”. Vuol dire che stanno probabilmente sperimentando prodotti, versioni e casi d’uso diversi: chi lavora con modelli avanzati in coding, analisi e ricerca incontra più spesso l’AI nel suo punto di massima efficacia; chi la usa in modo intermittente su compiti generici si scontra più facilmente con errori, approssimazioni e allucinazioni.
Questo scarto di esperienza conta molto anche per il dibattito pubblico europeo. Se si continua a discutere di “AI” come se fosse un oggetto unico, si finisce per confondere almeno quattro cose diverse: i modelli di frontiera, gli strumenti integrati nei workflow, i chatbot consumer e i sistemi ad alto rischio soggetti a obblighi specifici.
È una confusione che nel discorso pubblico produce due errori opposti: da un lato la fascinazione per capacità spettacolari ma poco trasferibili; dall’altro una sottovalutazione dei casi d’uso già maturi, cioè quelli in cui l’AI non sostituisce il giudizio umano ma riduce tempi, attriti e carico amministrativo. Questa è un’inferenza coerente con i dati Stanford su produttività, adozione e divario di percezione.

Dove sta andando il mercato AI
La direzione del mercato è meno “un solo modello per tutto” e più competizione su costo, affidabilità, integrazione e utilità concreta. Sul piano delle prestazioni pure, i modelli migliori si stanno comprimendo: a marzo 2026 Anthropic, xAI, Google e OpenAI risultano racchiuse in 25 punti Elo nell’Arena leaderboard. Nello stesso tempo, il divario tra modelli statunitensi e cinesi si è quasi chiuso: a marzo 2026 il vantaggio del miglior modello USA era del 2,7%. Quando le performance di frontiera si avvicinano, il vantaggio competitivo si sposta altrove: prezzo per task, latenza, stabilità, strumenti per sviluppatori, qualità dell’orchestrazione agentica, condizioni d’uso enterprise e compliance.

Ma la vera partita non si giocherà solo nei benchmark. Stanford mostra che l’AI è ormai una questione industriale e infrastrutturale: gli Stati Uniti ospitano 5.427 data center, più di dieci volte qualunque altro Paese, mentre la catena dei chip di punta dipende in misura decisiva da TSMC a Taiwan. Alla fine del 2025 la capacità elettrica dei data center AI aveva raggiunto 29,6 gigawatt, un ordine di grandezza paragonabile al picco di domanda dello Stato di New York. Significa che la prossima fase dell’AI non dipenderà solo da chi addestra il modello migliore, ma da energia, acqua, semiconduttori, reti, logistica e localizzazione delle infrastrutture.
Già adesso, come nota un’analisi del WSJ, i modelli AI e i relativi datacenter non riescono più a reggere il passo con l’utilizzo. Con aumento quindi di costi e downtime.

Che cosa cambia, adesso, per imprese, PA e compliance europea
Tutto questo ci ricorda un punto spesso dimenticato. L’AI non va più valutata come una novità tecnologica in sé, ma come un insieme di sistemi da collocare in un contesto.
Dentro obblighi organizzativi, metriche di affidabilità e processi di controllo. Anche perché il quadro normativo europeo non è più soltanto in preparazione.
L’AI Act prevede che divieti e obblighi di AI literacy si applichino dal 2 febbraio 2025; le regole per i general-purpose AI models decorrono dal 2 agosto 2025; l’applicazione generale del regolamento scatta dal 2 agosto 2026 (anche se ora c’è una pressione per un rinvio).
Bisogna chiedersi per quale compito conviene usare l’AI; con quale tasso di errore tollerabile, con quale supervisione umana, con quali log, con quali dati e con quale trasparenza da parte del fornitore.
L’AI nel 2026 sa già produrre valore in attività tecniche, ripetibili e ben definite; continua a sbagliare quando deve orientarsi nel mondo fisico, gestire ambiguità profonde o operare in autonomia in contesti ad alto rischio; si sta spostando verso sistemi più agentici, più verticali e più costosi da sostenere sul piano energetico e industriale.
Entra insomma in una fase in cui la differenza vera la faranno governance, verifiche sul campo e qualità dell’integrazione.
Il decisore sia avvisato.















