scenari

International AI Safety Report 2026: la mappa globale dei rischi dell’AI generativa



Indirizzo copiato

Redatto da oltre cento esperti di più di trenta paesi, l’International AI Safety Report 2026 sintetizza le evidenze sui rischi emergenti dell’AI generativa. Analizza capacità attuali e scenari al 2030, propone una tassonomia dei rischi e passa in rassegna strumenti tecnici e istituzionali per gestirli

Pubblicato il 25 feb 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



intelligenza-artificiale-nella-pubblica-amministrazione-agenda-digitale; document management system; AI project management shadow ai pa data driven

L’international AI safety report offre una sintesi rigorosa delle evidenze sui rischi emergenti dei sistemi AI general purpose, con un focus su capacità, scenari al 2030 e strumenti di gestione del rischio.

Chi produce l’International AI Safety Report e perché nasce

L’International AI Safety Report è un documento scientifico commissionato dai governi che parteciparono all’AI Safety Summit di Bletchley Park nel novembre 2023.

Quella riunione, la prima al mondo dedicata ai rischi dell’AI di frontiera, portò a un accordo politico su un punto fondamentale: per prendere decisioni proporzionate e credibili sull’intelligenza artificiale, i governi hanno bisogno di una base di evidenze scientifiche condivisa, indipendente dagli interessi industriali e aggiornata a cadenza regolare con l’evoluzione della tecnologia.

Il risultato è questo rapporto, giunto nel 2026 alla sua seconda edizione. Coordinato dal professor Yoshua Bengio, uno dei padri fondatori del deep learning, Premio Turing 2018, oggi tra le voci più rispettate a livello internazionale sul tema della sicurezza dell’AI, è prodotto con il contributo di un pannello consultivo di esperti nominati da oltre trenta paesi e organizzazioni internazionali, tra cui Unione Europea, OCSE e Nazioni Unite. L’Italia figura tra i paesi rappresentati nel panel con Andrea Monti, esperto legale che lavora con il Dipartimento per la Trasformazione Digitale.

Alla stesura hanno contribuito ricercatori di Stanford, MIT, Harvard, Cambridge, Oxford, Mila, Inria e molte altre istituzioni. Il testo, pur prodotto in collaborazione con il Dipartimento per la Scienza, l’Innovazione e la Tecnologia del governo britannico (DSIT), è completamente indipendente nei contenuti: gli autori hanno avuto completa discrezionalità sul testo finale. Hanno contribuito come revisori anche aziende come Anthropic, Google DeepMind, Meta, Microsoft, OpenAI e IBM, insieme a numerose organizzazioni della società civile.

Di cosa si occupa il Report: perimetro e metodologia

Il rapporto 2026 ha introdotto una novità metodologica importante rispetto alla prima edizione: la focalizzazione sui cosiddetti rischi emergenti, ovvero quelli che sorgono alla frontiera delle capacità dell’AI. Questa scelta ha permesso di restringere il campo d’analisi, aumentare il rigore scientifico e differenziarsi da altri strumenti istituzionali già esistenti, come il Panel Scientifico Internazionale Indipendente sull’AI delle Nazioni Unite.

Il documento non analizza tutta l’AI: si concentra sui sistemi general purpose, vale a dire quei modelli, tipicamente i grandi modelli linguistici e multimodali, in grado di svolgere una vasta gamma di compiti diversi senza essere stati progettati per uno scopo specifico. Questa è la categoria di sistemi che pone le sfide più rilevanti dal punto di vista della governance, proprio perché la loro natura trasversale li rende difficili da classificare e regolamentare con strumenti tradizionali.

Una delle tensioni che il rapporto cerca esplicitamente di affrontare è quella che definisce il dilemma delle evidenze: i sistemi AI diventano più capaci più rapidamente di quanto le evidenze empiriche sui loro rischi riescano a emergere e consolidarsi. Agire troppo presto rischia di produrre regolamentazioni inefficaci; aspettare troppo espone la società a danni potenzialmente gravi. La sintesi di evidenze disponibili offerta dal rapporto è pensata proprio per aiutare i decisori a navigare questa tensione.

Le capacità attuali: un progresso rapido ma irregolare

Il primo capitolo del rapporto mappa lo stato dell’arte dei sistemi AI general purpose. Il messaggio di fondo è chiaro: il progresso è stato rapido nell’ultimo anno, ma le capacità rimangono jagged, un termine inglese che significa irregolari o dentellate.

I sistemi di frontiera possono eccellere in compiti complessi, scrivere codice sofisticato, rispondere a quesiti di livello universitario in matematica e scienze, generare immagini fotorealistiche, eppure fallire su attività che sembrano banali, come contare oggetti in un’immagine, ragionare su relazioni spaziali o recuperare da errori elementari in sequenze di azioni prolungate.

La novità tecnica più rilevante dell’ultimo anno è l’inference-time scaling: la capacità di far elaborare ai modelli passi intermedi di ragionamento prima di fornire una risposta finale, utilizzando potenza computazionale aggiuntiva al momento dell’uso e non solo durante l’addestramento. Questa tecnica ha prodotto guadagni particolarmente significativi nei compiti di ragionamento complesso, confermando che il progresso non è più dipendente esclusivamente dalle dimensioni del modello o dalla quantità di dati di addestramento.

I sistemi AI di oggi superano già gli esami di abilitazione professionale in medicina e giurisprudenza, generano codice funzionante in decine di linguaggi di programmazione e sono in grado di condurre esperimenti scientifici in modo autonomo. Queste capacità non sono più ipotesi di laboratorio, si stanno già traducendo in applicazioni reali in sanità, ricerca scientifica e educazione.

Le proiezioni al 2030: incertezza strutturale

Il rapporto include, per la prima volta, scenari quantitativi sullo sviluppo dell’AI fino al 2030, elaborati con il contributo dell’OCSE e del Forecasting Research Institute. Il risultato è una mappa di possibilità, non una previsione deterministica. Il Report non ‘sceglie’ un futuro: mette sul tavolo diverse traiettorie.

Se dobbiamo farne una sintesi leggibile, tre macro percorsi aiutano a orientarci: un rallentamento o un plateau delle capacità, causato da strozzature nell’energia o nei dati di addestramento; una prosecuzione dei trend attuali; un’accelerazione drammatica, qualora i sistemi AI cominciassero ad accelerare essi stessi la ricerca sull’AI.

Le aziende sviluppatrici stanno investendo centinaia di miliardi di dollari in infrastrutture di calcolo, scommettendo che la potenza computazionale continuerà ad essere un fattore determinante. Ma il rapporto segnala esplicitamente che nessuno può escludere scenari di progresso molto più accelerato o, al contrario, di stasi prolungata. Questa incertezza strutturale rende ancora più urgente costruire sistemi di governance adattivi, capaci di rispondere a scenari multipli.

I rischi: una tassonomia in tre categorie

La parte più corposa del rapporto riguarda i rischi, organizzati in tre grandi categorie: uso malevolo, malfunzionamenti e rischi sistemici. Una tassonomia utile non solo a scopo analitico, ma anche come strumento di comunicazione istituzionale, perché permette di distinguere tipi di rischi che richiedono risposte politiche molto diverse.

Uso malevolo

I sistemi AI vengono già utilizzati per generare contenuti per truffe, frodi, ricatti e immagini intime non consensuali. Le prove documentate di questi usi esistono, ma mancano ancora dati sistematici sulla loro prevalenza e gravità, il che rende difficile calibrare le risposte.

L’AI viene anche impiegata per tentativi di influenza e manipolazione. In contesti sperimentali, i contenuti generati dall’AI si sono dimostrati altrettanto efficaci dei contenuti scritti da umani nel modificare le opinioni delle persone. L’uso reale di questi strumenti è documentato ma non ancora diffuso su larga scala, anche se il rapporto segnala che potrebbe crescere significativamente con il miglioramento delle capacità.

Sul fronte della cybersicurezza, i sistemi AI sono già in grado di scoprire vulnerabilità software e scrivere codice malevolo. In una competizione documentata nel rapporto, un agente AI ha identificato il 77% delle vulnerabilità presenti in software reali. Gruppi criminali e attori statali stanno già utilizzando sistemi AI general purpose nelle loro operazioni offensive.

Il punto rimasto irrisolto riguarda il bilanciamento. Chi beneficia di più dell’AI, gli attaccanti o i difensori? La risposta, per ora, non c’è.

Particolarmente preoccupante è la sezione sui rischi biologici e chimici. I sistemi AI general purpose sono già in grado di fornire informazioni dettagliate sullo sviluppo di agenti patogeni e istruzioni di laboratorio di livello esperto. Nel 2025, più sviluppatori hanno rilasciato nuovi modelli con salvaguardie aggiuntive dopo aver constatato di non poter escludere che questi sistemi potessero assistere operatori non esperti nella produzione di armi biologiche o chimiche. Il rapporto segnala la difficoltà di valutare in che misura le barriere materiali (accesso a laboratori, reagenti, ecc.) continuino a limitare concretamente i potenziali attori.

Malfunzionamenti

I sistemi AI attuali producono ancora errori significativi, inventano fatti (allucinazioni), scrivono codice difettoso, danno consigli fuorvianti. Le tecniche attuali possono ridurre i tassi di errore ma non abbastanza per molti contesti ad alto rischio.

Il rischio si amplifica con i sistemi agentici, che operano in modo autonomo su sequenze di azioni prolungate, rendendo più difficile l’intervento umano prima che un errore causi danni concreti.

Ancora più delicata è la questione del loss of control. Si tratta di scenari in cui i sistemi AI operano al di fuori di qualsiasi controllo umano, senza che esista un percorso chiaro per ripristinarlo. I sistemi attuali non hanno ancora le capacità per realizzare tali scenari, ma il rapporto segnala un trend preoccupante: sta diventando sempre più comune che i modelli distinguano tra ambienti di test e ambienti di produzione reale, e che identifichino ‘scappatoie’ nelle valutazioni pre-deployment. Questo significa che capacità potenzialmente pericolose potrebbero passare inosservate durante le valutazioni di sicurezza, per poi emergere in produzione.

Rischi sistemici

Sul mercato del lavoro, il rapporto adotta una posizione prudente: l’AI automatizzerà probabilmente una vasta gamma di compiti cognitivi, in particolare nel knowledge work. Ma gli economisti sono divisi sul saldo netto.

Alcuni ritengono che la creazione di nuovi posti di lavoro compenserà le perdite, altri temono un impatto significativo su occupazione e salari. Le evidenze precoci mostrano nessun effetto sull’occupazione complessiva, ma segnali di riduzione della domanda per i lavoratori alle prime armi in alcune professioni esposte all’AI, come la scrittura professionale.

Infine, i rischi per l’autonomia umana. L’uso crescente di sistemi AI potrebbe ridurre la capacità delle persone di prendere decisioni informate e agire in modo autonomo. Le prime evidenze suggeriscono che l’eccessivo affidamento sugli strumenti AI indebolisce il pensiero critico e favorisce l’automation bias: la tendenza a fidarsi dei risultati dei sistemi automatizzati senza un’adeguata verifica.

Le app di AI companion hanno già decine di milioni di utenti, una piccola quota dei quali mostra pattern di aumento della solitudine e riduzione del coinvolgimento sociale.

Gestione del rischio: sfide tecniche e istituzionali

Il terzo capitolo del rapporto è dedicato alle pratiche di gestione del rischio, ed è probabilmente quello di maggiore utilità pratica per chi opera nel settore. Il punto di partenza è una doppia difficoltà: tecnica e istituzionale.

Sul piano tecnico, le nuove capacità emergono spesso in modo imprevedibile, il funzionamento interno dei modelli resta ampiamente opaco e persiste un evaluation gap: le prestazioni nei test pre-deployment non predicono in modo affidabile le prestazioni nel mondo reale.

Sul piano istituzionale, le aziende hanno incentivi a mantenere le informazioni rilevanti proprietarie e la velocità dello sviluppo crea pressioni che privilegiano la velocità rispetto alla gestione del rischio.

Le pratiche di gestione del rischio documentate nel rapporto includono la modellazione delle minacce, le valutazioni delle capacità potenzialmente pericolose e i sistemi di incident reporting. Nel 2025, dodici aziende hanno pubblicato o aggiornato i propri Frontier AI Safety Framework: documenti che descrivono come intendono gestire i rischi man mano che sviluppano modelli più capaci.

La gestione del rischio rimane per lo più volontaria, anche se un numero crescente di regimi regolatori sta cominciando a formalizzare alcune pratiche come requisiti legali vincolanti, come prevede il regolamento AI Act europeo per i sistemi ad alto rischio.

Le salvaguardie tecniche stanno migliorando ma mostrano ancora limitazioni significative. Gli attacchi per ottenere output dannosi jailbreaking, le tecniche per aggirare i filtri, sono diventati più difficili da realizzare, ma è ancora possibile aggirare i filtri riformulando le richieste o suddividendole in passaggi più piccoli. L’approccio più robusto identificato dal rapporto è la defence in depth: stratificare più salvaguardie diverse, in modo che il fallimento di una non comprometta l’intero sistema.

Una sezione specifica è dedicata ai modelli open weight, quelli cioè i cui pesi sono pubblicamente disponibili. Il rapporto riconosce i loro benefici significativi, soprattutto per gli attori con meno risorse, ma evidenzia anche le difficoltà specifiche: non possono essere ritirati una volta rilasciati, le loro salvaguardie sono più facili da rimuovere, possono essere utilizzati al di fuori di ambienti monitorati, rendendo più difficile prevenire e tracciare gli usi malevoli.

Infine, il rapporto dedica ampio spazio alla societal resilience. Poiché nessun sistema di gestione del rischio può prevenire tutti gli incidenti, è essenziale costruire la capacità della società di assorbirli e riprendersi. Le misure indicate includono il rafforzamento delle infrastrutture critiche, lo sviluppo di strumenti per rilevare i contenuti generati dall’AI e il potenziamento della capacità istituzionale di rispondere a minacce nuove.

Cosa si impara leggendo l’International AI Safety Report: cinque takeaway fondamentali

Al di là dei singoli dati e scenari, la lettura del rapporto lascia alcune lezioni strutturali particolarmente utili per chi si occupi di politica digitale o di trasformazione aziendale.

Il progresso è reale ma non lineare. Le capacità dei sistemi AI stanno migliorando in modo significativo, ma in modo irregolare. Questo significa che le valutazioni basate su benchmark statici rischiano di essere rapidamente superate, e che le politiche di governance devono incorporare meccanismi di aggiornamento continuo.

I rischi esistono già, ma le evidenze sono parziali. Molti dei rischi descritti non sono ipotetici, si stanno già materializzando. Ma i dati sistematici sulla loro prevalenza e gravità sono ancora insufficienti. Questo gap informativo è esso stesso un problema di governance che richiede investimenti in sistemi di monitoraggio e reporting.

La governance richiede livelli multipli. Nessuna singola misura è sufficiente. Il rapporto promuove esplicitamente un approccio stratificato: standard tecnici, obblighi di trasparenza, regolamentazione formale e resilienza sistemica devono operare insieme. Questo è l’esatto impianto architetturale dell’AI Act europeo, che trova in questo documento un’autorevole conferma scientifica.

I modelli open weight richiedono un approccio specifico. La distinzione tra modelli proprietari e modelli open weight non è solo tecnica ma politicamente rilevante: i due tipi di sistemi hanno profili di rischio e beneficio molto diversi e richiedono strumenti di governance differenziati.

L’incertezza è essa stessa un dato. Il rapporto è esplicito nel riconoscere i limiti delle proprie conoscenze. Questa onestà epistemica è preziosa: in un dibattito pubblico dove l’iperbole abbonda, un documento scientifico che dice “non sappiamo” quando non sa è raro e utile.

Perché è importante: il ruolo nel sistema di governance globale

L’International AI Safety Report non è un documento come tanti, è il prodotto di un processo multilaterale unico nel suo genere: la prima valutazione scientifica sull’AI prodotta con la partecipazione formale di governi di oltre trenta paesi, incluse potenze come Cina, India, Stati Uniti, paesi africani e latinoamericani, oltre che la quasi totalità dei paesi europei.

Nel dibattito sulla governance dell’AI, il paragone che ricorre più spesso per descrivere questo rapporto è quello con l’IPCC, l’Intergovernmental Panel on Climate Change, il Gruppo intergovernativo di esperti sul cambiamento climatico istituito nel 1988 da ONU e WMO. L’IPCC non conduce ricerca propria, sintetizza sistematicamente la letteratura scientifica esistente sul clima, la sottopone a revisione internazionale e la mette a disposizione dei governi come base di evidenze per le trattative politiche globali.

Non prescrive politiche, non emette raccomandazioni vincolanti, produce la migliore fotografia scientifica disponibile, lasciando ai governi le scelte. La stessa logica che anima l’International AI Safety Report, una sintesi rigorosa e indipendente delle evidenze sui rischi dell’AI, prodotta con partecipazione multinazionale, pensata per informare, non sostituire, il giudizio politico.

Il rapporto non è vincolante, non prescrive soluzioni, non indica quale regolamentazione adottare. Si limita, il limite è una scelta deliberata e coraggiosa, a presentare ciò che si sa, ciò che non si sa ancora e perché entrambe le cose contano.

Per i professionisti italiani ed europei che lavorano con o intorno all’AI Act, questo rapporto offre la base scientifica di riferimento per interpretare le categorie di rischio, valutare la proporzionalità delle misure e anticipare l’evoluzione del quadro regolatorio. Per chi lavora nella trasformazione aziendale, è uno strumento per contestualizzare le scelte tecnologiche in un quadro di rischi e opportunità che va ben oltre i casi d’uso immediati.

Conclusione: uno strumento irrinunciabile per la policy digitale

L’International AI Safety Report 2026 è un documento denso, rigoroso e accessibile. Non è un testo per il grande pubblico, ma non è nemmeno relegato agli specialisti di machine learning: i capitoli sui rischi e sulla gestione del rischio sono pienamente leggibili da giuristi, policy maker, manager e giornalisti con una base di conoscenza digitale.

In un momento in cui le decisioni sull’AI si prendono a velocità crescente e con posta in gioco sempre più alta, disporre di questa base comune di conoscenza non è un lusso accademico ma un prerequisito per partecipare in modo informato al dibattito.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x