Red Teaming

IA più trasparente: la via italiana al testing etico



Indirizzo copiato

L’Ente Nazionale per l’Intelligenza Artificiale sviluppa le prime linee guida italiane per il red teaming e testing etico dell’AI, combinando valutazioni tecniche e civiche. Call aperta a esperti e cittadini per contributi metodologici

Pubblicato il 29 lug 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



ai literacy faq commissione europea alfabetizzazione all'IA fiducia nell'IA

Nel dibattito sull’intelligenza artificiale, cresce l’attenzione verso la necessità di test indipendenti e strutturati che vadano oltre l’ambito tecnico e coinvolgano dimensioni etiche, sociali e decisionali.

La necessità di test sull’AI indipendenti e integrati

In questa direzione si colloca l’iniziativa dell’Ente Nazionale per l’Intelligenza Artificiale (ENIA), che ha avviato la redazione delle prime linee guida italiane per il red teaming e il testing etico dei sistemi AI.

Il documento, articolato in nove moduli metodologici, intende proporre una metodologia di verifica che combini elementi tecnici (come la robustezza dei modelli, le vulnerabilità note, l’opacità delle scelte algoritmiche) con pratiche più ampie di valutazione civica e deliberazione pubblica.

L’obiettivo dichiarato non è tanto quello di produrre uno standard normativo, quanto di stimolare un metodo critico per l’analisi dei sistemi intelligenti, aperto al confronto interdisciplinare.

Il quadro normativo europeo e le sfide nazionali

L’iniziativa si inserisce in un panorama normativo e culturale in trasformazione. Il nuovo Regolamento europeo sull’AI (AI Act) introduce obblighi di trasparenza, valutazione del rischio e tracciabilità per i sistemi ad alto impatto, ma non definisce in modo prescrittivo le modalità di testing indipendente. Lo spazio lasciato agli Stati membri è significativo e pone la questione della qualità metodologica degli strumenti adottati a livello nazionale.

Modelli internazionali di riferimento per il red teaming

Allo stesso tempo, anche a livello internazionale si osserva un’evoluzione nel modo di concepire la validazione dei sistemi intelligenti. Accanto ai test di robustezza e conformità, cresce l’interesse per forme di valutazione più trasversali, che includano le dimensioni sociali e deliberative. Si veda, ad esempio:

  • il NIST AI Risk Management Framework statunitense, che include pratiche di red teaming e “socio-technical evaluation” e raccomanda approcci proattivi alla gestione dei rischi lungo l’intero ciclo di vita dei sistemi AI, con particolare attenzione alla trasparenza e al coinvolgimento degli stakeholder.
  • il documento AI and Trust dell’OECD, che sottolinea la necessità di strumenti trasversali per rafforzare la fiducia nei sistemi intelligenti attraverso approcci che combinano audit tecnico, inclusione sociale, e partecipazione deliberativa;
  • le prime sperimentazioni condotte da enti come la Partnership on AI che ha promosso la pratica del “red teaming in the public interest” per testare i limiti dei modelli linguistici e generativi attraverso simulazioni di attacchi e scenari critici orientati al bene pubblico e l’AI Now Institute, che da anni lavora su audit sociali e governance democratica dell’AI, con proposte per rafforzare il controllo pubblico sulle tecnologie attraverso processi deliberativi, pratiche partecipative e regolazione informata.
  • Inoltre, un esempio concreto di bias epistemici è offerto dal dataset SHADES, sviluppato da Hugging Face, include oltre 300 stereotipi culturali in 16 lingue, e dimostra come i modelli linguistici non solo riproducano, ma spesso amplifichino pregiudizi tramite giustificazioni pseudo-scientifiche.

La proposta ENIA: struttura e obiettivi

In questo quadro, l’iniziativa di ENIA prova a colmare un vuoto metodologico, proponendo una struttura di testing epistemico e civico che si propone come riferimento nazionale.

Il documento in fase di redazione prevede nove moduli che affrontano, tra gli altri:

  • le manipolazioni linguistiche (es. prompt injection),
  • le vulnerabilità epistemiche (model inversion, data poisoning),
  • l’opacità e l’inferenza automatica (black box, explainability),
  • le condizioni di accettabilità sociale nei contesti pubblici e professionali.

Si tratta, secondo i promotori, di temi che richiedono un approccio integrato tra discipline tecniche e umanistiche. Il documento, ambisce a costruire una “infrastruttura cognitiva” per il testing, nella quale la valutazione algoritmica venga verificata non solo sul piano ingegneristico, ma anche su quello epistemico e sociale.

Partecipazione pubblica e call for contributions

In questo senso, la metodologia proposta intreccia semiotica e crittografia, etica normativa e pedagogia sociale, teoria della decisione e democrazia deliberativa. L’aspetto rilevante, dal punto di vista istituzionale, è l’apertura del gruppo di lavoro a contributi esterni. ENIA ha infatti avviato una call for contributions rivolta a studiosi, professionisti, esperti di policy, giuristi, ingegneri, educatori, cittadini consapevoli. I contributi selezionati entreranno nel Registro dei Collaboratori Scientifici e Civici e parteciperanno alle fasi redazionali, sperimentali e deliberative.

Chi fosse interessato può inviare la propria candidatura scrivendo a:

  • enia.ai@enia.ai (oggetto: Adesione Red Teaming Guidelines)
  • Maggiori informazioni: www.enia.ai

Prospettive e implicazioni del metodo ENIA

L’approccio di ENIA si distingue per l’intento di formalizzare un metodo di validazione che sia scientificamente fondato, ma anche legittimato da un confronto pubblico, compatibile con i quadri normativi europei (AI Act, GDPR, ISO/IEC 42001), ma non subordinato ad essi. In attesa di una prima versione pubblica del documento, rimane da verificare se e come questo impianto sarà effettivamente adottato da soggetti terzi, imprese, enti regolatori, pubbliche amministrazioni, o se resterà un esperimento metodologico interno all’ecosistema della ricerca civica.

In ogni caso, l’apertura del cantiere offre l’occasione per interrogarsi su cosa significhi davvero testare l’AI, in un momento in cui la fiducia pubblica nelle tecnologie intelligenti è oggetto di tensioni crescenti, e i tradizionali strumenti di audit sembrano spesso insufficienti.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati