AI literacy

AI gen nei report di consulenza, quanti rischi: il caso Deloitte



Indirizzo copiato

Il colosso Deloitte restituirà parte del compenso al governo australiano dopo aver ammesso di aver usato l’AI per redigere un report da 440.000 dollari, costellato di errori e citazioni inventate: il problema non è solo tecnico, è culturale e riguarda il modo in cui le organizzazioni usano, o delegano, l’intelligenza artificiale

Pubblicato il 7 ott 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



Massimizzare l’adozione dell’AI in sanità: verso un approccio strategico di lungo periodo; AI gen consulenza; superintelligenza; AI industria
Foto: Shutterstock

Deloitte Australia ha ammesso di aver utilizzato un modello di AI generativa , nello specifico una catena di strumenti basata su Azure OpenAI GPT‑4, per colmare “lacune di tracciabilità e documentazione” in un rapporto commissionato dal Department of Employment and Workplace Relations (DEWR). Il documento, pubblicato a luglio 2025, riguardava la revisione del sistema informatico che automatizza le sanzioni nel welfare australiano.

Dopo che il docente universitario Christopher Rudge (Università di Sydney) aveva evidenziato numerosi errori, citazioni accademiche inesistenti, riferimenti falsi e perfino una frase attribuita a un giudice che non compare in nessuna sentenza, Deloitte ha accettato di rimborsare parte del compenso e ha ricaricato sul sito del governo una versione corretta, ammettendo l’uso di AI.

AI gen nei report di consulenza, i rischi

Il primo report citava opere e autori mai esistiti, tra cui due titoli attribuiti alla professoressa Lisa Burton Crawford e un presunto saggio di Carolyn Adams. In alcuni casi l’AI aveva perfino generato una falsa sentenza della Corte Federale, completa di paragrafi e nomi errati.

Le cosiddette hallucinations non sono un’anomalia imprevista, ma una caratteristica intrinseca dei modelli linguistici di grandi dimensioni. L’AI tende a inventare informazioni per mantenere coerenza linguistica o completare istruzioni incomplete. È un limite noto e documentato, che impone uso critico e supervisione umana. Il problema non è che l’AI sbagli, ma che venga trattata come un sistema infallibile, come se fosse una AGI capace di comprendere e verificare autonomamente. Non lo è, e non lo sarà nel breve periodo.

AI gen in consulenza, superficialità e cultura del workslop

Il caso Deloitte rivela un’altra dinamica più profonda, la superficialità operativa con cui strumenti complessi vengono integrati nei flussi di lavoro senza un reale controllo. È il fenomeno che molti studiosi definiscono workslop, l’automatizzazione del superficialismo, dove la pressione alla produttività sostituisce il pensiero critico. Nel caso specifico, l’AI è stata impiegata non per migliorare la qualità cognitiva del lavoro, ma per “riempire spazi”, generare testo, uniformare linguaggio. Il risultato è un paradosso, un report commissionato per garantire tracciabilità e trasparenza nei sistemi pubblici che si è rivelato non tracciabile e non verificabile, proprio come il sistema che intendeva analizzare.

Responsabilità, governance e processo organizzativo

Deloitte non ha mai dichiarato pubblicamente l’uso dell’AI nella prima versione del documento. Solo dopo le critiche ha inserito nel metodo una nota tecnica che citava l’impiego di un modello GPT‑4o. La vicenda solleva domande cruciali:

  • chi controlla la qualità dei contenuti generati con AI?
  • chi verifica la correttezza delle fonti e delle citazioni?
  • e, soprattutto, chi risponde degli errori quando la produzione cognitiva è automatizzata?

È qui che emerge la vera carenza, una governance dell’AI ancora immatura. Servono procedure di revisione, ruoli chiari, tracciabilità delle fonti e una cultura etica che accompagni la trasformazione digitale. Le policy di principio non bastano, occorre una infrastruttura decisionale che distingua ciò che l’AI può fare, ciò che deve essere verificato e ciò che spetta solo al giudizio umano.

Il caso Deloitte, lezioni per le organizzazioni

Il caso non delegittima l’uso dell’intelligenza artificiale nella consulenza o nella pubblica amministrazione. Mostra, piuttosto, che senza cultura, metodo e responsabilità, anche i leader globali possono cadere vittima della scorciatoia cognitiva. È la dimostrazione che l’AI non sostituisce l’intelligenza umana, la amplifica solo se accompagnata da visione, competenza e controllo. La lezione per il futuro è chiara, l’AI generativa va usata cum grano salis, con consapevolezza e discernimento. La velocità non è comprensione, l’efficienza non è qualità. Solo dove la tecnologia incontra cultura e giudizio umano può nascere un’intelligenza davvero utile, affidabile e responsabile.

Verso una governance dell’AI più matura

Il caso Deloitte dimostra l’urgenza di costruire strutture di AI governance solide e trasparenti. Ciò significa introdurre standard di audit per i processi automatizzati, policy di responsabilità condivisa e sistemi di monitoraggio continuo sugli output generati dalle macchine. Le organizzazioni devono integrare la AI literacy tra le competenze chiave di chi decide, progetta e controlla, creando una catena del valore in cui la supervisione umana resti il perno centrale. Solo così sarà possibile passare da una gestione episodica a una governance sistemica, in cui l’AI non sia uno strumento di apparenza o produttività, ma un motore consapevole di innovazione, sicurezza e affidabilità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati