Deloitte Australia ha ammesso di aver utilizzato un modello di AI generativa , nello specifico una catena di strumenti basata su Azure OpenAI GPT‑4, per colmare “lacune di tracciabilità e documentazione” in un rapporto commissionato dal Department of Employment and Workplace Relations (DEWR). Il documento, pubblicato a luglio 2025, riguardava la revisione del sistema informatico che automatizza le sanzioni nel welfare australiano.
Dopo che il docente universitario Christopher Rudge (Università di Sydney) aveva evidenziato numerosi errori, citazioni accademiche inesistenti, riferimenti falsi e perfino una frase attribuita a un giudice che non compare in nessuna sentenza, Deloitte ha accettato di rimborsare parte del compenso e ha ricaricato sul sito del governo una versione corretta, ammettendo l’uso di AI.
Indice degli argomenti
AI gen nei report di consulenza, i rischi
Il primo report citava opere e autori mai esistiti, tra cui due titoli attribuiti alla professoressa Lisa Burton Crawford e un presunto saggio di Carolyn Adams. In alcuni casi l’AI aveva perfino generato una falsa sentenza della Corte Federale, completa di paragrafi e nomi errati.
Le cosiddette hallucinations non sono un’anomalia imprevista, ma una caratteristica intrinseca dei modelli linguistici di grandi dimensioni. L’AI tende a inventare informazioni per mantenere coerenza linguistica o completare istruzioni incomplete. È un limite noto e documentato, che impone uso critico e supervisione umana. Il problema non è che l’AI sbagli, ma che venga trattata come un sistema infallibile, come se fosse una AGI capace di comprendere e verificare autonomamente. Non lo è, e non lo sarà nel breve periodo.
AI gen in consulenza, superficialità e cultura del workslop
Il caso Deloitte rivela un’altra dinamica più profonda, la superficialità operativa con cui strumenti complessi vengono integrati nei flussi di lavoro senza un reale controllo. È il fenomeno che molti studiosi definiscono workslop, l’automatizzazione del superficialismo, dove la pressione alla produttività sostituisce il pensiero critico. Nel caso specifico, l’AI è stata impiegata non per migliorare la qualità cognitiva del lavoro, ma per “riempire spazi”, generare testo, uniformare linguaggio. Il risultato è un paradosso, un report commissionato per garantire tracciabilità e trasparenza nei sistemi pubblici che si è rivelato non tracciabile e non verificabile, proprio come il sistema che intendeva analizzare.
Responsabilità, governance e processo organizzativo
Deloitte non ha mai dichiarato pubblicamente l’uso dell’AI nella prima versione del documento. Solo dopo le critiche ha inserito nel metodo una nota tecnica che citava l’impiego di un modello GPT‑4o. La vicenda solleva domande cruciali:
- chi controlla la qualità dei contenuti generati con AI?
- chi verifica la correttezza delle fonti e delle citazioni?
- e, soprattutto, chi risponde degli errori quando la produzione cognitiva è automatizzata?
È qui che emerge la vera carenza, una governance dell’AI ancora immatura. Servono procedure di revisione, ruoli chiari, tracciabilità delle fonti e una cultura etica che accompagni la trasformazione digitale. Le policy di principio non bastano, occorre una infrastruttura decisionale che distingua ciò che l’AI può fare, ciò che deve essere verificato e ciò che spetta solo al giudizio umano.
Il caso Deloitte, lezioni per le organizzazioni
Il caso non delegittima l’uso dell’intelligenza artificiale nella consulenza o nella pubblica amministrazione. Mostra, piuttosto, che senza cultura, metodo e responsabilità, anche i leader globali possono cadere vittima della scorciatoia cognitiva. È la dimostrazione che l’AI non sostituisce l’intelligenza umana, la amplifica solo se accompagnata da visione, competenza e controllo. La lezione per il futuro è chiara, l’AI generativa va usata cum grano salis, con consapevolezza e discernimento. La velocità non è comprensione, l’efficienza non è qualità. Solo dove la tecnologia incontra cultura e giudizio umano può nascere un’intelligenza davvero utile, affidabile e responsabile.
Verso una governance dell’AI più matura
Il caso Deloitte dimostra l’urgenza di costruire strutture di AI governance solide e trasparenti. Ciò significa introdurre standard di audit per i processi automatizzati, policy di responsabilità condivisa e sistemi di monitoraggio continuo sugli output generati dalle macchine. Le organizzazioni devono integrare la AI literacy tra le competenze chiave di chi decide, progetta e controlla, creando una catena del valore in cui la supervisione umana resti il perno centrale. Solo così sarà possibile passare da una gestione episodica a una governance sistemica, in cui l’AI non sia uno strumento di apparenza o produttività, ma un motore consapevole di innovazione, sicurezza e affidabilità.











