Qualche settimana fa un quotidiano nazionale ha pubblicato un articolo con in calce una frase generata da ChatGPT. La svista editoriale è diventata virale sui social, ma il vero problema non è l’errore in sé. È che milioni di persone ora pensano: “se lo usa il giornalista, allora l’AI è affidabile”. E così, involontariamente, l’articolo ha dato la patente di credibilità all’intelligenza artificiale.
Indice degli argomenti
AI, l’errore che diventa simbolo
“Vuoi che lo trasformi in un articolo da pubblicare su un quotidiano (con titolo, occhiello e impaginazione giornalistica) o in una versione più narrativa da magazine d’inchiesta?” Era questa la proposta finale di ChatGPT lasciata lì dall’autore per sbaglio, stampata nero su bianco, come un retroscena dimenticato in una fiction televisiva.
La reazione immediata è stata quella prevedibile: meme, battute, qualche articolo di approfondimento. Ma dietro la svista c’è un problema più grande che arriva dopo, nel tam tam social, nella percezione collettiva che questa vicenda cementerà nelle menti di tantissime persone.
La percezione sociale e l’effetto imitazione
Perché mentre molti lettori del quotidiano probabilmente non se ne sono nemmeno accorti, sui social network è successo l’esatto opposto. Migliaia, forse milioni di persone hanno visto quella frase, l’hanno condivisa, ci hanno riso sopra, ne hanno parlato, e nel processo hanno inconsapevolmente aggiornato il loro sistema di credenze su cosa sia affidabile e cosa no. Secondo me si è quindi innescato un ragionamento preciso: se lo usa chi scrive sui giornali, se lo usano gli scrittori di mestiere, allora l’AI è affidabile. Se chi sa scrivere la usa, allora posso usarla anch’io senza perdere tempo a leggere, a verificare, a capire.
L’autorevolezza del giornalismo come veicolo di legittimazione
Il giornalismo oggi attraversa una fase complessa, tra pressioni economiche e sfide digitali che ne mettono alla prova la sostenibilità. Eppure, nonostante tutto, mantiene ancora un giusto ruolo di autorevolezza nel nostro immaginario collettivo. Chi scrive professionalmente studia, verifica, sa come funzionano le cose. Quando una figura autorevole usa uno strumento, implicitamente lo legittima agli occhi del pubblico generalista, e questa percezione di credibilità conta anche quando non è esplicitamente dichiarata.
Per osmosi è come se chi sa abbia dato la patente del sapere anche all’intelligenza artificiale. E nel nostro glitch mentale continuamente alla ricerca di conferme di quanto già pensiamo, questa associazione diventa un fatto acquisito.
Il bias di conferma e l’uso consapevole dell’AI
Lo so, può sembrare un ragionamento estremo, ma ormai non mi stupisco più di niente. Il bias di conferma è sempre dietro l’angolo, pronto a trasformare una coincidenza in una verità, e così una semplice svista diventa un fenomeno sociale, un precedente, una giustificazione per le persone che aspettavano solo un pretesto per delegare anche il pensiero critico a un chatbot. E non sto dicendo che l’AI sbagli sempre, ma sappiamo ormai tutti come funzionano i tool generativi: ci azzeccano molto spesso, certo, ma le allucinazioni sono sempre dietro l’angolo. E siamo onesti: l’AI la usiamo tutti ormai, io per primo. La uso per farmi aiutare a produrre contenuti, a velocizzare ricerche, a sistemare testi. È uno strumento potente e utile. Gli errori di questo tipo possono capitare a chiunque, anche a me. Il punto non è demonizzare l’AI o chi la usa. Qui su Agendadigitale trovate dei miei articoli dove ad esempio illustro il mio Protocollo delle 3C per orchestrare le AI.
La catena di responsabilità nella produzione dei contenuti
Ma non tutte le colpe sono dell’autore del pezzo. Perché da che mondo è mondo, prima di essere pubblicato su un quotidiano cartaceo un contenuto dovrebbe essere passato ai raggi X da più figure. Fra queste, il correttore di bozze è un operatore di importanza straordinaria, al contrario di quanto si pensi: è il guardiano finale, quello che intercetta gli errori prima che diventino pubblici, quello che nota la frase di troppo, il refuso, l’incongruenza. Ma se anche questa figura col tempo è stata quasi accantonata o sostituita da tool automatici, poi è normale che le sviste siano sempre più giganti. La questione è economica, certo. Se un compito fatto dall’AI è più veloce, più economico, fa risparmiare cinque maestranze, ovviamente sarà scelta quella soluzione. La logica è impeccabile, ma il risultato è quello che abbiamo visto: un articolo con ancora dentro la chiusura di ChatGPT.
Il circolo vizioso della produzione di contenuti
Siamo di fronte a un circolo vizioso che riguarda tutta la produzione di contenuti professionali: si tagliano i costi, si riduce il personale, si velocizzano i processi. Gli errori aumentano, la credibilità crolla, il pubblico si allontana, gli introiti diminuiscono, e si taglia ancora. E così via, in un loop che non porta da nessuna parte se non al progressivo svuotamento di senso del mestiere stesso.
L’esplosione dell’AI nelle aziende e i numeri della normalizzazione
E mentre chi produce contenuti taglia, le aziende abbracciano. Secondo McKinsey & Company, nel 2024 il 65% delle organizzazioni usa regolarmente l’intelligenza artificiale generativa, quasi il doppio rispetto al 33% del 2023. Un’esplosione che ha coinvolto la scrittura, l’analisi dei contenuti, l’automazione, lo sviluppo software, ogni settore, ogni funzione aziendale.
Veloce, economico, efficiente: ma a che prezzo?
Torniamo però al punto centrale: la percezione. L’assuefazione dannosa che innesca arriverà fra diversi mesi, quando sarà dimenticata la vicenda, ma intanto milioni di persone hanno acquisito un precedente mentale. “L’ha usata il professionista, quindi va bene usarla. Se lo fa chi sa scrivere, posso farlo anch’io.” E i numeri lo confermano. Partiamo dagli USA che sono sempre un ottimo termometro: secondo il Pew Research Center, il 34% degli adulti statunitensi ha già usato ChatGPT, con il 28% degli impiegati che lo usa per il lavoro, il 17% per imparare qualcosa di nuovo, il 17% per intrattenimento. La normalizzazione è già in atto.
E in Italia? Secondo ISTAT, l’8,2% delle imprese con almeno 10 addetti utilizzava tecnologie di intelligenza artificiale nel 2024, rispetto al 5% del 2023. Un aumento del 64% in un anno. Tra le imprese che già usano AI, il 45,3% ha adottato AI generativa per creare testi. E il dato più significativo: tra le imprese che usano AI, il 70,3% dichiara di voler investire ulteriormente nel biennio 2025-2026. Siamo indietro rispetto alla media europea del 13,5%, certo. Ma stiamo correndo. E dove stiamo correndo? Verso la stessa normalizzazione acritica che questa vicenda della frase dimenticata sta accelerando. Non è un caso che, secondo EY Italy, l’uso di strumenti AI tra i professionisti italiani sia salito dal 12% al 46% in un solo anno. Quasi quattro volte tanto.
Il meccanismo automatico della delega del pensiero critico
Questa è la logica che si instaura. E non è una logica consapevole, razionale: è un meccanismo automatico, un’associazione che si forma nel nostro cervello mentre scrolliamo il feed, mentre ridiamo del meme, mentre condividiamo l’ennesimo post ironico, mentre diventiamo Sonnambuli Digitali. Nel frattempo, nessuno si chiede cosa significhi davvero usare l’AI per scrivere, nessuno si chiede se il contenuto sia affidabile, se il ragionamento regga. Perché tanto, se l’hanno fatto i professionisti, allora vuol dire che si può fare. Fine del ragionamento.
Eppure così come nella cybersicurezza la postura tende alla protezione assoluta, così la postura della frequentazione dei contenuti online potrebbe tendere al dubbio, al porsi domande: chi ha scritto, come, perché. A fermarsi e respirare prima di condividere, prima di credere, prima di farci un’opinione definitiva. Ma non lo facciamo perché è faticoso, perché ci piace credere che le cose siano semplici, perché vogliamo che ci sia qualcuno che sa, qualcuno a cui delegare il pensiero critico. E se prima erano quelli che lavorano con le parole di mestiere, ora può essere tranquillamente l’AI.
In fondo, se la usano loro, perché non dovremmo usarla noi?
La cultura digitale che manca e la postura del dubbio
Tutto questo si incastona perfettamente nel concetto di cultura digitale, che purtroppo nel nostro paese latita. Non parlo di competenze tecniche, di saper usare un software o di conoscere un linguaggio di programmazione, ma di quella consapevolezza di base che dovrebbe farci capire come funziona il mondo in cui viviamo: come si produce un contenuto, come si verifica una fonte, come si valuta l’affidabilità di un’informazione. Come dico in Digitalogia, è necessario tenere acceso il cervello anche nell’attività più semplice del mondo, scrollare col pollice davanti a uno schermo, e costruire una postura difensiva, una modalità di fruizione dei contenuti che parta sempre dal dubbio, dalla verifica, dalla consapevolezza che nulla di quello che vediamo online è neutro.
Ma se questa cultura non si costruisce a livello collettivo, se rimane un’eccezione per pochi invece che diventare una normalità diffusa, continueremo ad assistere a fenomeni come questo: errori che si trasformano in precedenti, sviste che diventano legittimazioni, incidenti che si trasformano in fenomeni sociali.
La soluzione passa dalle persone, non dalla tecnologia
La tentazione, a questo punto, sarebbe quella di dire che serve più AI per controllare l’AI, più automazione per intercettare gli errori, più tecnologia per risolvere i problemi creati dalla tecnologia, ma questa è esattamente la logica che ci ha portati fin qui. La soluzione passa dalle persone, da chi impara a leggere diversamente, a dubitare, a verificare. Da noi cittadini che smettiamo di cercare scorciatoie cognitive, di delegare il pensiero critico, di credere che se qualcosa è veloce ed economico allora è anche giusto. Non è una questione di essere migliori degli altri, ma di essere più consapevoli. Io stesso uso l’AI ogni giorno, e so che l’errore è sempre in agguato.
La metafora perfetta del nostro tempo digitale
Quella frase di ChatGPT lasciata in fondo all’articolo, alla fine, è una metafora perfetta del momento che stiamo vivendo: il retroscena che diventa pubblico, il processo che si fa contenuto, l’illusione che si svela da sola. Ma invece di vederla per quello che è, un campanello d’allarme su come stiamo gestendo la transizione verso l’uso massivo dell’intelligenza artificiale, la trasformiamo in una barzelletta, in un meme, in un’occasione per ridere dell’errore altrui. Nel frattempo, la percezione cambia, la normalità si sposta, e l’affidabilità dell’AI viene certificata non da uno studio, non da una verifica, ma da un errore diventato virale.
Noi, intanto, continuiamo a scrollare, a condividere, a costruire il nostro futuro un click alla volta, senza nemmeno rendercene conto.











