intelligenza artificiALE

Giornalismo aumentato: come l’AI sta cambiando le redazioni



Indirizzo copiato

L’uso dell’intelligenza artificiale nel giornalismo è ormai realtà: il 9% degli articoli statunitensi presenta elementi AI-generati. Testate come Associated Press e Axios sperimentano modelli ibridi, mantenendo supervisione umana. Restano aperti nodi su copyright, trasparenza e impatto occupazionale della tecnologia

Pubblicato il 21 nov 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



ai nel giornalismo

Tra promesse di efficienza e timori di sostituzione, l’intelligenza artificiale sta attraversando le redazioni di tutto il mondo, ponendo un interrogativo centrale: l’AI è un nuovo giornalista o solo uno strumento? In realtà, come spesso accade nelle transizioni tecnologiche, la risposta non è binaria ma sistemica: dipende da governance, competenze e cultura professionale.

Quando l’algoritmo diventa assistente d’inchiesta

Quando il reporter Ryan Sabalow, di CalMatters, iniziò a seguire i legislatori californiani nel 2023, notò un comportamento curioso. Molti politici pronunciavano discorsi infuocati contro determinate leggi, salvo poi astenersi dal voto. Un’anomalia che in passato avrebbe richiesto ore di ricerca in archivi o database complessi.

Oggi, invece, Sabalow e il suo team hanno potuto affidarsi a Digital Democracy, uno strumento di AI che registra ogni parola pronunciata nei dibattiti pubblici e ogni voto espresso. Il risultato è stato un’inchiesta vincitrice di un Emmy, che ha rivelato come una legge popolare sul fentanyl fosse stata bloccata non per opposizione aperta, ma per astensione silenziosa.

Un esempio emblematico di ciò che sta accadendo in molte redazioni, l’AI non sostituisce il giornalista, ma lo potenzia. Strumenti come ChatGPT, Gemini, NotebookLM o soluzioni su misura permettono oggi di interrogare database legislativi, analizzare bilanci, sintetizzare documenti e persino suggerire titoli o ipotesi di racconto.

Diffusione e adozione dell’AI nelle redazioni americane

Lo confermano i casi di Associated Press, che ha usato l’AI per analizzare decine di migliaia di pagine sui dossier Kennedy, e di Axios, che utilizza modelli generativi per selezionare e riassumere le notizie più rilevanti nei suoi Local newsletters, sempre con supervisione umana.

Un recente studio ha rilevato che circa il 9% degli articoli pubblicati negli Stati Uniti nel 2025 presenta elementi generati da AI, soprattutto nelle testate locali. Il dato, se da un lato segnala un’evoluzione funzionale, dall’altro solleva interrogativi su trasparenza, controllo e fiducia.

Il trade-off tra produttività e identità professionale

Per molte redazioni, l’AI è una risposta pragmatica alla scarsità di risorse e alla pressione di pubblicare in tempo reale. Automatizzare alcune fasi del lavoro redazionale, come la ricerca di dati, la trascrizione o la stesura di bozze, libera tempo per attività a maggiore valore aggiunto: inchieste, verifica delle fonti, racconto approfondito. In questo senso, la tecnologia consente un ritorno all’essenza del giornalismo: osservare, analizzare, interpretare.

Ma dietro la promessa di efficienza si nasconde un nodo identitario. Se i giornalisti si limitano a “sorvegliare” ciò che scrive l’AI, il rischio è un’erosione lenta della competenza e della credibilità. È un dilemma già visibile nel modo in cui testate globali stanno sperimentando. Bloomberg, ad esempio, ha dovuto rimuovere e correggere decine di riassunti prodotti da AI che riportavano dati o citazioni errate. La lezione è chiara, senza controllo umano e trasparenza, la produttività diventa vulnerabilità.

Il giudizio umano resta insostituibile

Stephen Adler, ex direttore di Reuters, oggi alla guida della Ethics and Journalism Initiative della NYU, riassume bene la questione: “L’AI eccelle nel gestire dati, correggere testi o identificare incongruenze, ma come tutta la tecnologia porta con sé rischi significativi.

Non può sostituire il giudizio umano, né la responsabilità morale della decisione editoriale.”

La battaglia per il controllo tecnologico e la proprietà intellettuale

Il punto non è più se usare o meno l’AI, ma come usarla. Dopo l’impatto devastante della rivoluzione digitale, che ha eroso ricavi pubblicitari e ridotto l’autonomia dei media, gli editori non vogliono ripetere lo stesso errore di passività.

Il New York Times, che ha siglato un accordo di licenza AI con Amazon e avviato una causa contro OpenAI e Microsoft per violazione del copyright, rappresenta oggi il fronte di una battaglia industriale cruciale: difendere la proprietà intellettuale come asset strategico nel training dei modelli linguistici.

In Europa, anche Axel Springer (editore di Politico e Business Insider) ha iniziato a utilizzare modelli generativi per servizi come un pianificatore di viaggi interattivo, ma rivendica la proprietà dei contenuti utilizzati per addestrarli. La linea è sottile, accogliere la tecnologia senza consegnarle la fonte primaria di valore, ovvero il contenuto originale.

Rischi di dipendenza tecnologica e perdita di autonomia

Il nodo giuridico è centrale, ma altrettanto lo è quello etico. Una ricerca del Tow Center for Digital Journalism mette in guardia dal rischio di “lock-in” tecnologico: redazioni che, affidandosi completamente a piattaforme esterne, perdono progressivamente autonomia, fino a delegare non solo la produzione ma anche la selezione dei temi e la definizione delle priorità editoriali.

La percezione pubblica e le preoccupazioni dei lettori

La fiducia è oggi la valuta più scarsa del sistema informativo. Secondo il Pew Research Center, il 66% degli americani si dice “molto preoccupato” per la possibilità che l’AI produca notizie inaccurate, il 59% ritiene che nei prossimi vent’anni il suo impiego ridurrà i posti di lavoro nel giornalismo.

Standard di trasparenza e policy editoriali

Queste percezioni impongono una strategia di trasparenza. L’Associated Press, ad esempio, ha stabilito già da tempo che l’AI non può essere usata per creare contenuti pubblicabili senza revisione umana, ogni utilizzo deve essere dichiarato. Una regola che potrebbe valere come standard minimo, dire ai lettori quando e come una tecnologia entra nel processo editoriale.

Tensioni interne e dibattiti etici nelle redazioni

Le esperienze di National Public Radio, una rete di emittenti radiofoniche pubbliche statunitensi, non profit, fondata nel 1970, e del Washington Post mostrano anche le tensioni interne. In entrambi i casi, la proposta di sperimentare sistemi di sintesi automatica di articoli o audio ha generato dibattiti etici accesi.

“Noi siamo quella parte intermedia e quella parte comporta scelte giornalistiche“, ha ricordato un produttore di NPR durante un confronto interno. Una frase che sintetizza bene il rischio di spostare la decisione dal giornalista all’algoritmo, cioè di confondere l’automazione con l’autorialità.

Il modello del giornalismo aumentato

Il futuro più realistico è quello del giornalismo aumentato, dove l’AI affianca, ma non sostituisce. L’automazione può gestire la ricerca di fonti, la trascrizione di interviste o la prima analisi di dataset, mentre l’umano mantiene la centralità interpretativa: verifica, contestualizzazione, responsabilità editoriale.

Si tratta di un equilibrio dinamico, che richiede nuove competenze e una governance più matura. Le redazioni dovranno dotarsi di policy interne chiare, processi di audit sull’uso dell’AI, formazione continua per i giornalisti e, soprattutto, una cultura dell’innovazione responsabile.

Sperimentazioni italiane e limiti narrativi dell’AI

In questa direzione si muovono alcune esperienze italiane: Il Foglio ha pubblicato nel 2025 un numero interamente generato da AI, un esperimento che ha dimostrato tanto la potenza degli strumenti quanto i loro limiti narrativi (“scrivere bene non è ancora giornalismo”, ha commentato la redazione).

L’AI come amplificatore: responsabilità e governance

Alla fine, la domanda “l’AI è un giornalista o uno strumento?” è mal posta. L’AI non ha intenzioni, non ha senso del contesto, non costruisce relazioni di fiducia. È un amplificatore e come tale, amplifica ciò che trova: se le redazioni le forniscono rigore, verità e metodo, ne amplificherà l’efficacia; se le affidano superficialità e fretta, amplificherà il rumore.

Per questo il futuro del giornalismo non dipende dalla tecnologia, ma dalla capacità di governarla. Le redazioni che investiranno in formazione, trasparenza e infrastrutture autonome potranno trasformare l’AI in un alleato strategico; quelle che la useranno come scorciatoia rischiano invece di perdere non solo i lettori, ma la propria identità professionale.

Conclusione: la tecnologia cambia, il giornalismo resta domande

In fondo, come ricordava il veterano del Denver Post in un’intervista del 1974 (citata nel reportage del New York Times), “la tecnologia cambia, ma il giornalismo resta un mestiere di domande”. Forse questo è il punto. Nell’era degli algoritmi che generano risposte, ciò che serve di più sono persone capaci di continuare a fare le domande giuste.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati