scenari

Algoritmi in redazione: chi decide davvero le notizie?



Indirizzo copiato

L’intelligenza artificiale entra nelle redazioni come filtro, segretario e persino direttore, spostando l’equilibrio tra controllo umano e automazione. Dai roomba che moderano i commenti agli editor-in-chief algoritmici, cambia il significato stesso di decisione editoriale

Pubblicato il 16 dic 2025

Marzia Antenore

Dipartimento di Comunicazione e Ricerca Sociale Sapienza – Università di Roma



ai nel giornalismo

Gli algoritmi editoriali stanno ridisegnando il lavoro giornalistico molto oltre la semplice automazione di compiti ripetitivi. Entrano nelle redazioni come filtri, assistenti e persino direttori, spostando il baricentro del potere decisionale dal giudizio umano alle valutazioni computazionali.

Algoritmi editoriali, una mappa per leggere l’automazione nelle newsrooms.

L’intelligenza artificiale invade le redazioni, ma è un giornalista o uno strumento?” si domandano Benjamin Mullin e Katie Robertson in un recente articolo del New York Times. Il quesito è interessante, ma fuorviante e parziale. È fuorviante perché invita a tematizzare l’Intelligenza Artificiale secondo una logica di opposizione, uomo-contro-macchina, che accentua la dimensione del conflitto con l’umano, una posizione oggi pragmaticamente insostenibile. Parziale, perché ignora che i sistemi intelligenti non aspirano soltanto a svolgere il lavoro giornalistico, ma a ridefinire le gerarchie interne all’informazione: si candidano a essere direttori responsabili, analisti editoriali, consulenti di marketing, attori cioè di una catena decisionale che va oltre la mera produzione di contenuti.

Per alcuni questo scenario è spaventoso, l’adattamento impraticabile o comunque non auspicabile. Eppure, ridotta ai minimi termini, la storia del giornalismo è soprattutto una storia di adattamenti. Ogni rivoluzione tecnologica – dal telefono alla fotografia, dalla riproduzione meccanica all’informatizzazione – ha ridisegnato ruoli, pratiche e flussi di lavoro dentro le redazioni. L’intelligenza artificiale (AI), in questa traiettoria, non rappresenta una rottura ma una continuità. Negli ultimi anni alla macchina è stata trasferita una crescente autorità decisionale. Proprio come le macchine e la meccanizzazione hanno trasformato la produzione di oggetti materiali nel diciannovesimo e ventesimo secolo, l’informatica sta ora trasformando il lavoro intellettuale e cognitivo scaricandoli sui computer.

La transizione alla “Seconda era delle macchine” implica una versione di automazione completa in cui un sistema funziona senza intervento umano, nonostante il lavoro umano di progettazione e manutenzione richiesto da tutti i sistemi progettati. Questa transizione, inevitabilmente, riguarda anche il lavoro delle newsrooms in cui si assiste a una progressiva delega all’Intelligenza Artificiale di molte fasi del newsmaking. Tuttavia, mai come oggi l’equilibrio fra controllo umano e automazione è diventato un campo di negoziazione strategica, in cui si giocano non solo le forme del lavoro giornalistico ma la stessa idea di controllo editoriale.

L’ingresso nelle redazioni di sistemi di scrittura automatica basati sui Large Language Models ha solo reso più urgenti alcune questioni cruciali. Dove tracciare il confine tra ciò che può essere delegato e ciò che deve restare prerogativa del redattore? Quanta agency possiamo trasferire agli algoritmi editoriali? Fino a che punto è lecito spingere l’automazione in campo giornalistico? In questo articolo discuto alcuni casi di automazione tenendo conto di due dimensioni interpretative: da un lato quanta autonomia viene ceduta all’algoritmo e, dall’altro, per quali ruoli redazionali e con quali conseguenze sul newsmaking. Comincerò dagli algoritmi-roomba.

Algoritmi editoriali come roomba delle redazioni

Il Roomba è un aspirapolvere domestico prodotto da una azienda statunitense attiva anche nella robotica militare. Si tratta di un apparecchio di forma circolare che, opportunamente programmato, si stacca dalla stazione di ricarica e pulisce la stanza in completa autonomia per poi ritornare alla base. La descrizione del prodotto fornita dalla casa costruttrice è molto invitante:

“Il robot impara, e continua a imparare, dai ritmi della tua casa. Dall’analisi delle tue preferenze alla sincronizzazione con gli altri dispositivi smart, i nostri prodotti portano nuovi livelli di intelligenza che si adattano perfettamente alla tua vita così puoi dimenticare la pulizia dei pavimenti e concentrarti sulle cose che per te contano davvero”.

In sostanza, il Roomba è progettato in modo da minimizzare l’intervento umano, ridotto a poche e semplici istruzioni iniziali: per il resto è perfettamente in grado di cavarsela da solo. Nel momento in cui il Roomba entra negli spazi domestici gli viene trasferita una autorità decisionale integrale: in base ai parametri impostati e alle sue capacità di apprendimento può fare le pulizie dove meglio crede. Chi non vorrebbe affidare compiti di routine e manovalanza a un sistema intelligente e collaborativo per dedicarsi ad attività più creative?

Da molti anni le redazioni giornalistiche si sono dotate di algoritmi che possiamo definire roomba editoriali, come i loro fratelli maggiordomi digitali. Non fanno le pulizie ma, in un certo senso, fanno il lavoro sporco velocemente e su larga scala, in modo che anche i redattori possano occuparsi di “cose che contano davvero”.

Moderazione automatica dei commenti e hate speech

Un noto roomba viene impiegato dal quotidiano El País, nella sua versione online. Stanca di occuparsi dell’hate speech, ossia dei commenti carichi di odio postati sotto agli articoli, la redazione del giornale spagnolo già da qualche anno ha preso una decisione radicale: la moderazione dei post è stata delegata a un algoritmo che, presumibilmente in base a una lista di parole chiave, filtra i commenti considerati inappropriati.

Anche il New York Times impiega un sistema di filtraggio automatico basato su un classificatore appreso dalla macchina per moderare i commenti sul suo sito. Utilizzando i dati su quali post sono stati contrassegnati da un moderatore come “tossici”, l’algoritmo impara a classificare i commenti futuri come “tossici” o “non tossici” e, quando necessario, invita a riformulare la frase o ne impedisce la pubblicazione.

L’analogia con i compiti domestici non deve far pensare che questi algoritmi siano meno sofisticati o di poco conto. Tutt’altro. Come l’AI inscritta nello scheletro dell’apparecchio domestico, prendono decisioni basandosi su valutazioni molto complesse. Ciò che fa di un algoritmo un Roomba riguarda solo l’autonomia con cui svolge il compito assegnato, autonomia intesa come l’estremo in una gamma di opzioni che combinano esseri umani e computer.

Le quattro valutazioni chiave degli algoritmi editoriali

Al livello più elevato – quello occupato da questi sistemi intelligenti – assistiamo a un trasferimento integrale di autorità decisionale in cui la macchina prende decisioni ignorando l’essere umano. A livello più basso di autonomia il computer offre all’umano un set completo di possibili alternative tra le quali scegliere. Nei roomba di El País e del New York Times il trasferimento di agency dall’uomo alla macchina è completo. Per questo, anche se svolgono un compito all’apparenza umile, i roomba possono rivelarsi piuttosto ambiziosi.

L’agenzia di stampa britannica Reuters, per esempio, ha sperimentato processi di automazione molto estesi affidando a un roomba l’intera filiera del newsmaking: dalla individuazione della notizia, alla classificazione in temi sino alla valutazione sulla attendibilità e notiziabilità dell’evento. È così che nel 2019 vede la luce NewsTracer, una applicazione sviluppata in-house da Reuters. NewsTracer è un cacciatore di notizie che monitora Twitter in tempo reale sfruttando la tendenza umana a condividere eventi che suscitano forti emozioni (una incredibile applicazione di reverse engineering!).

Ogni giorno analizza fino a 12 milioni di tweet basandosi su 13 algoritmi di machine learning che filtrano il flusso dei messaggi, foto e video pubblicati online alla ricerca di focolai informativi, ossia aree in cui improvvisamente aumenta la densità di parole chiave come terrorismo, sparatoria, alluvione. Rintracciati i focolai compie altre operazioni chiave: anzitutto valuta se l’evento è realmente accaduto oppure se si tratta di un falso allarme o misinformation, lo clusterizza assegnandolo a un genere (crime, terrorismo, evento naturale, politica, ecc.), e ne stima la notiziabilità intesa come capacità di stimolare engagement tra gli utenti della piattaforma.

NewsTracer opera con due bussole principali che lo orientano nell’eliminare il rumore dalla rete: una lista di parole chiave, stilata da redazioni Reuters distribuite fra Stati Uniti, Europa, Asia e Africa; e una rete di circa cinquemila account di fonti attendibili, che include agenzie di stampa concorrenti, giornali, televisioni, istituzioni e forze dell’ordine. Quando individua un possibile evento, il sistema cerca di localizzarlo geograficamente e ne valuta l’attendibilità risalendo al tweet originale, verificando la reputazione delle fonti e analizzando la semantica dei commenti. Non si limita quindi a filtrare contenuti, ma interpreta, prioritizza e organizza le informazioni modellando la stessa idea di news in base a parametri computazionali.

Come mette in luce questa esperienza, prima di prendere una decisione i roomba compiono almeno quattro valutazioni molto sofisticate per una macchina: assegnano una priorità (prioritizing), classificano (classifying), associano (associating) e filtrano (filtering). Spesso, inoltre, queste decisioni vengono poi composte in attività informative di livello superiore.

Vale la pena soffermarsi su queste valutazioni perché è la loro qualità a determinare quanto possiamo spingere l’automazione in campo giornalistico. La prima valutazione, dare priorità, consiste nel decidere quali elementi mostrare prima o attribuire maggiore visibilità. Gli algoritmi dei social network, ad esempio, determinano l’ordine dei post nei feed in base a criteri di interazione o rilevanza stimata, mentre i motori di ricerca stabiliscono la posizione dei risultati sulla pagina in base alla pertinenza, all’affidabilità e all’aggiornamento delle fonti.

Anche nelle redazioni giornalistiche che adottano strumenti di raccomandazione automatica, la priorità può essere assegnata a contenuti “di tendenza” o ritenuti di maggiore interesse pubblico. La seconda operazione, classificare, riguarda l’attribuzione di etichette o categorie ai contenuti. Gli algoritmi di riconoscimento testuale, per esempio, distinguono tra articoli di politica, sport o cultura; i sistemi di filtraggio delle email separano i messaggi legittimi dallo spam; e i modelli di analisi del linguaggio naturale usati nelle redazioni possono clusterizzare i testi per tema, tono o fonte.

La classificazione è quindi un passaggio necessario per organizzare l’informazione e renderla gestibile in modo automatico. La terza funzione, associare, permette di collegare elementi diversi individuando somiglianze o relazioni. È la logica che guida le raccomandazioni di piattaforme come Amazon (“prodotti spesso acquistati insieme”) o Spotify (“brani simili”). In ambito giornalistico, la stessa logica può suggerire “articoli correlati” a quello appena letto, favorendo percorsi di approfondimento che rispondono alle preferenze dell’utente.

Infine, filtrare significa selezionare ciò che viene mostrato e scartare ciò che viene escluso. I filtri possono operare per motivi di sicurezza (come nel caso dei contenuti violenti o offensivi rimossi da El País e dal New York Times) oppure per finalità informative, ad esempio limitando i risultati di ricerca a una certa area geografica o a una lingua specifica. In tutti i casi, il filtraggio modella in modo decisivo l’esperienza informativa, influenzando ciò che l’utente percepisce come rilevante o accessibile.

Queste quattro operazioni di rado agiscono separatamente: nella maggior parte dei sistemi, si combinano in modo dinamico. Un algoritmo di raccomandazione giornalistica, ad esempio, può classificare gli articoli per tema, filtrare quelli datati o ridondanti, associare storie simili e, infine, dare priorità a ciò che ritiene più interessante per l’utente.

Come abbiamo anticipato, la qualità di queste valutazioni determina fino a che punto è possibile spingere l’automazione. Nel caso di una agenzia di stampa come Reuters, che fonda la sua attività sulle breaking news, l’automazione si dimostra basata su valutazioni di qualità elevata per i fini di news detection che si era proposta. Uno studio comparativo sulla velocità con cui Reuters scova le notizie, soprattutto quelle inattese, mette in rilievo come l’automazione ha consentito all’agenzia di individuare le breaking news entro 8 minuti dal verificarsi dell’evento, contro i 40 minuti di altre agenzie di stampa e gli 80 minuti dei global media.

Segretari e assistenti con algoritmi editoriali

Non bisogna confondere i roomba con i algoritmi-segretario, di cui comunque sono parenti stretti. Sebbene le valutazioni da compiere prima di prendere una decisione siano le medesime, un assistente intelligente si muove in funzione di servizio e dipendenza dall’essere umano a cui propone alternative valide e risorse sulla base delle quali assumere decisioni. Il segretario algoritmico ha un livello di autonomia inferiore rispetto a un roomba, così come un segretario umano prepara i documenti sui quali il dirigente appone la firma.

Wordsmith e l’ibrido umano-macchina

Sistemi come Wordsmith, adottato dall’Associated Press già dal 2015, incarnano questo paradigma ibrido tra umano e macchina: generano automaticamente articoli basati su dati – per esempio risultati sportivi o rapporti finanziari – ma lasciano al redattore il compito di revisionare, contestualizzare e firmare i testi. Se lo stile o il tono dell’articolo generato sono poco convincenti, il redattore può chiedere alla macchina di riscriverlo solo facendo click su un pulsante. Potenzialmente le riformulazioni dello stesso pezzo sono infinite.

Da sempre all’avanguardia nell’automazione, nel 2025 Associated Press ha usato segretari algoritmici per esaminare rapidamente decine di migliaia di pagine di documenti relativi agli assassinii del presidente John F. Kennedy, del reverendo Martin Luther King Jr. e di Robert F. Kennedy. Gli strumenti hanno reso i documenti ricercabili e li hanno riassunti, consentendo probabilmente ai giornalisti di risparmiare giorni di lavoro.

Social media, Echobox e True Anthem

Sistemi intelligenti come Echobox o True Anthem, adottati anche da alcune redazioni italiane, sono collaboratori altrettanto efficienti: analizzano modelli di clic, cronologie di engagement e performance passate per prevedere non solo quando pubblicare, ma anche che cosa pubblicare sui canali social, in base a quale contenuto ottiene più attenzione tra due simili (una pratica nota come A/B test). Echobox dichiara che i propri clienti registrano un aumento medio del 57% del traffico Facebook e del 100% su Twitter quando lasciano che sia l’algoritmo a gestire il momento della pubblicazione.

Non sorprende. Uno dei vantaggi principali dell’automazione è la capacità adattiva: l’algoritmo si aggiorna costantemente in risposta ai cambiamenti degli algoritmi di distribuzione delle piattaforme. In questo modo, i sistemi editoriali rispondono agli algoritmi con altri algoritmi, in una forma di ottimizzazione reciproca: un algoritmo impara a ottimizzare rispetto all’altro, eliminando la necessità di intuire manualmente quali elementi del contenuto sono premiati dalla piattaforma. Al redattore non resta che affidarsi alla macchina e “apporre la firma” abilitando la pubblicazione.

Dal mantra dell’automazione al livello editoriale

Anche in questi casi sembra che l’algoritmo sia in grado di prendere decisioni di qualità, se misuriamo la qualità come aderenza con il risultato atteso e auspicabile. Se ci fosse un mantra di questi sistemi intelligenti sarebbe “Automate what computers do best, let people do the rest.” Automatizza ciò che le macchine sanno fare meglio e lascia il resto agli esseri umani.

Ma cosa succede quando le macchine prendono decisioni alla stregua (o migliori) dell’essere umano per compiti e ruoli apicali? I casi che abbiamo visto non riguardano questo tipo di mansioni: la moderazione dei commenti, la scelta di quando pubblicare un post restano nell’ambito delle decisioni operative più che in quelle strategiche, anche nel caso di una automazione spinta come quella di Reuters, dove l’applicazione di news detection si comporta alla stregua di un redattore (un ottimo giornalista investigativo!).

Dobbiamo quindi introdurre una seconda dimensione, ossia quella del livello editoriale, lungo la quale si realizza l’attribuzione della delega alla macchina. Se siamo abituati a pensare all’algoritmo come a un circuito ibrido dove la macchina ha il dominio sulla velocità di esecuzione e la persona sul giudizio, nei casi che presentiamo adesso vediamo come l’AI si insedia in ambiti in cui il giudizio è di norma attribuito all’essere umano. Il primo di questi casi riguarda l’ambito della supervisione editoriale.

Sophi e il ruolo apicale degli algoritmi editoriali

Il Globe and Mail, storico quotidiano canadese con oltre 170 anni di storia, utilizza una intelligenza artificiale chiamata Sophi per la regolazione del flusso informativo: circa il 99% degli articoli che compaiono in homepage viene scelto in modo automatico, mentre la redazione umana seleziona solo le tre o quattro notizie principali del momento.

Dal punto di vista computazionale, questo sofisticato algoritmo di filtraggio dei contenuti usa tecniche di Elaborazione del Linguaggio Naturale (NLP) per estrarre automaticamente gli argomenti principali di ogni articolo, classificarli, e suggerire ai lettori registrati quali topics seguire, sfruttando set di metadati per migliorare la raccomandazione dei contenuti.

Payworthiness e ridefinizione della qualità

La cosa più interessante è che Sophi ha uno strano modo di interpretare la qualità dell’informazione. Ogni pochi minuti monitora il web per verificare quanto un articolo venga condiviso e discusso, quindi lo valuta unicamente in base alla sua capacità di attrarre nuovi abbonati. In sostanza Sophi traduce criteri economici e comportamentali in valutazioni editoriali.

Non solo dunque il potere decisionale, prerogativa dei caporedattori, qui si sposta verso la macchina, ma siamo anche di fronte a una macchina addestrata a valutare il valore di una notizia non più in termini di rilevanza pubblica ma di potenziale di abbonamento. La call to action a cui si ispira il filtraggio non è dunque click, like o share, ma pay, ossia un’azione che pochi sono disposti a fare online.

Va da sé che dietro il sipario ci sono sempre persone: designer, redattori, giornalisti, data e computer scientist che contribuiscono in modo diretto o indiretto. Chi progetta o supervisiona gli algoritmi prende decisioni editoriali chiave: come parametrizzare il sistema, quali impostazioni predefinite adottare, a quali segnali prestare attenzione e, di fatto, quali valori incorporare nel nucleo del sistema stesso. Ma una volta prese queste decisioni a monte, l’intera autorità decisionale viene trasferita a valle della filiera.

Nell’esperienza di Sophi la selezione di articoli da piazzare in homepage riflette la conoscenza giornalistica e le aspettative di genere, stile, tono e lessico più appropriati per i lettori potenziali. La linea editoriale dell’organizzazione è intrecciata nella rete neurale artificiale attraverso dati, regole e basi di conoscenza. Così come le persone e i loro valori sono incorporati nell’intero ecosistema di algoritmi umani che costituiscono i media. Il caso di Sophi segnala così un passaggio simbolico prima che tecnologico: l’intelligenza artificiale non è più un assistente o un filtro, ma un vero e proprio Editor-in-Chief.

L’algoritmo direttore marketing: il caso MittMedia

In Svezia, il gruppo MittMedia – principale editore di informazione locale con 28 testate e una storia che risale a oltre due secoli, per un pubblico complessivo di 1,8 milioni di lettori al giorno – rappresenta l’altra faccia di questa delega algoritmica: non più l’AI editor-in-chief, ma l’AI direttore del marketing.

L’intelligenza artificiale di MittMedia sceglie i contenuti da mettere in home page e propone a ciascun utente un’informazione personalizzata in base alle sue preferenze di lettura. L’algoritmo crea un identikit del lettore combinando dati sociodemografici e comportamentali e, su questa base, clusterizza gli utenti in gruppi di interesse. L’obiettivo non è solo aumentare le visite, ma prevenire le disdette: la fedeltà quotidiana alla piattaforma si traduce in una maggiore fedeltà all’abbonamento.

Per farlo, MittMedia utilizza uno strumento di analisi visiva in cui le bolle del grafico rappresentano gli articoli pubblicati durante la giornata, suddivisi per tema (incidenti, cronaca, affari locali, ecc.). L’algoritmo evidenzia gli argomenti che “lievitano” in termini di performance, mostrando – ad esempio – che le notizie sugli affari locali generano il maggior numero di abbonamenti.

A quel punto, i manager chiedono ai direttori delle testate di produrre più contenuti su quel tema, indicando anche forma e taglio attraverso linee guida interne. L’esperienza di MittMedia mostra quello che è stato definito “effetto salmone dell’automazione”: un movimento che, partendo dalla fase finale del processo produttivo – l’ottimizzazione dei post per i social e l’audience digitale – risale progressivamente la corrente fino a rimodellare la cultura redazionale nel suo complesso.

Così, l’automazione non si limita più a gestire la distribuzione, ma comincia a influenzare la produzione stessa delle notizie, fino a modificare il play-out delle pagine cartacee e le priorità editoriali tradizionali. A differenza di quanto avviene nella redazione dei colleghi canadesi, la direzione marketing usa questi sistemi intelligenti solo come strumento di consulenza per pianificare le scelte strategiche di marketing, mentre l’agency vera e propria rimane sotto il controllo umano.

Una mappa degli algoritmi editoriali tra autonomia e controllo

La figura 1 propone dunque una mappa dell’automazione delle newsrooms che fotografa un ecosistema composito, dove l’intelligenza artificiale non è solo uno strumento ma un attore redazionale a tutti gli effetti, con differenti livelli di autonomia e diversi ruoli nel processo di newsmaking.

Nella parte inferiore della matrice, gli algoritmi operano come assistenti o segretari digitali: automatizzano compiti di routine – dalla generazione di articoli basati su dati (Wordsmith), alla sintesi di documenti di migliaia di pagine (Associated Press), alla moderazione dei commenti (El País, NYT) – liberando tempo e risorse per i redattori umani. In questi casi, il controllo resta saldamente umano e la macchina agisce per supporto, non per sostituzione.

Man mano che ci si sposta verso l’alto, l’autonomia cresce e il ruolo dell’AI si fa più strategico. Sistemi come quelli adottati da MittMedia e Globe and Mail incarnano una nuova frontiera, dove gli algoritmi assumono funzioni apicali: definiscono priorità, gerarchie e persino criteri di valore economico o editoriale. Se nel primo caso l’AI agisce come un consulente di marketing, nel secondo diventa di fatto un Editor-in-Chief computazionale, capace di plasmare la visibilità delle notizie sulla base della “payworthiness”.

Nel complesso, la mappa rivela una verticalizzazione dell’automazione: dagli strumenti che assistono, agli algoritmi che decidono. E mostra che il punto critico non è per quale ruolo possiamo o non possiamo cedere il comando, ma fino a che punto la macchina è in grado di fare valutazioni qualitativamente soddisfacenti.

Figura 1. Una mappa dell’automazione delle newsrooms lungo le due dimensioni di autonomia e livello decisionale.

Bassa autonomia decisionale (Controllo umano)Alta autonomia decisionale (Autonomia algoritmica)
Figura apicale (AI come direzione editoriale)MittMedia (Svezia) – AI Direttore Marketing: individua temi più redditizi, orienta la produzione. AI advisor: supporta le decisioni ma non agisce.Sophi (Globe and Mail) – AI Editor-in-Chief: decide il 99% della homepage in base alla payworthiness.
Figura operativa (AI come assistente o segretario)Wordsmith (Associated Press) – genera articoli da dati, redattore revisiona e firma. Echobox / True Anthem – ottimizzazione dei contenuti social, suggerisce ma non decide.NewsTracer (Reuters) – scopre notizie su Twitter, individua “focolai” informativi e li classifica. El País / NYT Comment Moderation – filtra automaticamente i commenti tossici.

Lo strano caso di ChatGPT nelle newsrooms

L’inizio del 2019 segna uno spartiacque nel giornalismo computazionale: un algoritmo diventa coautore di un pezzo giornalistico. Il 31 gennaio The Guardian Australia pubblica il primo articolo interamente generato da un sistema di AI, dedicato alle donazioni ai partiti politici da parte dei cittadini. Non siamo di fronte a una lista di dati rastrellata dal web e inserita in un template, come nel caso di Wordsmith, ma assistiamo a una forma embrionale di interpretazione dell’informazione generata automaticamente da ReporterMate, “an experimental automated news reporting system”.

Nel 2020 OpenAI lancia GPT-3: una rete neurale che usa strumenti di Natural Language Processing a cui è richiesto di cimentarsi con tema, con una organizzazione autonoma del ragionamento. Così una macchina scrive la sua apologia su The Guardian – “Are you scared yet, human?” chiede beffarda al pubblico di lettori del quotidiano – inaugurando una fase in cui l’AI si appropria del gesto stesso di scrivere.

Così, nel 2022, The Economist apre il numero di maggio con un editoriale sulla guerra in Ucraina scritto integralmente da un modello linguistico artificiale. Recentemente, Fortune e Business Insider hanno valutato l’utilizzo dell’intelligenza artificiale per scrivere articoli completi; Newsquest, una catena di quotidiani britannica di proprietà di USA Today Company, impiega oltre 30 giornalisti che utilizzano l’intelligenza artificiale per approfondire le storie. È qui che gli algoritmi ambiscono a competere in un campo che fino ad allora sembrava precluso a una intelligenza sintetica, ossia quello dello storytelling.

A onore del vero, già nel 1958 i ricercatori dell’IBM descrissero un programma in grado di estrarre automaticamente un riassunto da un documento di ricerca o da un articolo di giornale. Se si trattava di un frammento rappresentativo, l’algoritmo lo estraeva e lo aggiungeva al riepilogo. Nel 2013, Yahoo! ha iniziato a utilizzare la tecnologia di riepilogo nella sua app di notizie per assemblare le informazioni di diversi articoli in un unico briefing. La tecnologia per analizzare il testo tramite computer esiste da decenni. Ma le valutazioni automatiche necessarie per riassumere un articolo hanno raggiunto solo di recente un livello di qualità che consente ai riassunti di avere un valore effettivo nel mercato dei media.

ChatGPT tra assistente, ghostwriter e fonte di imbarazzi

ChatGPT è emblematico di questa svolta. Il suo lavoro cognitivo comprende funzioni di elaborazione dati, ma soprattutto cattura l’idea di compiti di manipolazione analitica delle informazioni testuali tipicamente associati all’intelligenza umana. A differenza dei suoi antenati, ChatGPT è uno strumento dotato di una proattività radicale: non solo compone testi ma suggerisce i prossimi passaggi, anticipa le intenzioni dell’utente e, in un certo senso, lo addestra a un nuovo tipo di interazione.

Personalmente, credo che una delle sue affordances più insidiose sia la passivizzazione dell’interlocutore umano: la tentazione di accettare ciò che propone senza riformularlo, fidandosi della sua fluidità, è davvero irresistibile. È quanto deve aver sperimentato l’incauto redattore di una testata italiana che ha trascurato di omettere l’invito rivoltogli da ChatGPT – che suonava più o meno come “Se vuoi posso trasformalo in un reportage da pubblicare su un magazine specializzato” – pubblicandolo accidentalmente sul quotidiano.

Ma poiché nessuno è del tutto immune alla tentazione di fare alla svelta, sono emersi simili errori imbarazzanti anche da importanti testate come Bloomberg, Business Insider e Wired.

Anche per evitare situazioni di questo tipo molte testate internazionali hanno iniziato a dotarsi di policy interne sull’uso dell’AI, spesso con un approccio prudenziale: vietare o limitare l’impiego dell’Intelligenza Artificiale nella stesura di articoli, nella raccolta di fonti o nella selezione delle immagini. Ma le policy – come ogni forma di regolazione – inseguono la realtà più che anticiparla: Axios, un sito di news con base ad Arlington, Virginia, sta già automatizzando i riassunti delle notizie utilizzando ChatGPT per selezionare le news più rilevanti del giorno.

A fronte di queste esperienze, non sembra ancora chiaro quale ruolo possa ricoprire l’AI generativa all’interno delle redazioni, se apicale o di servizio. ChatGPT, al momento, rimane uno strano caso occupando una posizione mobile nella mappa dell’automazione delle newsrooms tracciata nella figura 1.

Nella maggior parte dei contesti redazionali – dove è utilizzato per scrivere bozze, riassunti o traduzioni sotto stretto controllo umano – si colloca nel quadrante in basso a sinistra, quello dell’assistente cognitivo o segretario algoritmico: un supporto operativo, privo di autonomia decisionale.

Quando, tuttavia, viene impiegato per generare testi completi senza revisione – come nel caso del giornalista che ha pubblicato inavvertitamente la risposta integrale del modello (ma esistono anche casi virtuosi come quello di Axios) – ChatGPT si sposta verso il quadrante inferiore destro, assumendo un ruolo più autonomo ma ancora subordinato: una forma di ghostwriter artificiale.

Algoritmi editoriali generativi e ideazione automatizzata

Rimane aperta la questione se, ed eventualmente in che forma, un’intelligenza generativa possa occupare posizioni apicali all’interno delle redazioni – una possibilità che mi sembra intrecciata con quella del grado di libertà di parola attribuibile ai bot sulle piattaforme. Alcune recenti sperimentazioni suggeriscono che questo scenario non è più del tutto ipotetico.

Emblematico è il caso di IDEIA – Intelligent Engine for Editorial Ideation and Assistance – progetto sviluppato in collaborazione con il gruppo mediatico brasiliano Sistema Jornal do Commercio de Comunicação (SJCC). Si tratta di un sistema basato su modelli linguistici generativi e progettato per automatizzare la fase di ideazione editoriale, combinando dati di tendenza in tempo reale (attraverso la Google Trends API) con la generazione di titoli e sommari contestuali (Google Gemini API).

IDEIA, dunque, non si limita a supportare la scrittura o a riassumere contenuti esistenti: interviene nella fase preliminare di definizione dell’agenda, proponendo temi, angolature e linee di sviluppo, sulla base di trend emergenti e analisi predittive.

Questi esempi mostrano come la traiettoria delle intelligenze generative stia progressivamente spostandosi verso l’alto della mappa, avvicinandosi al quadrante apicale: dagli algoritmi assistivi e subordinati all’intervento umano, alle intelligenze direttive, in grado di incidere sul coordinamento e sulla strategia editoriale.

In scenari sperimentali come questi – dove gli output dei modelli vengono usati per orientare scelte editoriali, titolazioni o gerarchie di notizie – ChatGPT e i suoi simili tendono a risalire la matrice, avvicinandosi al ruolo di co-decisori redazionali, ovvero a quella soglia critica in cui l’automazione si confonde con la direzione.

Decisione editoriale, calcolo algoritmico e governance

La parabola del giornalismo, letta alla luce di questa mappa dell’automazione, rivela che il confine fra controllo umano e delega algoritmica non è mai netto, ma costantemente negoziato. I roomba, i segretari e gli editor-in-chief digitali rappresentano gradi diversi di questa delega, ma anche fasi di un unico processo evolutivo in cui le macchine apprendono, sperimentano e si spostano progressivamente verso l’alto della gerarchia decisionale.

Ciò che cambia non è soltanto il modo in cui le redazioni producono le notizie, ma il significato stesso di “decisione editoriale”. Se fino a pochi anni fa essa implicava un atto deliberativo, un giudizio situato e argomentato, oggi tende a dissolversi in un calcolo probabilistico, ottimizzato per la performance. I Large Language Models come ChatGPT ne sono la frontiera più ambigua: strumenti di assistenza, ma anche potenziali coautori, editor e interpreti della realtà.

Il futuro delle redazioni dipenderà dalla capacità di trasformare questa ambiguità in governance: progettare sistemi in cui l’AI non solo esegua, ma rispecchi valori giornalistici espliciti – veridicità, responsabilità, pluralismo – inscritti nei suoi parametri. Come abbiamo ribadito, è la qualità delle valutazioni umane inscritte nel DNA della macchina a determinare fino a che punto è possibile spingere l’automazione.

References
Antenore, M., Bruno, M., & Valentini, E. (2025, settembre 18–20). Strategie e spazi di autonomia delle testate giornalistiche alla prova dell’Intelligenza Artificiale: il caso italiano nel contesto europeo. Intervento presentato al convegno Associazione Italiana di Sociologia (AIS), Bergamo.
THE ASSOCIATED PRESS. AP, NCAA to grow college sports coverage with automated game stories. In: Associated Press, 4 marzo 2015. Disponibile su: https://apnews.com/article/automated-insights-ncaa-college-sports [Consultato: 11 novembre 2025].
DELGADO, Pablo. How El País used AI to make their comments section less toxic. In: Google News Initiative, 21 marzo 2019. Disponibile su: https://newsinitiative.withgoogle.com/articles/how-el-pais-used-ai-to-make-their-comments-section-less-toxic/ [Consultato: 11 novembre 2025].
Diakopoulos, N. (2019). Automating the News: How Algorithms Are Rewriting the Media. Cambridge, MA: Harvard University Press.
ECHObox. AI for social media publishing. In: Echobox Official Website, 2023. Disponibile su: https://www.echobox.com/ [Consultato: 11 novembre 2025].
Knaus, C. (2019, January 31). Political donations plunge to $16.7m – down from average $25m a year. The Guardian. Retrieved from https://www.theguardian.com/australia-news/2019/feb/01/political-donations-plunge-to-167m-down-from-average-25m-a-year [Consultato: 11 novembre 2025].
Fontanarosa, A. (2020). Giornalisti robot: L’intelligenza artificiale in redazione. Prove tecniche di news revolution. UlisseAspettaPenelope.
Liu, X., Nourbakhsh, A., Li, Q., Fang, R., & Shah, S. (2017). Reuters Tracer: A large-scale system of detecting and verifying real-time news events from Twitter. Proceedings of the 25th ACM International Conference on Information and Knowledge Management (CIKM ’17), 207–216. Association for Computing Machinery. https://doi.org/10.1145/3132847.3132880.
Mezza, M. (2018). Algoritmi di libertà: La potenza del calcolo tra dominio e conflitto. Donzelli Editore.
Mullin, B., & Robertson, K. (2025, November 7). AI Sweeps Throug Newsrooms, but is it a journalist or a tool? The New York Times. Retrieved from https://www.nytimes.com/2025/11/07/business/media/ai-news-media.html?smid=nytcore-android-share
Santos, V. B. et al. (2025), IDEIA: A Generative AI-Based System for Real-Time Editorial Ideation in Digital Journalism, arXiv preprint arXiv:2506.07278v1.
https://arxiv.org/abs/2506.07278v1
SOPHI.IO / THE GLOBE AND MAIL. How The Globe and Mail uses Sophi automation and analytics to power journalism. In: Sophi.io Case Studies, 2020. Disponibile su: https://www.sophi.io/ [Consultato: 11 novembre 2025].

The Guardian. A robot wrote this entire article. Are you scared yet, human? In: The Guardian, 8 settembre 2020. Disponibile su: https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3 [Consultato: 11 novembre 2025].

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x