Gli studi

AI, ecco i veri impatti sui giornali online: quale lezione trarre



Indirizzo copiato

AI Overviews di Google devastano i clic in serp, ma l’impatto netto sui siti news appare più contenuto secondo un nuovo studio accademico. In questa differenza c’è molto del futuro dell’informazione e importante lezioni per editori e giornalisti

Pubblicato il 6 feb 2026

Alessandro Longo
Alessandro Longo

Direttore agendadigitale.eu



AI giornali

Il confronto sugli effetti degli AI Overviews di Google – e più in generale dell’intelligenza artificiale – sul traffico web è diventato uno dei nodi centrali del dibattito sull’economia dell’informazione.

Tema strategico in una fase in cui il giornalismo già si sente sotto assedio – nella sostenibilità economica, nel confronto con una politica divisiva e sovranista. Vedi i recenti disastrosi tagli del Washington Post.

A fronte di tutto questo, molti giornalisti – inclusi alcuni reporter licenziati – dicono: ci mancava anche l’intelligenza artificiale a mettere a rischio il nostro lavoro. Timore in parte fondato, ma riduttivo.
Vediamo cosa dicono i dati.

AI e giornali: i dati

Da mesi circolano stime molto diverse: analisi di serp di Google che parlano di crolli del click-through rate superiori al 50%, studi di settore che segnalano un aumento delle ricerche “zero-click”, e ora un lavoro accademico che quantifica una perdita di traffico per i siti di news piuttosto limitata, intorno al 13%. Numeri che, letti superficialmente, sembrano raccontare storie incompatibili. In realtà, descrivono livelli diversi dello stesso fenomeno. In questa differenza c’è molto del futuro dell’informazione e importante lezioni per editori e giornalisti.

Cerchiamo di capire.

Lo studio di Zhao e Berman è importante non solo perché è tra i primissimi ad affrontare scientificamente il fenomeno. Ma anche perché sposta il fuoco dall’osservazione del comportamento in SERP all’impatto sistemico sui publisher. Utilizzando dati SimilarWeb e Comscore, gli autori mostrano che a partire dall’estate 2024 emerge una rottura strutturale: il traffico dei siti di informazione inizia a divergere da quello di un gruppo di controllo, con una perdita relativa stimata intorno al 13,2% nei mesi successivi.
Insomma: non un crollo ma un assestamento progressivo verso un nuovo equilibrio, coerente con l’adozione graduale degli AI Overviews e con la normalizzazione del loro utilizzo da parte degli utenti.

CTR, zero-click e traffico: misure diverse, stesso funnel

La chiave per leggere correttamente questi risultati è distinguere tra meccanismo ed esito. Gli studi più citati nei mesi precedenti misurano ciò che accade dentro Google: quanto cambia la probabilità di cliccare su un risultato organico quando nella SERP compare un AI Overview. In questo ambito i dati sono netti. L’AI anticipa l’informazione, la sintetizza e riduce il bisogno di uscire dalla piattaforma.

Il paper di Zhao e Berman, invece, osserva l’altra estremità del processo: quante visite reali arrivano ai siti di news, dopo che tutti i fattori entrano in gioco. Non tutte le query attivano un AI Overview, non tutto il traffico passa da Google, non tutti i publisher hanno la stessa esposizione alla search, e una parte delle visite può essere recuperata tramite canali diretti o social. Il risultato è una perdita aggregata più contenuta rispetto al crollo del CTR osservato nelle singole SERP, ma non per questo meno significativa dal punto di vista economico.

I dati dei giornali online (su Audiweb) non mostrano una crisi delle visite, infatti. Perché i loro lettori non vengono soprattutto da Google ma da altre fonti, anche dirette. Cercano le news, le analisi e le firme di cui si fidano. Non articoli generici, anonimi e indistinti. Quelli sì vivevano quasi solo sulla Serp e ora sono cannibalizzati dall’AI.

Il confronto tra paper e con gli studi sulla Serp

Approfondiamo i dati. Il primo confronto utile è con lo studio di Kevin Indig come evidenza del “crollo dei click”. L’approccio di Indig è volutamente micro: analizza centinaia di interazioni reali con AI Overviews, osservando scroll, click e percorsi dell’utente. Il risultato è un calo drastico del CTR organico quando l’Overview è presente, con una quota elevata di sessioni che si chiudono interamente dentro Google.
Questo dato è prezioso perché mostra come funziona il dispositivo di sostituzione del clic. Ma non dice, da solo, quanto traffico perderà un giornale nell’arco di un trimestre o di un anno.

Zhao e Berman misurano proprio questo passaggio. Il loro −13% non smentisce il “−60% di CTR” osservato in alcune SERP: lo riporta a scala. Traduce una dinamica comportamentale locale in un effetto medio sull’intero sito, tenendo conto della distribuzione delle query, dei canali alternativi e delle reazioni degli editori. È la differenza tra dire “qui il click sparisce” e dire “questo è l’impatto netto sul tuo modello di traffico”.

Un secondo confronto rilevante è con i dati del Pew Research Center. Pew mostra che quando compare un AI Overview la quota di clic verso siti esterni scende dal 15% all’8%. Anche qui siamo nel dominio micro: comportamento dell’utente in presenza di una specifica funzionalità. Zhao e Berman aggiungono il punto mancante: quanto quella riduzione di propensione al clic pesa, nel tempo, sui volumi complessivi di traffico dei publisher.

AI e giornalismo, il fattore spesso ignorato: la reazione degli editori

Il contributo più originale del paper riguarda forse un elemento che molte analisi di Serp trascurano: le contromisure degli editori. Nel 2024 diversi grandi gruppi editoriali hanno iniziato a bloccare o limitare l’accesso dei crawler di modelli generativi, nel tentativo di evitare che i propri contenuti alimentassero sistemi che riducono il traffico verso i siti originali.

I dati mostrano che questa scelta non è neutrale. Dopo il blocking, il traffico cala ulteriormente, e il calo è visibile anche nel traffico umano misurato da Comscore.

Insomma: la perdita di visibilità non dipende solo dall’AI Overview in sé, ma dall’interazione tra algoritmi di ranking, indicizzazione, raccomandazione e scelte difensive degli editori. In alcuni casi, la protezione contro l’AI rischia di amplificare l’erosione del traffico invece di compensarla.

Una scelta che rischia di mostrarsi miope. Si reagisce all’AI non bloccandola ma convivendoci puntando di più sul proprio valore aggiunto giornalistico. E sfruttandola là e come serve.

Impatti economici: RPM, paywall e “collapse of the funnel”

Dal punto di vista economico, bisogna po vedere quale traffico viene perso. Gli AI Overviews colpiscono soprattutto il traffico di scoperta, quello che arriva da query informative generiche e che storicamente alimentava la parte alta del funnel. È il traffico più numeroso, ma anche quello a minor valore unitario.

La conseguenza è un doppio effetto. Da un lato, la riduzione dei volumi tende a comprimere gli RPM pubblicitari, perché cala l’inventory e aumenta la dipendenza da utenti più “fedeli” ma numericamente inferiori. Dall’altro, il funnel si restringe: meno utenti occasionali significa meno potenziali convertiti verso abbonamenti o registrazioni. È quello che molti editori descrivono già come un “collapse of the funnel”: la base si assottiglia, mentre il modello resta in piedi solo grazie a una quota più ristretta di lettori abituali.

Per i paywall questo è un problema strutturale. Il traffico da search ha sempre funzionato come canale di acquisizione a basso costo. Se Google diventa il luogo in cui l’informazione viene consumata e chiusa, il costo di acquisizione dell’utente cresce e la sostenibilità del modello si sposta sempre più su newsletter, app, push e brand loyalty. Una trasformazione che favorisce i grandi marchi globali e penalizza le testate senza identità né reputazione.

Scenari di policy: dal reclamo all’antitrust

I dati sul CTR spiegano il funzionamento tecnico del sistema; i dati sul traffico spiegano l’impatto economico. Insieme, forniscono una base empirica per le iniziative regolatorie già in corso.

Le strade aperte sono diverse. C’è il fronte dei reclami degli editori, che chiedono trasparenza sull’uso dei contenuti e una remunerazione per l’alimentazione degli AI Overviews. C’è il tema antitrust, perché la sintesi dell’informazione dentro la piattaforma rafforza ulteriormente il ruolo di gatekeeper di Google. E c’è la questione, ancora poco esplorata, della trasparenza delle citazioni: se l’Overview diventa il punto di arrivo, il riconoscimento delle fonti non può essere solo simbolico, ma deve avere effetti reali sulla visibilità e sul traffico.

Lo studio di Zhao e Berman non risolve il problema, ma chiarisce il terreno. Mostra che l’impatto degli AI Overviews non è un timore astratto né un’anomalia temporanea, ma una dinamica già misurabile sull’economia dei media.

AI e giornalismo: il traffico generico muore, la community vive

La soluzione può passare anche dalle norme pro-copyright. Ma richiede certo un ripensamento complessivo del rapporto tra piattaforme, contenuti e modelli di business. E, soprattutto, una nuova strategia editoriale che punti sul traffico buono. Quello che l’AI non danneggia (ma anzi può anche potenziare, grazie alle impression in AI Overviews e chatbot).

Ossia il traffico che apprezzano il brand, il valore aggiunto unico portato nell’ecosistema dell’informazione, e si identificano con la community di quella testata.

Il traffico; o per meglio dire: i lettori. Antica parola che ora, in una fase in cui i clic generici sono morenti, bisogna sapere ritrovare. Dandole anche – come spesso accade nelle riscoperte – significati nuovi e più ricchi. Lettori che quindi non solo “leggono” (ascoltano, vedono contenuti) ma anche partecipano alla discussione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x