I numeri sono quelli di una strage. Strage di lettori sul web libero, aperto e plurale. Il colpevole: l’AI, ormai integrata pienamente in Google oltre che spinta da ChatGpt, che sta diventando rapidamente uno dei principali servizi digitali mondiali – a luglio risulta il quinto sito al mondo per visite.
Gli ultimi numeri di qualche giorno fa: la storica società di ricerca americana Pew indica che solo l’8 per cento degli utenti a cui appare Google AI Overview clicca su un link, rispetto al 15 per cento di quando non appare questo riassunto AI. Ossia rispetto a un mondo pre-AI.
L’amministratore delegato Sundar Pichai ha dichiarato mercoledì che questo strumento conta ora oltre 2 miliardi di utenti mensili, rispetto agli 1,5 miliardi dell’ultimo aggiornamento trimestrale. Google sta inoltre lanciando una “AI Mode” che compete più direttamente con i chatbot.

Indice degli argomenti
La grande crisi dei content creator indipendenti sul web
Senza lettori spariscono però contenuti e anche i loro creatori vanno in crisi. Rischiano di salvarsi solo poche testate big e i contenuti su piattaforme come YouTube. Si getta però così in mare quello che è sempre stata la forza rivoluzionaria del web: la libera varietà di fonti per la diffusione delle informazioni.
Non parliamo solo di giornalismo – comunque fondamentale per il buon funzionamento di una democrazia. Ma anche di forum, enciclopedie, siti di salute eccetera. Tutti soffrono in questa fase, perdendo circa il 50 per cento di traffico organico (che viene da Google). Wikimedia Foundation più volte ha detto che il forte calo di traffico da Google è una minaccia per la sostenibilità e la visibilità di Wikipedia.
E allora che fare? In risposta all’impatto dell’AI generativa sul traffico web e sulla visibilità dei contenuti originali, emergono tentativi di nuova governance e modelli di remunerazione.
Tra micropagamenti, marketplace AI-ready e newsletter proprietarie, l’ecosistema dell’informazione cerca di reinventarsi.
Si apre quindi un dilemma cruciale per il futuro, come garantire un riconoscimento concreto, economico, legale e simbolico a chi alimenta la conoscenza collettiva, in un contesto in cui la sintesi automatizzata rischia di rendere invisibile l’origine del sapere?
Salvare i contenuti dall’AI: modelli alternativi e tentativi di nuova governance
L’emergere di nuove tecnologie AI ha spinto alcuni attori a sperimentare modelli alternativi per riequilibrare la distribuzione del valore online.
Cloudflare
In primo piano ci sono soluzioni tecniche che cercano di monetizzare l’accesso ai contenuti: Cloudflare, ad esempio, ha introdotto un sistema “pay-as-you-crawl” che permette ai gestori di siti web di fissare un prezzo per ogni accesso da parte di crawler AI. Se il crawler non rispetta le condizioni di pagamento, riceve un errore 402 Payment Required.
Questo potrebbe trasformarsi in un mercato automatizzato di micropagamenti, accessibile anche ai piccoli editori.
Tollbit e ProRata
Tollbit consente ai siti web di richiedere micropagamenti da parte dei bot per accedere ai contenuti, mentre ProRata esplora una redistribuzione dei ricavi pubblicitari basata su un algoritmo che misura il contributo informativo effettivo di ogni fonte utilizzata da sistemi di AI.
Standard tecnici allo studio in UE
Nel frattempo, il Parlamento Europeo sta discutendo l’introduzione di standard tecnici per tutelare i diritti dei creatori: formati leggibili dalle macchine per dichiarare licenze e opt-out, metadati obbligatori per tracciare l’uso dei contenuti e sistemi di monitoraggio trasparente.
Tra le proposte più discusse c’è anche quella di un diritto connesso europeo, modellato sull’esperienza della direttiva sul copyright, che garantisca un compenso equo per l’uso delle opere nei sistemi di intelligenza artificiale. Altre ipotesi puntano sulla creazione di marketplace interoperabili di contenuti “AI-ready”, con contratti standardizzati, identificatori semantici e sistemi di tracciabilità delle fonti.
Queste iniziative, però, restano sperimentali e frammentate. Per avere efficacia, è necessario che vengano adottate in modo coordinato a livello sovranazionale, magari sotto l’egida dell’Unione Europea o di consorzi multistakeholder. In assenza di una governance chiara e inclusiva, il rischio è che prevalgano modelli chiusi, accessibili solo agli attori dominanti, accentuando ulteriormente la concentrazione di potere e la vulnerabilità degli ecosistemi informativi aperti.
Il web forse si reinventa
Alcuni editori provano a reinventarsi, esplorando modelli che sfuggono alla logica dello scraping e della sintesi automatica. Le newsletter, ad esempio, creano un canale diretto e proprietario con il lettore, immune dagli algoritmi dei motori di ricerca. Le app proprietarie permettono di costruire esperienze editoriali chiuse, controllate e monetizzabili.
Eventi dal vivo e community online offrono forme di coinvolgimento non replicabili dalle AI. Stack Overflow ha deciso di concentrarsi sul prodotto enterprise, monetizzando l’accesso strutturato al proprio patrimonio di conoscenza tecnica. Anche i formati video e audio mostrano maggiore resilienza alla sintesi automatica: generare riassunti accurati da questi contenuti è tecnicamente più complesso e costoso. Non a caso, YouTube è oggi uno dei siti più frequentemente referenziati dai motori AI, ma allo stesso tempo conserva un forte presidio dell’attenzione e della monetizzazione. Alcune testate stanno investendo su podcast, format verticali e produzioni audiovisive originali, cercando spazi meno vulnerabili alla disintermediazione algoritmica.
Il crollo del traffico: i numeri
Vediamo i dati per capire meglio la situazione
Pew
Un rapporto del Pew Research Center pubblicato questa primavera e ora salito agli onori della cronaca ha analizzato i dati di 900 adulti statunitensi che hanno accettato di condividere la loro attività di navigazione online.
Gli utenti di Google che incontrano un riassunto generato dall’intelligenza artificiale sono meno propensi a cliccare sui link ad altri siti web rispetto agli utenti che non lo vedono. Gli utenti che hanno incontrato un riassunto generato dall’intelligenza artificiale hanno cliccato su un link tradizionale dei risultati di ricerca nell’8% di tutte le visite. Coloro che non hanno incontrato un riassunto generato dall’intelligenza artificiale hanno cliccato su un risultato di ricerca quasi il doppio delle volte (15% delle visite).
Intanto Google fa sempre più soldi con la pubblicità, anche nell’AI
“Vediamo che l’intelligenza artificiale sta alimentando un’espansione nel modo in cui le persone cercano e accedono alle informazioni”, ha affermato il ceo di Google Sundar Pichai in una conferenza con gli analisti mercoledì nel presentare i nuovi dati trimestrali. Ha aggiunto che le funzionalità di intelligenza artificiale “spingono gli utenti a effettuare più ricerche man mano che scoprono che la ricerca è in grado di soddisfare maggiormente le loro esigenze”.
Analisi indipendenti suggeriscono che la strategia di ricerca basata sull’intelligenza artificiale di Google sta effettivamente avendo un impatto.
Secondo un rapporto pubblicato a maggio da BrightEdge, una società di ottimizzazione dei motori di ricerca, le impressioni di ricerca, ovvero il numero di link che appaiono nelle ricerche, anche se non vengono cliccati, sono aumentate del 49% nell’anno successivo al lancio delle panoramiche.
Queste tendenze sono di buon auspicio per il settore della pubblicità sui motori di ricerca, che rappresenta oltre la metà del fatturato complessivo di Alphabet.
Mercoledì l’azienda ha dichiarato che nel secondo trimestre i ricavi derivanti dalla ricerca sono aumentati del 12% rispetto all’anno precedente, raggiungendo la cifra record di 54,2 miliardi di dollari. Gli analisti intervistati da FactSet avevano previsto 52,9 miliardi di dollari. Le azioni dell’azienda sono aumentate di circa il 3% nelle contrattazioni after-hour.
Questa performance superiore alla media sottolinea la continua capacità di Alphabet di monetizzare il proprio traffico di ricerca. Ha inoltre contribuito il fatto che il mercato pubblicitario è stato relativamente sano nel trimestre, nonostante alcuni intoppi causati dai dazi e dalle prospettive macroeconomiche incerte che avevano offuscato il quadro ad aprile.
Gli analisti di Evercore ISI hanno affermato in una nota questo mese che le verifiche di mercato hanno mostrato un aumento dei budget pubblicitari su base annua nel trimestre, dopo un inizio instabile.
Certo, ci sono incognite ancora per Google.
Anche se gli AI Overview in Google stanno aumentando il numero di link visualizzati dagli utenti, i dati di settore mostrano che questi ultimi non cliccano più così tanto sui link che generano entrate per l’azienda, quelli pubblicitari.
Questo è un rompicapo che Google dovrà risolvere per mantenere la sua posizione di leader.
L’altra grande incognita è come i nuovi browser web basati sull’IA della startup Perplexity e quello in arrivo da OpenAI potrebbero cambiare il modo in cui le persone ottengono le informazioni.
Queste sfide sono ancora agli inizi e potrebbero intaccare il browser Chrome di Google. L’impatto sulle entrate di Google, se ci sarà, si vedrà solo in una fase successiva, quando i nuovi operatori inizieranno a costruire un business pubblicitario consistente legato al loro software.
Ciò che è chiaro è che Google ha molti strumenti con cui rispondere alle sfide.
Gli utenti Google che hanno incontrato un riassunto AI hanno anche cliccato raramente su un link nel riassunto stesso. Ciò si è verificato solo nell’1% di tutte le visite a pagine con un riassunto di questo tipo.
Gli utenti Google sono più propensi a terminare completamente la loro sessione di navigazione dopo aver visitato una pagina di ricerca con un riassunto AI rispetto alle pagine senza riassunto. Ciò si è verificato nel 26% delle pagine con un riassunto AI, rispetto al 16% delle pagine con solo risultati di ricerca tradizionali.
Indipendentemente dal fatto che una pagina avesse o meno un riassunto generato dall’intelligenza artificiale, la maggior parte delle ricerche su Google ha portato l’utente a navigare altrove su Google o ad abbandonare completamente il sito senza cliccare su un link nei risultati di ricerca. Circa due terzi di tutte le ricerche hanno portato a una di queste azioni.
Le fonti più citate sia nei riassunti di Google AI che nei risultati di ricerca standard sono Wikipedia, YouTube e Reddit. Questi tre siti sono le fonti più comunemente collegate sia nei riassunti AI che nei risultati di ricerca standard. Complessivamente, hanno rappresentato il 15% delle fonti elencate nei riassunti AI esaminati. Hanno costituito una percentuale simile (17%) delle fonti elencate nei risultati di ricerca standard.
I link a Wikipedia sono leggermente più comuni nei riassunti AI che nelle pagine di ricerca standard, mentre i link a YouTube sono leggermente più comuni nei risultati di ricerca standard che nei riassunti AI.
Per quanto riguarda il tipo di siti web spesso collegati nei risultati di ricerca di Google, i siti web governativi sono più comuni nei riassunti AI che nei risultati di ricerca standard. Circa il 6% delle fonti collegate nelle panoramiche AI rimandava a siti web .gov, rispetto al solo 2% dei risultati di ricerca standard. Nel frattempo, il 5% dei riassunti AI e il 5% dei risultati di ricerca standard rimandavano a siti web di notizie.
Nel complesso, circa una ricerca su cinque su Google nel marzo 2025 ha prodotto un riassunto AI. Circa il 18% di tutte le ricerche su Google nel nostro studio ha generato un riassunto AI come parte dei risultati di ricerca. La stragrande maggioranza di questi riassunti (88%) citava tre o più fonti. Solo l’1% citava una sola fonte.
Il riassunto AI tipico (mediano) nel nostro studio era lungo 67 parole, ma variava notevolmente. Il più breve che abbiamo trovato era di sole sette parole, mentre il più lungo era di 369 parole.
Le ricerche su Google che contengono più parole, pongono domande o utilizzano frasi complete tendono a produrre più spesso riassunti generati dall’intelligenza artificiale. Le ricerche più lunghe sono più propense a produrre un riassunto generato dall’intelligenza artificiale. Solo l’8% delle ricerche di una o due parole ha prodotto un riassunto generato dall’intelligenza artificiale. Tuttavia, tale percentuale è salita al 53% per le ricerche di 10 o più parole.
Altri tipi di ricerche che tendono a produrre riassunti generati dall’intelligenza artificiale includono:
- Ricerche che formano domande: il 60% delle query di ricerca che iniziavano con parole interrogative come “chi”, “cosa”, ‘quando’ o “perché” ha prodotto un riassunto generato dall’intelligenza artificiale.
- Ricerche che utilizzano frasi complete: il 36% delle ricerche che includevano sia un nome che un verbo ha generato un riassunto generato dall’intelligenza artificiale.
La risposta di Google
Google ha contestato la metodologia e i dati dello studio Pew. “Le persone sono attratte dalle esperienze basate sull’intelligenza artificiale e le funzionalità AI nella Ricerca consentono loro di porre ancora più domande, creando nuove opportunità di interazione con i siti web. Questo studio utilizza una metodologia errata e un set di query distorto che non è rappresentativo del traffico di Ricerca. Ogni giorno indirizziamo miliardi di clic verso i siti web e non abbiamo osservato cali significativi nel traffico web aggregato, come invece suggerito dallo studio”.
Allo stesso modo Google ha contestato altri studi.
Similarweb
Secondo i dati di Similarweb, nell’ultimo anno il traffico di ricerca generato da utenti umani ha subito una contrazione significativa, registrando un calo complessivo del 15%. Le categorie maggiormente colpite sono proprio quelle che storicamente fornivano risposte puntuali e affidabili alle query degli utenti: i siti dedicati alla salute hanno perso il 31% del traffico, quelli di reference il 15%, mentre scienza ed educazione segnano un -10%.
Un declino non casuale, ma il risultato di un cambiamento profondo nel comportamento degli utenti, che oggi non cercano più una lista di link da esplorare, ma si aspettano risposte immediate e contestuali da parte di assistenti basati su AI. L’interazione è sempre meno con il web aperto, sempre più con interfacce sintetiche che riformulano le informazioni prelevate da una moltitudine di fonti, senza che l’utente debba o possa navigare fino alla fonte originale.
Google AI Overview e la crisi della visibilità
Il caso delle AI Overview di Google è emblematico. Gli utenti leggono una sintesi generata dall’AI in cima alla pagina dei risultati, senza necessità di cliccare.
AI Overview in Italia: il web cambia per sempre. Ecco vantaggi e pericoli
La “pagina zero” si sostituisce al web. Il rischio è che i contenuti originali diventino invisibili, privi di attributo e senza alcun ritorno per chi li ha prodotti. La questione è emersa con forza anche nel dibattito internazionale, come mostrano le critiche all’AI Overview lanciate da vari osservatori e media: oltre al problema della visibilità, si somma quello dell’affidabilità, in alcuni casi le risposte generate sono risultate palesemente scorrette o persino pericolose. Inoltre, questo tipo di interfaccia rafforza il controllo di Google non solo sulla ricerca, ma sull’accesso stesso alla conoscenza, spostando il potere editoriale dalle fonti ai sistemi di sintesi automatica.
Google a processo, ma in ballo c’è il futuro della conoscenza
Il rischio è di cristallizzare un nuovo monopolio cognitivo mascherato da assistenza all’utente.
Gli editori reagiscono, fine del patto per l’open web?
A complicare ulteriormente lo scenario è la reazione degli editori, che iniziano a ritirarsi dall’ecosistema aperto del web.
Gli editori si chiudono allo scraping AI: sta per saltare il patto per l’open web
Testate come Springer Nature, The New York Times, Condé Nast e Axel Springer stanno introducendo barriere tecniche (come il noindex) per impedire lo scraping dei loro contenuti da parte delle AI. Si rompe così il patto implicito dell’open web, contenuti accessibili in cambio di visibilità e traffico. La chiusura degli editori è una risposta alla percezione di uno scambio iniquo, dove l’AI raccoglie e capitalizza mentre chi produce resta escluso dai benefici.
Questa ritirata ha implicazioni profonde. Senza accesso a fonti autorevoli e aggiornate, le risposte generate dalle AI rischiano di perdere qualità, diventando meno affidabili. Ne deriva un possibile cortocircuito informativo, la sintesi automatica perde efficacia, mentre il sistema editoriale rischia di essere svuotato delle sue fondamenta economiche. Il futuro della conoscenza digitale si gioca su questo fragile equilibrio. Cloudflare ha annunciato il blocco di default dei crawler AI per i siti che ospita, consentendo ai clienti di autorizzare singoli bot e persino di imporre tariffe per ogni richiesta di crawling. Altri strumenti come Anubis, sviluppato da Xe Iaso, offrono barriere open source capaci di identificare e rallentare l’attività dei bot tramite calcoli crittografici eseguiti dai browser. Queste contromisure sollevano nuove domande. Si rischia di ostacolare anche usi legittimi del web come la ricerca scientifica o l’archiviazione pubblica?
Come distinguere tra scraping abusivo e accesso per fini non commerciali? Intanto, cresce la strategia del “wooing and suing“, accordi selettivi con OpenAI, Amazon, Google e cause legali contro motori AI come Perplexity. Ma i piccoli editori non hanno le risorse per negoziare o fare causa. La frattura è sistemica, chi ha potere contrattuale si chiude, chi non lo ha rischia l’estinzione. Non si parla più solo di copyright, il linguaggio è quello della sovranità informativa. Gli editori vogliono un ruolo attivo, una governance del traffico, una remunerazione adeguata. Altrimenti, l’alternativa è un web sempre più chiuso, opaco e dominato da pochi grandi attori.
Oltre il danno, la beffa. I modelli sono stati addestrati su contenuti altrui
La beffa è che questi modelli sono stati addestrati su contenuti disponibili online, scritti da giornalisti, studiosi, blogger, utenti di forum. Nessun compenso, nessuna citazione. I contenuti che hanno costruito valore vengono ora utilizzati per sostituire chi li ha generati. L’espropriazione non è solo tecnica, ma economica e culturale. Il paradosso si acuisce se si considera che proprio quei contenuti, spesso prodotti con fatica, tempo e competenze, diventano la base di sistemi che, grazie alla loro capacità di sintesi e distribuzione capillare, drenano attenzione e valore economico dalle fonti originali. L’intero ciclo dell’informazione viene ribaltato, chi crea perde visibilità e redditività, mentre chi sintetizza capitalizza. In alcuni casi, come nel processo antitrust contro Google negli Stati Uniti, questo squilibrio è stato letto come una distorsione profonda del mercato dell’attenzione e della conoscenza.
Verso una nuova architettura del valore
Ciò che stiamo vivendo non è solo una transizione tecnologica, ma una transizione economica e culturale. Il web come lo conosciamo si sta trasformando in un sistema opaco, intermediato da macchine che consumano informazione senza restituire valore. Il futuro del web aperto dipenderà dalla capacità degli attori pubblici e privati di costruire una nuova architettura del valore. Una governance che riconosca il ruolo dei produttori di contenuti, garantisca la trasparenza delle fonti e stabilisca nuove regole di remunerazione.
A ciò si aggiunge un tema cruciale, la sostenibilità economica dei soggetti che stanno guidando questa trasformazione. Finora, aziende come OpenAI, Anthropic o Inflection, startup fondata da Reid Hoffman e Mustafa Suleyman, con l’obiettivo di creare agenti conversazionali più empatici, sono state sostenute da enormi investimenti di capitale di rischio, ma il loro modello economico resta in gran parte indefinito. Per quanto tempo potranno mantenere infrastrutture computazionali così costose e remunerare accordi con gli editori senza un ecosistema stabile di ricavi? Riusciranno a costruire una piattaforma capace di monetizzare come Amazon o Google, oppure ci troviamo in una fase di bolla speculativa tecnologica? Non si tratta di fermare l’AI, ma di integrarla in modo equo, sostenibile e trasparente. Per evitare che la promessa di un web più intelligente si trasformi in un ecosistema sterile, in cui tutti leggono e sintetizzano, ma nessuno scrive, verifica o immagina più.