La GEO — Generative Engine Optimization — è la nuova disciplina che sta ridefinendo il rapporto tra brand e motori di ricerca basati sull’intelligenza artificiale.
Non si tratta di aggirare gli algoritmi, ma di comprendere come i chatbot costruiscono le proprie risposte e di presidiare, con contenuti autorevoli e coerenti, le fonti su cui si basano. In un ecosistema dove sempre più utenti chiedono direttamente a ChatGPT quale prodotto acquistare o quale servizio scegliere, essere citati — o essere ignorati — fa già la differenza.
Indice degli argomenti
Dal chatbot al carrello: come cambia il modo in cui cerchiamo
Sempre più persone, infatti, non affidano le loro ricerche su internet a Google, ma chiedono direttamente a ChatGPT o ad altri sistemi di intelligenza artificiale generativa, quale prodotto comprare, quale servizio scegliere, quale soluzione adottare.
Davanti a questo cambiamento le aziende e i loro brand, a causa delle peculiarità dei modelli linguistici di grandi dimensioni (LLM) dell’intelligenza artificiale, hanno dovuto adottare nuove strategie andando oltre la SEO.
“Negli anni la SEO è stata data per ‘morta’ svariate volte. Non è mai stata una tecnica però – chiarisce l’esperto di digitale Cristiano Ferrari – ma un principio: posizionarsi dove le persone cercano le risposte. Ieri erano gli elenchi telefonici, poi i motori di ricerca, oggi i chatbot”.
Dietro ad un suggerimento e/o consiglio fornito da un chatbot AI però è altamente probabile che le risposte più frequenti siano state fornite da esseri umani. Le AI di oggi, infatti, sono lettori superficiali di Internet e le loro risposte possono essere ‘manipolate’.
Proprio per questo un numero crescente di aziende sta investendo e/o destinando parte del loro budget marketing per ottenere menzioni positive dai chatbot AI.
Per Elis Bonini, AI strategist della digital agency Ventie30, c’è un punto critico: “Molte aziende oggi non sanno bene cosa stanno comprando, né quanto sia sostenibile nel tempo. E il rischio non è solo reputazionale: quando l’AI ‘sbaglia’ o crea danni, la responsabilità ricade comunque sull’azienda che la utilizza. Il caso Air Canada (chatbot che dà info errate e tribunale che respinge l’idea che il bot sia una “entità separata”) è un precedente molto chiaro”.
La SEO non è morta, si è evoluta: ora presidia i chatbot
I risultati delle ricerche AI sono quindi manipolabili?
Sì, in parte sono manipolabili, ma bisogna distinguere due piani spiegano dal team AI della digital agency Ventie30. Oggi molti sistemi di AI search usano agenti che navigano, leggono pagine, profili e documenti. Questo apre a vulnerabilità come la prompt injection (anche indiretta), cioè l’inserimento di istruzioni nascoste in contenuti non affidabili che finiscono per sovrascrivere le istruzioni dell’agente o alterarne le priorità. Il National Institute Standards and Technology, l’agenzia USA che sviluppa standard tecnologici, e l’OWASP, Open Worldwide Application Security Project, il progetto open-source che ha lo scopo di formulare linee guida, strumenti e metodologie per migliorare la sicurezza delle applicazioni informatiche, considerano la prompt injection una delle principali categorie di rischio per applicazioni LLM.
Un esempio è il caso del ‘flan’ su LinkedIn: un prompt ‘nascosto’ nel profilo di Cameron Mattis, un dirigente di Stripe, ha portato i tools di recruiting a includere involontariamente una ricetta nelle e-mail generate. Divertente, ma chiarisce bene quanto sia vulnerabile l’automazione.
Un mercato che cresce: aziende e agenzie puntano sulla GEO
C’è poi la manipolazione commerciale – continua il team AI di Ventie30 – una dinamica simile alla SEO dove l’obiettivo è cercare di influenzare le fonti che i motori AI useranno per comporre la risposta (earned media, review, comparatori, forum, listicle, ecc.). Negli ultimi mesi è emerso chiaramente che c’è già un mercato che prova a ‘spingere’ brand dentro le risposte dei chatbot.
Il “brand authority statement”
Alcune agenzie, nate nel mondo della SEO tradizionale, si sono rapidamente adattate. Evan Bailyn, CEO di First Page Sage, lo spiega senza troppi giri di parole: oggi una parte crescente del traffico dei suoi clienti arriva direttamente dai chatbot.
La strategia è raffinata. Si tratta di inserire su una rete di siti – spesso controllati o affiliati – dichiarazioni di autorevolezza del marchio: frasi apparentemente innocue come ‘leader di settore‘, ‘più citato‘, ‘scelto dagli esperti‘. I bot le intercettano, le incrociano con altri segnali e le trasformano in raccomandazioni.
Frequenza contro verità: perché l’AI crede a ciò che si ripete
L’ottimizzazione per i motori generativi, la cosiddetta GEO, lavora sulla narrazione. I chatbot non mostrano liste di risultati: costruiscono risposte. Raccontano una storia plausibile, coerente, spesso convincente. E come ogni storia, può essere riscritta.
Non è necessario mentire. Basta ripetere abbastanza volte la stessa storia.
Per Cristiano Ferrari il punto è che “L’AI non distingue tra frequenza e verità. Se un’affermazione falsa viene ripetuta abbastanza volte in contesti apparentemente autorevoli, diventa parte del modello. Chi controlla le fonti più citate controlla la narrazione”.
L’AI è più facile da influenzare di quanto pensiamo
OpenAI afferma di utilizzare un mix di fonti affidabili, indici interni, dati autorizzati e risultati di ricerca di terze parti, adottando misure per individuare fonti di bassa qualità o tentativi di influenza occulta. Google sostiene che anche Gemini eredita anni di esperienza nel contrasto a pratiche manipolative come il keyword stuffing.
Un chatbot non ‘verifica’ nel senso umano del termine. Legge il web in modo statistico, riconosce pattern, associa segnali. Se una certa affermazione ricorre abbastanza spesso, in contesti ritenuti affidabili, diventa parte della sua conoscenza operativa.
Questo rende alcuni ambiti particolarmente vulnerabili. Come spiega Nick Koudas, professore di informatica all’Università di Toronto, è più facile cambiare l’opinione di un’AI quando l’argomento è poco presidiato. Se un tema è marginale, tecnico, di nicchia, bastano pochi segnali coerenti per orientare la risposta. Non è un limite etico, ma matematico.
È lo stesso principio per cui è difficile convincere un’AI che la Terra è piatta, ma relativamente semplice suggerirle quale sia ‘la migliore vasca idromassaggio in commercio‘.
Strategie legittime e manipolazioni: dove sta il confine
Dello stesso parere anche Luca Pelati, CEO della digital agency Ventie30 che ha istituito, tra le prime in Italia, un team dedicato allo studio, alla ricerca ed allo sviluppo di AI. “Concordo con l’idea che non tutte le risposte sono ‘spostabili’ allo stesso modo. Farei una distinzione netta tra strategie legittime per ottenere risposte più accurate/utili e tentativi di aggirare policy e guardrail“.
Per ottenere risposte più accurate e utili è sufficiente fornire input chiari e contestualizzati, chiedere fonti e criteri, stimolare la revisione critica del modello, supportare con evidenze e ridurre l’ambiguità con formati strutturati.
In certe domande il sistema sta fornendo una risposta basata su una stima più che sul sapere conoscitivo. “Paper recenti mostrano quanto piccoli interventi di fine-tuning / poisoning possano produrre effetti fuori dominio (\”weird generalization\”) e comportamenti devianti, anche quando i dati sembrano ‘innocui'” chiarisce Pelati.
Il peso degli earned media: PR e terze parti valgono più del brand-owned
Secondo dati di Similarweb, i chatbot basati su IA generativa indirizzano utenti verso siti web oltre 230 milioni di volte al mese, un valore triplicato in un solo anno. Ancora più rilevante è la qualità di questo traffico: chi arriva da ChatGPT tende a restare più a lungo, a consultare più pagine e ad avere una probabilità più alta di completare una transazione.
È qui che entra in gioco la GEO. A differenza della SEO, che lavora sull’indicizzazione e sul ranking, l’ottimizzazione per i motori generativi lavora sulla narrazione.
La ‘narrazione’ però non la creano le macchine, la imposta chi progetta il prodotto e nell’AI search, sempre più spesso vince chi è citabile e verificabile, non solo chi ‘si posiziona’.
Dalla ricerca su GEO emerge un punto molto operativo: aggiungere citazioni, quote e statistiche (dove pertinenti) e migliorare chiarezza/leggibilità può aumentare la visibilità in risposte generative.
Per Elis Bonini, AI strategist della digital agency Ventie30: “Molti motori AI mostrano una preferenza per earned media autorevoli come Reddit, ad esempio, rispetto a contenuti social o brand-owned, quindi PR e terze parti pesano più di quanto le aziende si aspettino”.
Cosa fare per costruire un brand storytelling AI ready
- Costruire autorevolezza: testate, review indipendenti, comparatori, report, partnership, citazioni coerenti.
- Curare la “coerenza dell’entità”: naming, posizionamento, proof point e claim identici (o compatibili) tra sito, press kit, Wikipedia/Wikidata dove pertinente, directory, schede prodotto, profili.
- Scrivere contenuti per essere estratti: pagine “facts-first”, FAQ, policy, schede tecniche, confronti, casi d’uso — più “modulari” e meno fuffa.
- Community signal (con cautela): Reddit è particolarmente ‘attenzionabile’ perché è una fonte enorme e spesso usata/licenziata per uso AI; ma lì non funziona lo spam: serve presenza reale e utile, ovvero far parte della community o crearsene una.
Un cambio di paradigma: il futuro è zero-click e la qualità umana vince
Siamo di fronte ad uno scenario nel quale i motori cambiano velocemente, i dataset/partner di contenuto cambiano e i comportamenti e i dataset sono poco trasparenti.
Inoltre, per i marketer non si tratta più di portare utenti sul sito. Con AI Overviews/AI search, molti publisher stanno vedendo cali importanti di traffico da ricerca e un mondo sempre più ‘zero-click‘.
E parallelamente cresce il traffico di bot/agent che leggono il web per rispondere agli utenti.
Quali sono i pilastri per una GEO solida? “Servono misurazione costante delle query e dei competitor, costruzione di autorevolezza tramite media terzi e PR, contenuti strutturati e aggiornati, distribuzione coerente su più canali, attenzione a rischi e conformità evitando pratiche scorrette e, infine, un approccio basato su test e miglioramento continuo. Insomma bisogna essere ancora più presenti, partecipi e fornire contenuto di qualità perché la crescente produzione di testi da parte delle AI sta generando un appiattimento generale: i modelli si nutrono di contenuti generati da altri modelli, invertendo il flusso tra creatività umana e sintesi automatica, con il rischio di una spirale di omologazione che rende ancora più prezioso il contributo autentico e originale degli autori umani” spiega Luca Pelati.
Conclusioni: l’AI non sa cosa è vero, ma sa cosa suona vero
La GEO non è una truffa. È l’evoluzione naturale di un ecosistema informativo che cambia. Ma come ogni evoluzione, richiede nuove competenze, nuove regole e una nuova consapevolezza.
Per le aziende, significa comprendere che l’IA è ormai un canale strategico.
Per i regolatori, interrogarsi su trasparenza e responsabilità.
Per gli utenti, imparare a leggere le risposte dell’IA non come verità, ma come ipotesi plausibili.
“L’AI non sa cosa è vero, sa cosa ‘suona vero‘ in base ai pattern linguistici su cui è stata addestrata” chiarisce Cristiano Ferrari che aggiunge: “Il problema è che le risposte arrivano con un tono così sicuro che sembrano fatti. Nessun ‘forse’, nessun ‘secondo alcune fonti’. Scambiamo la fluidità per accuratezza. La regola dovrebbe essere semplice: usare l’AI per esplorare, mai per concludere”.
La lezione è semplice, ma scomoda: l’AI non è un arbitro neutrale. È uno strumento potente, utile, ma fallibile. Questo, però, rappresenta una grande opportunità per le aziende e i loro brand.
Per gli utenti chiedere un secondo parere resta fondamentale. Incrociare fonti, consultare recensioni indipendenti, affidarsi a testate giornalistiche affidabili o a esperti in carne e ossa.
La varietà dei segnali su cui si basano i chatbot è, paradossalmente, una buona notizia: rende più difficile manipolare temi consolidati, coperti da fonti autorevoli. Ma lascia ampi margini nei territori meno esplorati.












