Sempre più aziende stanno abbracciando l’AI su vasta scala: secondo McKinsey il 78% delle organizzazioni utilizza già l’AI in almeno una funzione di business (marketing, sales, amministrazione, ecc.), percentuale in rapida crescita (era il 55% appena l’anno prima).
Indice degli argomenti
Adozione dell’AI e mancanza di valore senza una strategia dati efficace
Allo stesso tempo, molte imprese faticano ancora a tradurre l’AI in valore di business tangibile.
Una ricerca del Boston Consulting Group rileva che il 74% delle aziende non ha ancora ottenuto benefici concreti dall’AI, non avendo sviluppato le capacità necessarie per scalare i progetti oltre il proof of concept (ossia, la fattibilità di un’idea o di un processo).
Le cause sono molteplici, in particolare:
- qualità insufficiente dei dati disponibili (i “bad data” minano la bontà di analisi e modelli),
- rischi legati a privacy e bias algoritmici (il 43% delle organizzazioni cita le preoccupazioni su privacy e sicurezza dei dati come ostacolo all’adozione dell’AI).
Il messaggio è chiaro: utilizzare l’AI in modo strategico non è più un’opzione “nice to have”, ma un fattore essenziale per rimanere sul mercato. Appare evidente che la posta in gioco sia alta: governare l’AI e i dati in modo efficace è diventato fondamentale per prendere decisioni di marketing e di business più rapide e profittevoli.
Dati di qualità: condizione necessaria per sistemi AI affidabili
Vediamo allora i pilastri fondamentali per usare i sistemi di AI in modo sicuro ed efficace per il business.
La qualità dei dati è il fondamento di qualsiasi strategia di AI e analytics. Un dato di qualità deve essere:
- Accurato: riflette la realtà (corretta implementazione degli strumenti di tracciamento)
- Completo: cattura le interazioni rilevanti per il marketing e l’advertising (prodotti più acquistati, tasso di abbandono del carrello, ecc.)
- Rilevante: utile per gli obiettivi di business (non tracciare tutto, ma tracciare i KPI che servono per monitorare il raggiungimento degli obiettivi definiti)
- Tempestivo: disponibile da consultare quando serve
- Strutturato e consistente: facilmente interpretabile anche dalle macchine (nomenclatura eventi/parametri di tracciamento, ecc.)
Senza questi requisiti, anche gli algoritmi più avanzati rischiano di produrre insight fuorvianti – in altre parole, garbage in, garbage out.
Non sorprende quindi che i responsabili dati nelle aziende considerino il miglioramento della data quality la priorità numero uno per supportare pratiche di AI affidabili.
In altre parole, agenti e sistemi basati su AI sono affidabili solo quanto i dati su cui vengono addestrati: dataset imprecisi o parziali possono introdurre bias ed errori nei processi di raccolta, di analisi e decisionali.
Gli strumenti chiave per un uso efficace dell’AI grazie ai dati
Per assicurarsi di fare affidamento su dati di qualità per l’utilizzo delle AI, è fondamentale dotarsi prima di tutto di un sistema di tracciamento adeguato.
Quando si parla di qualità del dato in ottica AI, è cruciale disporre di una solida infrastruttura dati.
Per farlo, tutto deve partire da un buon sistema di tracking allineato agli obiettivi aziendali.
Piano di misurazione: primo passo per una strategia AI vincente
Il piano di misurazione è spesso sottovalutato, ma è il primo step chiave da fare per un uso efficace dei dati per l’intelligenza artificiale.
Il piano di misurazione è un documento che definisce:
- quali dati l’azienda desidera misurare per perseguire i suoi obiettivi di business
- lo scopo preciso di ogni singolo tracciamento da implementare
- a quale KPI aziendale sono riferite le metriche (ossia i valori numerici) di ogni tracciamento da implementare
- a quale obiettivo di business sono riferite le metriche di ogni tracciamento da implementare
Il piano di misurazione è dunque essenziale per definire chiaramente gli obiettivi e i KPI aziendali e di marketing, monitorando il loro raggiungimento.
In altre parole, la stesura di questo documento è il primo passo fondamentale che permette di implementare e usare in modo efficace non solo i dati giusti per prendere decisioni di marketing migliori.
Un piano di misurazione è condizione sine qua non per raccogliere solo i dati necessari per far lavorare meglio un modello predittivo o un sistema AI, per output più precisi e affidabili.
In assenza di un piano di misurazione, i sistemi di raccolta e analisi procedono alla cieca, alimentando l’AI con dati incompleti, errati o non pertinenti.
Strumenti e tecniche per migliorare la qualità del tracciamento
Una volta definito il piano, servono gli strumenti giusti per implementarlo. La qualità dei dati dipende dall’architettura su cui poggia.
Dal punto di vista operativo, una delle best practice più efficaci per garantire la raccolta di dati accurati è l’uso sistematico dei parametri UTM nelle campagne marketing: incorporare UTM specifici negli URL pubblicitari permette di tracciare con precisione fonte, mezzo, contenuto e formato di ogni touchpoint, assicurando che ogni conversione sia attribuita correttamente al canale e all’annuncio corretti.
Si tratta di un livello di dettaglio essenziale per alimentare algoritmi pubblicitari e di machine learning ricostruendo fedelmente il customer journey attraverso i molteplici canali utilizzati.
Un tassello fondamentale per rafforzare la raccolta di dati affidabili è poi il tracciamento server-side, ormai uno standard imprescindibile in ambito Digital Analytics moderno. A differenza del classico tracking client-side (in cui la raccolta ed elaborazione dati avviene tramite il browser dell’utente, facilmente bloccabile da cookie blocker o limitazioni dei browser), il tracking lato server registra eventi e conversioni su un server dedicato.
In altre parole, grazie al tracking lato Server è possibile arrivare a una accuratezza fino al 96%/97% dei dati raccolti, permettendo così di recuperare tutti quei dati che altrimenti verrebbero persi (si pensi ai cookie pubblicitari di terze parti sempre più deprecati, o ai blocchi su Facebook/Google Ads).
In sintesi, il tracking server-side è una tecnologia che non solo migliora la sicurezza e la compliance alle norme europee vigenti grazie a tecniche avanzate di pseudonimizzazione e di anonimizzazione dei dati; il tracciamento lato Server fornisce infatti ai data analyst e ai marketer un dataset più ricco e pulito, da utilizzare per allenare algoritmi e sistemi di AI per ottimizzare le campagne online, il tutto mantenendo la piena conformità normativa.
A fianco del server-side, un altro elemento imprescindibile per assicurare una raccolta di dati accurati è la configurazione a regola d’arte della Consent Mode V2.
Strumenti come la Consent Mode v2 rappresentano in questo contesto un asset strategico: permettono di adattare in modo dinamico il tracciamento dei dati in base al consenso ricevuto, o di modificarlo se l’utente decide di cambiare nel tempo i propri consensi.
In questo modo viene mantenuta comunque la capacità di raccogliere dati in forma aggregata o anonima, garantendo così il bilanciamento tra compliance e continuità di raccolta di dati chiave per ottimizzare le performance di marketing e advertising.
Integrazione dei dati aziendali tramite database relazionali
L’adozione di database relazionali cloud (ad esempio BigQuery) è un ulteriore elemento fondamentale per usare le AI in modo efficace e data-driven.
Questo perché consentono di archiviare grandi volumi di informazioni in un repository centrale e di collegare tra loro dati eterogenei provenienti da diverse fonti aziendali (CRM, piattaforme eCommerce, campagne advertising, sistemi di automazione, ecc.).
Questo approccio riduce drasticamente la presenza di dati duplicati o inconsistenti, migliorando l’accuratezza generale e abilitando analisi e modelli predittivi più precisi.
Grazie a strumenti come BigQuery è possibile interrogare rapidamente milioni di righe di dati e alimentare modelli di AI con dataset segmentati, richiamando e utilizzando dunque solo i dati che servono, quando servono e per specifici scopi.
Supporto dei LLM nei processi di marketing e tracciamento dati
Una volta che il sistema di raccolta dati è solido, preciso (grazie alla configurazione personalizzata di Google Tag Manager, GA4 e BigQuery) e allineato agli obiettivi e KPI aziendali, i Large Language Model (LLM) possono contribuire a efficientare il processo di raccolta e arricchimento dei dati per ottimizzare poi le attività di marketing e adv.
Vediamo alcune applicazioni pratiche.
Per chi desiderasse approfondire a livello strategico e operativo i temi dell’ottimizzazione degli output delle AI e degli LLM grazie ai dati, all’evento GA Summit 2025 a Milano il 7 ottobre sono in programma numerosi speech e casi studio dedicati.
Debugging e validazione
Nel flusso quotidiano del lavoro di tracciamento dati con Google Tag Manager, le attività di identificazione di errori o di malfunzionamenti nelle configurazioni può costare diverse ore al team preposto.
In questo contesto, l’utilizzo di un LLM rappresenta un supporto concreto anche in fase di debugging.
Facciamo un esempio pratico.
Per verificare se il Data Layer o un evento di tracciamento contengono errori o se ci sono parametri aggiuntivi da inserire, è possibile incollare nella chat di un LLM (ad esempio Gemini o GPT) l’output del Data Layer stesso o lo snippet di configurazione dell’evento e inviare una richiesta di questo genere: “Questo evento add_to_cart è configurato correttamente secondo le best practice di GA4, o manca qualcosa?”.

Questo tipo di assistenza riduce drasticamente il tempo speso in tentativi manuali o consultazioni documentali, offrendo una prima validazione automatica, utile sia in fase di sviluppo che di audit. Per chi lavora su più progetti o in ambienti multi-tag, diventa uno strumento essenziale per mantenere la qualità e la consistenza del tracking risparmiando tempo e aumentando l’accuratezza.
Documentazione automatica e prima stesura tecnica del Data Layer
Quando si lavora al tracciamento di nuovi progetti o su revisioni del sistema di raccolta dati di un ecommerce o sito web, la creazione della struttura del Data Layer è tra le attività più delicate e dispendiose in termini di tempo. In questa fase, i Large Language Model possono supportare concretamente la creazione della prima bozza tecnica della struttura di un Data Layer.
Per farlo, è possibile inviare ad un LLM una richiesta simile alla seguente:
“Sto implementando il tracciamento di un e-commerce. Suggerisci una struttura Data Layer per l’evento purchase con tutti i parametri GA4 raccomandati e crea una breve documentazione per gli sviluppatori.”
In questo caso, l’AI genererà una prima proposta in formato JSON per gli eventi in GA4 (purchase, add_to_cart, ecc.) e i relativi parametri corretti (value, currency, transaction_id, ecc.).
Il vantaggio è doppio: riduzione drastica dei tempi di impostazione iniziale e un maggiore controllo sulla qualità del tracciamento, fin dalla primissima bozza.
AI per la creazione di segmenti pubblicitari basati sui dati
Uno degli usi più profittevoli e immancabili dell’AI per l’advertising, è la creazione di audience di pubblico specifiche, in grado di alimentare in modo più mirato gli algoritmi pubblicitari.
L’uso combinato di GA4 e di BigQuery consente già oggi di esportare e di aggregare tutti i dati relativi alle azioni compiute dagli utenti (ad esempio, tutte le tipologie di prodotti acquistati, tutti gli acquisti superiori ai 100€ e tutti gli acquisti per regione geografica).
Questa operazione, unita a modelli di similarità (come la cosine similarity) basati sull’intelligenza artificiale, permette di identificare e raggruppare segmenti di utenti simili tra loro per comportamenti di acquisto.
L’output di questo processo è la creazione in GA4 di segmenti di remarketing non generici, ma costruiti su comportamenti reali e ricorrenti, ad esempio: utenti che hanno acquistato più volte in categorie affini o che visitano sistematicamente determinate combinazioni di pagine.
Questi dati, se inviati come audience a strumenti quali Google Ads o Meta Ads, permettono agli algoritmi pubblicitari di raggiungere con precisione e rapidità il target più profittevole con il messaggio più adeguato.
Come comprovato da casi studio reali di settore, il risultato di questo processo si può tradurre, ad esempio, in un aumento della tendenza dei ricavi generati da ogni sessione di navigazione, e in un incremento dell’AOV (valore medio degli ordini) per ogni transazione.
Ottimizzazione dei dataset per l’AI tramite query e pulizia dati
Utilizzando un database relazionale come BigQuery, combinato con strumenti di organizzazione ed estrazione dati come SQL e Dataform, è possibile ottenere suggerimenti o generare direttamente query SQL per filtrare e arricchire i dati raccolti da GA4, o da altre fonti.
Modelli LLM – come Gemini di Google, in particolare – sono molto efficaci nel svolgere compiti come:
- scrittura di una query per eliminare i dati duplicati;
- estrazione degli utenti che hanno completato più di un acquisto negli ultimi 30 giorni;
- unione di dati da più fonti per creare una vista più completa del customer journey.
Questo approccio consente anche a team non tecnici di intervenire sui dati in modo più autonomo, risparmiando tempo, riducendo errori e garantendo una qualità superiore dei dataset.
Chiaramente, a valle di questo processo operativo di utilizzo di LLM e database relazionali è sempre necessario un controllo finale da parte di un data analyst esperto; in questo modo è possibile validare gli output o ottimizzarli in base alle necessità specifiche.
Una volta resi più puliti e coerenti, questi dati possono poi essere usati per alimentare altri modelli di AI: ad esempio, l’AI può generare testi personalizzati per ciascun micro-cluster di utenti, aumentando la risonanza del messaggio e riducendo drasticamente i tempi di produzione.
Queste applicazioni rendono il processo di adozione e utilizzo delle AI un dialogo continuo con il dato, rendendo le decisioni più veloci e informate e permettendo di sfruttare appieno la potenza di sistemi AI e degli LLM.