Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà Anche Bill Gates dice che l'AI è una bolla e che presto sco...
Immagine di Non ti pago per avviare il PC, scatta la denuncia Non ti pago per avviare il PC, scatta la denuncia...

Ecco come usare le AI nel modo corretto per il tracciamento e l’analisi dei dati

Sistemi e soluzioni di intelligenza artificiale sono e saranno sempre più accessibili e diffusi che mai.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Matteo Zambon

a cura di Matteo Zambon

Alpha e Beta tester di Google, Co-Founder Tag Manager Italia

Pubblicato il 11/11/2025 alle 13:47

Le aziende stanno abbracciando l’AI su vasta scala: secondo McKinsey il 78% delle organizzazioni utilizza già l’AI in almeno una funzione di business (marketing, sales, amministrazione, ecc.), percentuale in rapida crescita (era il 55% appena l’anno prima).

Allo stesso tempo, molte imprese faticano ancora a tradurre l’AI in valore di business tangibile.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Una ricerca del Boston Consulting Group rileva che il 74% delle aziende non ha ancora ottenuto benefici concreti dall’AI, non avendo le risorse necessarie per scalare i progetti oltre il proof of concept (ossia, la fattibilità di un'idea o di un processo).

Le cause sono molteplici, in particolare:

  • qualità insufficiente dei dati disponibili (raccogliere “bad data” mina la bontà degli output esecutivi dei sistemi LLM e dei modelli di AI),
  • rischi legati a privacy e bias algoritmici (il 43% delle organizzazioni cita le preoccupazioni su privacy e sicurezza dei dati come ostacolo all’adozione dell’AI).

In questo contesto, i dati rappresentano quindi un fattore sine qua non per utilizzare in modo più efficace e sicuro le AI, rimanendo competitivi sul mercato. Al contempo, far lavorare in sinergia l’AI e i dati è diventato un asset strategico da governare per prendere decisioni di marketing e di business più rapide e profittevoli.

Sistemi e soluzioni di intelligenza artificiale sono e saranno sempre più accessibili

Vediamo allora i pilastri fondamentali per usare i sistemi di AI in modo sicuro ed efficace grazie ai dati e per efficientare le attività di raccolta e analisi dati.

Gli strumenti chiave per un uso efficace dell’AI grazie ai dati

Immagine id 75575

La qualità dei dati è il fondamento di qualsiasi strategia di AI e analytics per il marketing e l’advertising.

Non sorprende quindi che i decision makers nelle aziende considerino il miglioramento della data quality la priorità numero uno per supportare utilizzi delle AI più efficienti e accurati.

In altre parole, agenti e modelli predittivi basati su AI sono affidabili solo quanto i dati su cui vengono addestrati: dataset imprecisi o parziali possono introdurre bias ed errori nei processi di raccolta, di analisi e decisionali.

molte imprese faticano ancora a tradurre l’AI in valore di business tangibile

Per assicurarsi di fare affidamento su dati di qualità per l’utilizzo delle AI, è fondamentale dotarsi prima di tutto di un sistema di tracciamento accurato.

Tutto parte dal piano di misurazione

Quando si parla di qualità del dato in ottica AI, è cruciale disporre di una solida infrastruttura dati.

Per farlo, tutto deve partire da un buon sistema di tracking allineato agli obiettivi aziendali.

Il piano di misurazione è spesso sottovalutato, ma è il primo step chiave da fare per un uso efficace dei dati per l’intelligenza artificiale.

Nel dettaglio, il piano di misurazione è un documento che definisce, in particolare:

■ quali dati l’azienda desidera misurare per perseguire i suoi obiettivi di business

■ lo scopo preciso di ogni singolo tracciamento da implementare

■ a quali KPI e obiettivi aziendali sono riferite le metriche (ossia i valori numerici) di ogni tracciamento da implementare sul sito web o ecommerce

La stesura di questo documento è quindi il primo passo fondamentale che permette di implementare e usare in modo efficace non solo i dati giusti per prendere decisioni di marketing migliori.

il 74% delle aziende non ha ancora ottenuto benefici concreti dall’AI

Il piano di misurazione è indispensabile anche per essere certi di raccogliere solo i dati necessari per ottenere output migliori da un modello predittivo o un sistema AI.

Il tracciamento dati per le AI

Immagine id 75577

Una volta redatto il piano di misurazione, servono gli strumenti giusti per implementarlo. La qualità dei dati dipende dall’architettura su cui poggia.

Dal punto di vista operativo, una delle best practice più efficaci per garantire la raccolta di dati accurati è l’uso sistematico dei parametri UTM nelle campagne marketing: incorporare UTM specifici negli URL pubblicitari permette di tracciare con precisione fonte, mezzo, contenuto e formato di ogni touchpoint digitale, assicurando che ogni conversione sia attribuita correttamente al canale e all’annuncio corretti.

raccogliere “bad data” mina la bontà degli output

Si tratta di un livello di dettaglio essenziale per alimentare algoritmi pubblicitari e di machine learning ricostruendo fedelmente il customer journey attraverso i molteplici canali utilizzati.

Un altro tassello fondamentale per rafforzare la raccolta di dati affidabili è il tracciamento server-side, ormai uno standard imprescindibile in ambito Digital Analytics moderno. A differenza del classico tracking client-side (in cui la raccolta ed elaborazione dati avviene tramite il browser dell’utente, facilmente bloccabile da cookie blocker o limitazioni dei browser), il tracking lato server registra eventi e conversioni su un server dedicato.

In altre parole, grazie al tracking server-side è possibile arrivare fino al 96%/97% di accuratezza dei dati raccolti, permettendo così di recuperare informazioni che altrimenti verrebbero perse.

In sintesi, il tracking server-side è una tecnologia che non solo migliora la sicurezza e la compliance alle norme europee vigenti grazie a tecniche avanzate di pseudonimizzazione e di anonimizzazione dei dati; il tracciamento lato Server fornisce infatti ai data analyst e ai marketer un dataset più ricco e pulito, da utilizzare per allenare algoritmi e sistemi di AI per ottimizzare le campagne online, il tutto mantenendo la conformità normativa in ambito GDPR e Privacy.

A fianco del server-side, un altro elemento imprescindibile per assicurare una raccolta di dati accurati è la configurazione a regola d’arte della Consent Mode V2.

In questo contesto, la CM V2 rappresenta un asset strategico prezioso, poiché permette di adattare e di modificare in modo dinamico la raccolta dei dati in base al consenso concesso o negato dall’utente.

In questo modo viene mantenuta comunque la capacità di raccogliere dati in forma aggregata o anonima, garantendo così un bilanciamento tra compliance normativa e continuità di raccolta di dati chiave per ottimizzare le performance di marketing e advertising.

I database relazionali: una visione a 360 gradi

L’adozione di database relazionali cloud (ad esempio BigQuery) è un ulteriore elemento fondamentale per usare le AI in modo efficace e data-driven.

i dati rappresentano quindi un fattore sine qua non

Questo perché consentono di archiviare grandi volumi di informazioni in un repository centrale e di collegare tra loro dati eterogenei provenienti da diverse fonti aziendali (CRM, piattaforme eCommerce, campagne advertising, sistemi di automazione, ecc.).

Questo approccio riduce drasticamente la presenza di dati duplicati o inconsistenti, migliorando l’accuratezza generale e abilitando analisi e modelli predittivi più precisi.

Grazie a strumenti come BigQuery è possibile interrogare rapidamente milioni di righe di dati e alimentare modelli di AI con dataset segmentati, richiamando e utilizzando dunque solo i dati che servono, quando servono e per specifici obiettivi.

Come AI e LLM migliorano il marketing e l’advertising grazie ai dati

Immagine id 75578

Una volta che il sistema di raccolta dati è solido, preciso e allineato ai KPI aziendali, i Large Language Model (LLM) possono contribuire a efficientare il processo di arricchimento e di analisi dei dati, ottimizzando così le attività di marketing e adv.

La qualità dei dati è il fondamento di qualsiasi strategia di AI

Vediamo alcune applicazioni pratiche.

Per chi desiderasse approfondire a livello strategico e operativo i temi dell’ottimizzazione degli output delle AI e degli LLM grazie ai dati, all’evento GA Summit 2026 saranno in programma numerosi speech e casi studio dedicati.

Debugging e validazione

Nel flusso quotidiano del lavoro di tracciamento dati con Google Tag Manager, eseguire attività di identificazione di errori o di malfunzionamenti nelle configurazioni può costare diverse ore al team preposto.

In questo contesto, l’utilizzo di un LLM rappresenta un supporto concreto anche in fase di debugging (ossia, della corrette esecuzione e attivazione del sistema di tracking).

Facciamo un esempio pratico.

modelli predittivi basati su AI sono affidabili solo quanto i dati

Per verificare se il Data Layer o un evento di tracciamento contengono errori, o se ci sono parametri aggiuntivi da inserire, è possibile:

  • incollare nella chat di un sistema LLM (ad esempio Gemini o GPT) l’output del Data Layer stesso o lo snippet di configurazione dell’evento di tracciamento
  • inviare una richiesta simile alla seguente: “Questo evento add_to_cart è configurato correttamente secondo le best practice di GA4, o manca qualche parametro consigliato?”.

L’output generato offre una prima validazione automatica della qualità o completezza del Data Layer o di specifici eventi di tracking.

Un supporto utile sia in fase di creazione del sistema di tracciamento, sia in fase di audit e di revisione, risparmiando tempo e aumentando l’accuratezza.

Documentazione automatica e prima stesura tecnica del Data Layer

Quando si lavora al tracciamento di nuovi progetti o su revisioni del sistema di raccolta dati di un ecommerce o sito web, la creazione della struttura del Data Layer è tra le attività più delicate e dispendiose in termini di tempo. In questa fase, i Large Language Model possono supportare concretamente la creazione della prima bozza tecnica della struttura di un Data Layer.

Per farlo, è possibile inviare ad un LLM una richiesta simile alla seguente:

"Sto implementando il tracciamento di un e-commerce. Suggerisci una struttura Data Layer per l'evento purchase con tutti i parametri GA4 raccomandati e crea una breve documentazione per gli sviluppatori."

tutto deve partire da un buon sistema di tracking allineato agli obiettivi aziendali

In questo caso, l’AI genererà una prima proposta in formato JSON per gli eventi in GA4 (purchase, add_to_cart, ecc.) e i relativi parametri corretti (value, currency, transaction_id, ecc.).

In questo caso, il vantaggio è doppio:

  1. riduzione drastica dei tempi di sviluppo iniziale
  2. maggiore controllo sulla qualità del tracciamento, fin dalla primissima bozza.

Creazione di segmenti di audience pubblicitarie

La creazione di audience di pubblico specifiche è uno step importante per addestrare in modo mirato gli algoritmi pubblicitari e aumentare i tassi di conversione.

L’uso combinato di GA4 e di BigQuery consente già oggi di esportare e di aggregare tutti i dati relativi alle azioni compiute dagli utenti (ad esempio, le categorie di prodotti acquistati, gli acquisti superiori ai 100€, gli acquisti per regione geografica, etc.).

il tracciamento server-side, ormai uno standard imprescindibile

Questa operazione, unita all’uso di modelli di similarità (come la cosine similarity) basati sull’intelligenza artificiale, permette di identificare e raggruppare segmenti di utenti simili tra loro per comportamenti di acquisto con maggiore precisione ed efficacia.

L’output di questo processo è la creazione in GA4 di segmenti di remarketing non generici o basati su singoli pattern di comportamento, ma costruiti su comportamenti reali e ricorrenti di gruppi di utenti. Ad esempio: utenti che visitano sistematicamente determinate combinazioni di pagine e che acquistato determinate categorie di prodotti.

Questi dati, se inviati come audience a strumenti quali Google Ads o Meta Ads, permettono agli algoritmi pubblicitari di raggiungere in modo più mirato il target più profittevole con il messaggio più adeguato.

Come comprovato da casi studio di settore, il risultato di questo processo può tradursi in risultati economici tangibili, quali ad esempio un aumento della tendenza dei ricavi generati da ogni sessione di navigazione, o in un incremento dell’AOV (valore medio degli ordini) per ogni transazione. 

Filtraggio, pulizia ed estrazione di dati precisi in BigQuery

Utilizzando un database relazionale come BigQuery, combinato con strumenti di organizzazione ed estrazione dati come SQL e Dataform, è possibile ottenere dai sistemi di AI delle query SQL per filtrare e arricchire i dati raccolti da GA4, o da altre fonti.

la CM V2 rappresenta un asset strategico prezioso

Infatti, modelli LLM – come Gemini di Google, in particolare – sono molto efficaci nel svolgere compiti come, ad esempio:

  • scrittura di una query per eliminare i dati duplicati;
  • estrazione degli utenti che hanno completato più di un acquisto negli ultimi 30 giorni;
  • uniire dati da più fonti per creare una vista più completa del customer journey.

Questo approccio consente anche a team non squisitamente tecnici di lavorare sui dati in modo più autonomo, risparmiando tempo, riducendo errori e ottenendo dataset di qualità superiore.

Immagine id 75576

Chiaramente, a valle di questo processo operativo di utilizzo di LLM e database relazionali è sempre necessario un controllo finale da parte di un data analyst esperto; in questo modo è possibile validare gli output o ottimizzarli in base alle necessità specifiche.

l’utilizzo di un LLM rappresenta un supporto concreto anche in fase di debugging

Una volta resi più puliti e specifici, questi dati possono poi essere usati per alimentare altri modelli di AI per eseguire ulteriori task: ad esempio, per generare testi personalizzati per ciascun cluster di utenti, aumentando così la risonanza del messaggio e riducendo i tempi di produzione.

Gli esempi di applicazioni appena visti rendono il processo di adozione e utilizzo delle AI un dialogo continuo con il dato, rendendo le decisioni più veloci, informate e permettendo di sfruttare appieno la potenza di sistemi di machine learning predittivi e degli LLM.

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Non ti pago per avviare il PC, scatta la denuncia
  • #2
    iOS 26.1: ecco come regolare la trasparenza del Liquid Glass
  • #3
    Android Auto abbandona definitivamente Google Assistant
  • #4
    Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
  • #5
    Scegli Sorgenia, l’energia che pensa fuori dal trend. Prezzo bloccato per 24 mesi
  • #6
    Lavoratori tech licenziati a migliaia (solo negli USA per ora)
Articolo 1 di 5
Non ti pago per avviare il PC, scatta la denuncia
Una grande banca statunitense affronta una class action per non aver pagato ai dipendenti il tempo necessario ad avviare i computer prima del turno.
Immagine di Non ti pago per avviare il PC, scatta la denuncia
8
Leggi questo articolo
Articolo 2 di 5
Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Bill Gates paragona l'attuale fase dell'intelligenza artificiale alla bolla delle dot-com di fine anni Novanta, quando molte società Internet risultarono sopravvalutate.
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Leggi questo articolo
Articolo 3 di 5
Ecco cosa succede quando possiedi i pesi dei tuoi modelli di IA
Baseten lancia una piattaforma per addestrare modelli IA open source e ridurre la dipendenza da OpenAI, con risparmio fino all'84% sui costi
Immagine di Ecco cosa succede quando possiedi i pesi dei tuoi modelli di IA
Leggi questo articolo
Articolo 4 di 5
Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Il costo dell'IA non è più il vero ostacolo: latenza, flessibilità e capacità sono le sfide principali per le aziende che mirano all'intelligenza artificiale su larga scala.
Immagine di Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Leggi questo articolo
Articolo 5 di 5
Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
L'uso crescente di analisi facciali basate su IA per selezionare candidati solleva allarmi su scientificità, bias e implicazioni etiche nel processo di assunzione.
Immagine di Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.