Google corre ai ripari per migliorare la qualità delle sue risposte generate dall'intelligenza artificiale, aprendo posizioni lavorative dedicate specificamente al controllo e alla verifica degli AI Overviews. L'annuncio arriva in un momento delicato per il colosso di Mountain View, che sta spingendo in modo sempre più aggressivo l'integrazione dell'AI nella ricerca tradizionale, ma continua a fare i conti con problemi di accuratezza e allucinazioni del sistema.
L'offerta di lavoro, pubblicata con il titolo "AI Answers Quality", cerca ingegneri che entrino a far parte del team Google Search con l'obiettivo specifico di migliorare la qualità delle risposte AI, in particolare quelle mostrate negli AI Overviews. Nel testo dell'annuncio, Google spiega di voler "reimmaginare cosa significhi cercare informazioni, in qualsiasi modo e ovunque", affrontando "sfide ingegneristiche complesse" per espandere l'infrastruttura mantenendo un'esperienza universalmente accessibile e utile.
La tempistica dell'annuncio non è casuale. Google sta infatti forzando sempre più utenti a interagire con le risposte AI, implementando recentemente aggiornamenti che spingono verso la AI Mode e integrando gli AI Overviews anche nel feed Discover per le notizie. L'azienda è arrivata persino a riscrivere automaticamente i titoli degli articoli delle testate giornalistiche utilizzando l'intelligenza artificiale, suscitando preoccupazioni nel settore editoriale.
Nonostante i miglioramenti rispetto ai primi lanci, gli AI Overviews continuano a mostrare problematiche significative. Un caso emblematico emerso nelle scorse settimane ha evidenziato come il sistema possa generare informazioni completamente inventate: interrogato sulla valutazione di una startup, l'AI ha fornito una cifra di 4 milioni di dollari, per poi indicare oltre 70 milioni di dollari alla stessa domanda formulata in modo leggermente diverso. La verifica incrociata con le fonti citate ha rivelato che nessuno dei due valori compariva effettivamente nei documenti di riferimento.
Le criticità non si limitano alle informazioni economiche. Secondo un'inchiesta recente di The Guardian, gli AI Overviews offrono consigli sanitari che risultano fuorvianti o addirittura completamente errati, un problema particolarmente grave considerando che la maggior parte degli utenti tende a fidarsi implicitamente delle risposte fornite da Google. La questione diventa ancora più delicata quando si considera il predominio del motore di ricerca, utilizzato quotidianamente da miliardi di persone per prendere decisioni su salute, finanze e altri aspetti critici della vita quotidiana.
Il fenomeno delle "allucinazioni" nei sistemi di intelligenza artificiale è ben documentato nei grandi modelli linguistici e rappresenta una sfida tecnica ancora irrisolta. Gli LLM tendono a generare informazioni plausibili ma inventate quando non dispongono di dati sufficienti o quando la formulazione della domanda crea ambiguità. L'approccio di Google di affiancare ingegneri umani per la verifica qualitativa suggerisce che l'azienda riconosce i limiti attuali dell'automazione completa in questo ambito.
Resta da vedere se l'approccio ibrido di Google, combinando automazione AI e supervisione umana, riuscirà a risolvere i problemi di accuratezza prima che emergano alternative più affidabili nel competitivo mercato dei motori di ricerca potenziati dall'intelligenza artificiale. Nel frattempo, gli utenti sono invitati a mantenere un approccio critico verificando le informazioni fornite dagli AI Overviews attraverso fonti multiple, una prassi che dovrebbe diventare standard nell'era dell'informazione generata algoritmicamente.