Google ammette il suo errore: troppi siti fuffa nei risultati di ricerca

Google lotta contro lo spam AI nella ricerca, penalizzando siti di bassa qualità. Mira a migliorare l'esperienza e ridurre contenuti manipolatori.

Avatar di Andrea Ferrario

a cura di Andrea Ferrario

Editor in Chief

Google ha annunciato un aggiornamento del suo algoritmo di ranking per contrastare lo spam generato dall'intelligenza artificiale, che negli ultimi tempi ha invaso i risultati di ricerca con contenuti di bassa qualità, irrilevanti o ingannevoli. L'aggiornamento mira a ridurre la visibilità dei siti web che "sono inutili, offrono una cattiva esperienza utente o sembrano essere stati creati per i motori di ricerca invece che per le persone".

Google ha spiegato che lo spam creato dall'intelligenza artificiale sfrutta le tecniche di apprendimento automatico per produrre contenuti in modo automatizzato e scalabile, con l'obiettivo di manipolare i motori di ricerca e attirare il traffico verso i propri siti. Questi contenuti possono includere siti web creati appositamente per corrispondere a query di ricerca molto specifiche, articoli copiati o riscritti da altre fonti, titoli sensazionalistici o clickbait, recensioni false o manipolate, link nascosti o ingannevoli e altri trucchi per ingannare gli utenti e i motori di ricerca.

Questo tipo di spam è aumentato molto negli ultimi anni, a causa dell'evoluzione e della diffusione delle tecnologie d'intelligenza artificiale, in particolare dei modelli di linguaggio naturale, come ChatGPT, che sono in grado di generare testi realistici e coerenti a partire da parole chiave, frasi o immagini. Google ha anche ammesso di aver contribuito a creare questo problema, in quanto è stata una delle prime aziende a sviluppare e rendere disponibili al pubblico questi modelli, con l'obiettivo di promuovere la ricerca e l'innovazione nel campo dell'IA.

Sono state adottate diverse misure per combattere lo spam creato dall’IA, tra cui il potenziamento dei suoi sistemi di rilevamento e rimozione, l'uso di segnali di qualità e reputazione dei siti web, la collaborazione con le autorità e le organizzazioni competenti, la sensibilizzazione e l'educazione degli utenti e degli sviluppatori di intelligenza artificiale, e l'applicazione delle sue linee guida per i webmaster e delle sue politiche pubblicitarie. L’obiettivo è ridurre del 40% la presenza di risultati di bassa qualità.

Questo nuovo algoritmo dovrebbe portare dei benefici ai 4,39 miliardi di utilizzatori Google (stima del 2023), e premiare i siti che offrono contenuti di qualità. Almeno questa è la speranza, dato che Google stessa e anche altri attori del mercato hanno già dichiarato, più volte, quanto sia difficile identificare contenuti creati con l’intelligenza artificiale.