Il dibattito sulla proliferazione dei contenuti generati dall'intelligenza artificiale ha raggiunto un punto di svolta inaspettato. Secondo un recente studio condotto dall'organizzazione di ricerca Five Percent, i testi prodotti da sistemi di machine learning hanno effettivamente superato per volume quelli scritti da esseri umani sul web, ma il fenomeno mostra segnali di stabilizzazione che potrebbero cambiare le previsioni più catastrofiche sul futuro del giornalismo e della produzione di contenuti digitali. L'analisi, che ha esaminato pubblicazioni online dal gennaio 2020 al maggio 2025, rivela dinamiche più complesse di quanto ci si potesse aspettare.
La ricerca documenta come il sorpasso dell'IA sia avvenuto verso la fine del 2024, quando per la prima volta i contenuti generati automaticamente hanno superato numericamente quelli prodotti da autori in carne e ossa. Tuttavia, l'elemento più interessante emerge dai dati successivi: la crescita esponenziale di questo materiale artificiale sembra essersi arrestata, mostrando una tendenza al plateau negli ultimi dodici mesi. In realtà, i segnali di rallentamento nella produzione di contenuti IA erano già visibili intorno alla metà del 2023, suggerendo che l'entusiasmo iniziale per questi strumenti potrebbe aver incontrato ostacoli concreti.
Gli autori dello studio propongono una spiegazione che riguarda direttamente l'efficacia di questi contenuti nel raggiungere il pubblico. La teoria è che gli articoli generati dall'intelligenza artificiale non ottengano buoni risultati nei motori di ricerca, come dimostrato da ricerche parallele. In sostanza, Google sembrerebbe essere riuscito almeno parzialmente nel suo intento di filtrare quella che viene comunemente definita "AI slop", ovvero contenuti di bassa qualità prodotti in massa da algoritmi. Questa scoperta rappresenterebbe un incentivo economico concreto per gli editori a continuare a investire in redattori umani, nonostante i costi più elevati.
La metodologia utilizzata solleva però questioni importanti sulla precisione delle rilevazioni. Five Percent ha impiegato un singolo algoritmo di rilevamento, quello gratuito offerto da Surfer, per identificare i contenuti generati artificialmente. Per validare questo approccio, i ricercatori hanno testato lo strumento su 15.000 articoli pubblicati tra il 2020 e il 2022, quando si può ragionevolmente presumere che la quasi totalità dei testi fosse opera umana. Il risultato ha mostrato un tasso di falsi positivi del 4,2%, una cifra relativamente contenuta ma non trascurabile.
Per quanto riguarda i falsi negativi, ovvero contenuti IA non riconosciuti come tali, il team ha generato 6.009 articoli utilizzando GPT-4o di OpenAI e li ha sottoposti all'analisi di Surfer. L'algoritmo ha correttamente identificato il 99,4% di questi testi come prodotti artificialmente. Tuttavia, rimane una variabile critica: i prompt utilizzati per generare gli articoli di test non possono replicare l'enorme varietà di istruzioni che vengono utilizzate nella realtà quotidiana della produzione di contenuti web.
Questa limitazione metodologica apre a un'interpretazione alternativa dei risultati. È possibile che il miglioramento qualitativo dei sistemi di IA abbia reso i contenuti generati più difficili da distinguere da quelli umani, contribuendo così all'apparente plateau rilevato nello studio. In altre parole, potremmo trovarci di fronte non a una riduzione della produzione di materiale artificiale, ma a una sua evoluzione verso forme meno riconoscibili. La questione rimane aperta e richiederebbe strumenti di analisi più sofisticati per essere definitivamente chiarita.
Dal punto di vista di chi lavora quotidianamente nella produzione di contenuti, la minaccia dell'IA non si è ancora materializzata concretamente nelle redazioni. Lo studio di Five Percent offre almeno una ragione per essere moderatamente ottimisti: la direzione non è necessariamente univoca e inevitabile verso la completa automazione. L'equilibrio tra contenuti umani e artificiali potrebbe stabilizzarsi su parametri diversi da quelli temuti inizialmente, con i motori di ricerca che fungono da filtro naturale a favore della qualità.