Individuare i contenuti creati dall'IA sarà sempre più difficile

Un esperimento di alcuni ricercatori della Copenaghen Business School ha dimostrato l'indistinguibilità tra i contenuti reali e quelli creati da IA.

Avatar di Marina Londei

a cura di Marina Londei

Editor

Con la diffusione dei modelli generativi e il loro progressivo miglioramento si pone il problema non da poco delle fake news e dei profili falsi. Fino a poco tempo fa, prima che le ultime tecnologie rivoluzionassero il mondo dell’intelligenza artificiale, non era difficile individuare profili social finti, soprattutto per la qualità dei post condivisi.

Alcuni ricercatori della Copenaghen Business School hanno valutato gli effettivi progressi dei tool generativi conducendo un esperimento in cui i partecipanti dovevano distinguere quali dei profili social proposti erano reali e quali gestiti da un’IA.

Il team ha creato un feed Twitter nel proprio ambiente di test nel quale l’oggetto di discussione dei tweet era la guerra in Ucraina. Mentre alcuni post erano stati scritti da umani, altri erano opera dell’IA, che aveva anche generato le foto profilo; per quest’ultime è stato utilizzato StyleGAN, una rete generativa sviluppata da NVIDIA, mentre per i testi è stato usato GPT-3.

I risultati dell’esperimento hanno confermato l’effettivo sviluppo dei modelli generativi: in generale i partecipanti non sono riusciti a distinguere tra gli account fake e quelli reali e, anzi, il più delle volte gli account finti sono stati percepiti più “veri” degli altri.

Uno dei profili reali è stato etichettato come falso dal 41,5% dei partecipanti, mentre solo il 10% di essi hanno riconosciuto correttamente il miglior profilo fake come un bot. Le tecnologie generative si sono evolute a tal punto da rendere difficile distinguere un profilo vero da uno falso.

Se da una parte questi progressi stupiscono in positivo, dall'altra bisogna considerare anche le possibili conseguenze negative. Chiunque ormai può creare profili falsi in poco tempo e praticamente indistinguibili da quelli veri, facilitando la diffusione del cyberbullismo, di attacchi di phishing e delle fake news. Gli stessi governi sono in grado di usare questi strumenti per manipolare l'informazione e creare un finto seguito di elettori, distorcendo la realtà.

Un semplice test come quello condotto dai ricercatori della Copenaghen Business School è bastato a mettere in luce le criticità di un uso improprio della tecnologia. Gli esseri umani presto non saranno più in grado di riconoscere un profilo reale da uno creato dall'IA; per questo sarà sempre più importante investire sullo sviluppo di strumenti automatici capaci di analizzare i contenuti condivisi sul web e individuare quelli falsi.