Video palesemente razzisti, creati apparentemente con il nuovo e potente strumento di generazione video tramite intelligenza artificiale di Google, Veo 3, hanno accumulato milioni di visualizzazioni su TikTok, esponendo le fragilità dei sistemi di controllo dei contenuti e innescando un acceso dibattito sulla responsabilità delle Big Tech. A lanciare l'allarme è stata l'organizzazione no-profit di monitoraggio dei media Media Matters, che ha scoperto una serie di filmati intrisi di stereotipi e tropi razzisti, in particolare contro le persone di colore.
Secondo il rapporto di Media Matters, uno di questi video ha raggiunto la sbalorditiva cifra di 14,2 milioni di visualizzazioni. L'identificazione dello strumento utilizzato per la loro creazione è stata possibile grazie alla filigrana "Veo" presente in un angolo dei filmati. Inoltre, molti utenti hanno utilizzato hashtag, didascalie o nomi utente che facevano esplicito riferimento a Veo 3 o all'intelligenza artificiale. Le clip, della durata di otto secondi – o composti da più segmenti di tale durata – corrispondono al limite massimo di generazione di Veo 3, lanciato da Google solo lo scorso maggio in USA e oggi arrivato in Italia.
Il nuovo generatore AI di Google promette di trasformare semplici input testuali in video e audio di alta qualità. Sul proprio sito web, l'azienda di Mountain View assicura di "bloccare richieste e risultati dannosi". Eppure, i contenuti emersi dimostrano una palese elusione di queste barriere. La natura dei video è allarmante: non si tratta solo di contenuti offensivi, ma anche di materiale che perpetua narrazioni d'odio, comprese rappresentazioni antisemite e caricature razziste di immigrati e persone di origine asiatica.
La viralità di questi contenuti su TikTok mette in discussione anche l'efficacia delle policy della piattaforma stessa. Le regole di TikTok affermano chiaramente che "i discorsi e i comportamenti che incitano all'odio non hanno posto su TikTok" e che la piattaforma "non raccomanderà contenuti che contengono stereotipi negativi su una persona o un gruppo con un attributo protetto".
In risposta alle scoperte di Media Matters, un portavoce di TikTok, Ariane de Selliers, ha dichiarato a The Verge:
"Applichiamo in modo proattivo regole solide contro i discorsi e i comportamenti che incitano all'odio e abbiamo rimosso gli account che abbiamo identificato nel rapporto, molti dei quali erano già stati banditi prima della sua pubblicazione".
Tuttavia, il problema non sembra essere confinato a una sola piattaforma. Un'indagine ha rivelato che alcuni dei video segnalati da Media Matters erano presenti anche su YouTube, sebbene con un numero di visualizzazioni inferiore. La rivista Wired ha ulteriormente ampliato il quadro, scoprendo video simili, sempre generati da AI e a sfondo razzista, anche su Instagram. Questo fenomeno trasversale evidenzia una falla sistemica nell'ecosistema dei social media, dove i contenuti dannosi, una volta creati, possono propagarsi rapidamente su diverse piattaforme prima che vengano prese misure adeguate.
La vicenda solleva un quesito fondamentale: siamo davvero sorpresi? L'avvento di strumenti di intelligenza artificiale generativa sempre più sofisticati e accessibili ha da tempo fatto suonare i campanelli d'allarme tra esperti di tecnologia ed etica. La capacità di creare deepfake, diffondere disinformazione su larga scala e automatizzare la produzione di propaganda d'odio è un rischio noto. Le aziende tecnologiche, da parte loro, si trovano in un difficile equilibrio tra l'innovazione e la responsabilità di prevenire abusi.
Google, dal canto suo, ha implementato misure come il watermarking invisibile (SynthID) per tracciare l'origine dei contenuti AI. Tuttavia, l'efficacia di tali strumenti dipende dalla loro adozione e dalla capacità delle piattaforme di rilevarli e agire di conseguenza. La facilità con cui questi video sono stati creati e diffusi suggerisce che le attuali barriere di sicurezza sono ancora insufficienti o facilmente aggirabili.