Quel video è vero o falso? Non riuscire più a capirlo è un problema serio

un gruppo di utenti ha riscontrato parecchia difficoltà nel distinguere i video registrati da esseri umani rispetto a quelli generati da Sora

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Negli Stati Uniti, un gruppo di utenti ha riscontrato parecchia difficoltà nel distinguere i video registrati da esseri umani, rispetto a quelli generati tramite lo strumento di OpenAI noto come Sora, almeno secondo dei recenti dati di HarrisX forniti in esclusiva a Variety.

Un sondaggio, condotto poche settimane dopo la presentazione del controverso software, ha rivelato che la maggior parte degli adulti statunitensi ha commesso diversi errori nel distinguere se i video fossero stati creati dall'intelligenza artificiale o da persone reali, con una percentuale che presenta cinque risposte errate su otto.

Tra questi video, vi erano le dimostrazioni di Sora che hanno attirato l'attenzione online alla sua presentazione, suscitando preoccupazioni sia a Hollywood che al Congresso a causa della loro elevata qualità e somiglianza a filmati reali.

Alcuni dei video mostravano una vista aerea delle onde che si infrangono sulle scogliere selvagge di Garay Point Beach a Big Sur e filmati storici della California durante la corsa all'oro.

Tutti video che mostravano dei piccoli dettagli errati (quali cavalli che scompaiono, braccia con angolazioni irreali o elementi distorti) ma si tratta di aspetti così difficili da scorgere con una visione fugace che solo una visione più attenta li fa emergere. 

Il sondaggio di HarrisX ha anche rivelato che la maggior parte dei partecipanti ritiene che il governo degli Stati Uniti dovrebbe introdurre regolamentazioni che richiedano l'etichettatura dei contenuti generati da intelligenza artificiale.

Questo desiderio di regolamentazione è stato espresso in modo deciso per tutti i formati di contenuto, tra cui video, immagini, testi, musica, didascalie e suoni, onde evitare usi impropri o potenzialmente dannosi.

Il sondaggio, condotto online tra l'1 e il 4 marzo su oltre 1.000 adulti, ha coinvolto la visualizzazione di quattro video generati da Sora con un aspetto fotorealistico di alta qualità e quattro video reali ripresi da una telecamera. Nel caso di un video di Big Sur, il 60% degli intervistati ha erroneamente ritenuto che fosse stato creato da un essere umano.

Sebbene Sora non sia ancora stato pubblicamente rilasciato, ha già sollevato preoccupazioni, soprattutto nell'industria dell'intrattenimento, dove la rapida evoluzione della tecnologia di diffusione video potrebbe avere profonde implicazioni per la produzione cinematografica tradizionale, nonostante le probabili limitazioni iniziali del software.

Il sondaggio ha anche sollevato questioni più ampie riguardo al potenziale dei video deepfake, generati tramite intelligenza artificiale, specialmente in un anno di elezioni.

Quando i partecipanti sono stati informati che i video erano stati generati da Sora, le reazioni sono state varie, con alcune persone che si sono mostrate curiose (28%), incerte (27%) e sorprese dal nuovo (25%), mentre altri si sono sentiti ansiosi (18%), ispirati a provare anche loro (18%) e spaventati dal realismo dei video (2%).

Dritan Nesho, CEO e capo della ricerca di HarrisX, ha commentato che il rapido cambiamento introdotto dalla tecnologia generativa dell'IA sta suscitando preoccupazioni, sottolineando la necessità di definire linee guida e comunicare in modo adeguato con il pubblico per mitigare tali preoccupazioni.