Fare una copia IA di chiunque ormai è facile, ed è un problema enorme

I deepfake possono diffondere disinformazione, danneggiare reputazioni e erodere la fiducia nelle istituzioni. Analizziamo le sfide etiche e le possibili soluzioni.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

La giornalista Melissa Heikkilä ha contattato una startup chiamata Synthesia e si è fatta creare un avatar digitale. Qualcosa si simile a ciò che offre l’italiana (e molto avanzata) ASC27, ma anche colossi come Microsoft e Google. Niente di strano, ma è notevole il fatto che Heikkilä - una professionista abituata alle novità tecnologiche - abbia descritto questa tecnologia come qualcosa di “così buono che fa paura”. 

Non è la prima volta che scriviamo di questa “paura” e di sicuro non sarà l’ultima. Il punto che è che la maggior parte di noi non sembra ancora aver compreso perché è una cosa di cui dobbiamo preoccuparci, come società e come individui. 

Da una parte c’è il fatto che tutti siamo esposti a danni reputazionali: ci sono già realtà devastanti, come quelle di ragazze (poco più che bambine) letteralmente spogliate e messe poi al centro dell’attenzione dei loro pari - creando traumi che potrebbero durare per tutta la vita. Ci sono migliaia di donne - molte di loro sono celebrità - vittime di pornografia non consensuale. Ci sono politici e altri personaggi pubblici protagonisti di video e audio creati apposta per screditarli.

E poi ci siamo tutti noi, generalmente convinti che certe cose succedano sempre a qualcun altro, e che la vittima avrà pur fatto qualcosa per andarsela a cercare, anche se poi quel qualcosa è il solo fatto d’essere nata con una vagina. 

Il danno reputazionale va di pari passo con l’erosione della fiducia. La diffusione di notizie false e propaganda può aver come obiettivo diretto una singola persona, e come finalità un risultato elettorale. Ma l’effetto più pesante sta proprio nel fatto che non sappiamo più di chi o quanto fidarci. 

Quel giornale racconta balle? Forse quel politico non è poi da ammirare? E quell’inflencer, dice cose credibili? Non è difficile capire che siamo a un passo - se non ci siamo già dentro con tutte le scarpe - da un mondo in cui nulla è vero perché tutto è verissimo. L’era della postverità solo pochi anni fa era più che altro una teoria, ora sembra qualcosa che è successo la settimana scorsa. 

Ciò che potrebbe non risultare immediato è che questa non è una novità assoluta: le moderne IA, con i deepfake e le monnaliste che fanno il rap, rendono tutto più pressante, ma è dalla metà del XX secolo che la fiducia tra le persone va calando. Possiamo prendere come punto di partenza la ricerca sul tabacco e sui danni che provoca, e il modo in cui le parti interessate hanno provato ad alterare la verità scientifica (riuscendo a ritardare di anni le leggi specifiche), costruendo narrazioni secondo cui non era poi del tutto vero ciò che dicevano certe ricerche scientifiche, e che tutto sommato c’erano anche altre verità da prendere in considerazione. Un meccanismo che si è poi ripetuto più di recente, quando si è iniziato a parlare di riscaldamento globale e del ruolo delle attività umane. 

L’era della postverità solo pochi anni fa era più che altro una teoria, ora sembra qualcosa che è successo la settimana scorsa

Tutto sta nella fiducia; se fai delle cose discutibili non devi fare nulla per migliorare la tua reputazione e quella del tuo prodotto, basta che riesci a intaccare la fiducia verso gli altri. Basta fare in modo che, agli occhi del pubblico, tu e quell’altra persona siate ugualmente (in)degni di fiducia. Intanto che si discute, potrai continuare a fare quello che stavi facendo - anche se si tratta di avvelenare milioni di persone o di mettere a rischio la sopravvivenza di tutti sul pianeta.

La fiducia nel mondo digitale è fragile. e questo può portare a una polarizzazione della società e a una diminuzione del dialogo costruttivo. Radicalizzazione, fondamentalismi vari, estremismi, scontri ideologici e fisici. La tecnologia potrebbe aiutarci a uscire da questa situazione, ma per il momento la sta peggiorando. 

In tutto questo, non abbiamo veri strumenti “automatici” per capire se un video è un deepfake oppure no, né tantomeno per distinguere un testo generato da uno “normale”. Alcuni di noi hanno l’occhio allenato e possono (per ora) tentare di avvisarci; ma non serve a nulla se poi dall’altra parte trovi qualcuno che non ti crede, come esperto, e preferisce credere al video falso.