L'IA diventa un'arma criminale, clona la voce per chiedere un riscatto

I malintenzionati ora usano IA per clonare voci familiari ed estorcere denaro: per fortuna con qualche piccolo accorgimento potrete evitare la truffa

Avatar di Giulia Di Venere

a cura di Giulia Di Venere

Editor

Un nuovo pericolo si sta insinuando nel mondo delle truffe, e questa volta coinvolge l'intelligenza artificiale. Questa tecnologia recentemente sviluppata permette ai truffatori di clonare le voci parenti, amici e persone care per estorcere denaro.

Le classiche truffe via email o SMS sembrano ormai datate rispetto a questa nuova, sofisticata minaccia. Immaginate di ricevere una telefonata da un numero che conoscete solo per scoprire che è un truffatore che si finge un parente in difficoltà. Questa volta distinguere la realtà dall'inganno sarà molto più difficile.

Questa tattica sfrutta le emozioni delle vittime, innescando una reazione impulsiva nel momento in cui si teme che stia accadendo qualcosa di grave a una persona cara. In questi casi, le vittime mandano il denaro richiesto senza pensarci due volte.

Questa tecnologia di clonazione vocale è sorprendentemente avanzata. Bastano solo tre secondi di registrazione della voce di un individuo per replicarla perfettamente, rendendo molto difficile distinguere una voce reale da una generata artificialmente.

Tuttavia, ci sono modi per proteggersi. É possibile per esempio stabilire una parola d'ordine con i membri della famiglia, in modo che possa essere utilizzata come verifica in caso di richieste di aiuto prima di farsi prendere dal panico. Inoltre, se si riceve una chiamata o un messaggio vocale sospetto, è sempre meglio mantenere la calma, riagganciare e contattare direttamente la persona che si suppone stia chiamando per verificarne l'autenticità. 

In un contesto in cui la tecnologia viene sfruttata in modi sempre più fantasiosi dai malintenzionati, la consapevolezza e la cautela diventano alleate importantissime nella lotta contro queste truffe sempre più sofisticate.