Sam Altman, amministratore delegato di OpenAI, la startup di intelligenza artificiale valutata 300 miliardi di dollari, ha lanciato un monito particolarmente allarmante durante la Regulatory Capital Framework Conference della Federal Reserve tenutasi a Washington. Il dirigente ha definito "terrificante" la pratica ancora adottata da alcune istituzioni finanziarie di utilizzare l'impronta vocale come metodo di autenticazione per autorizzare movimenti di denaro significativi. Un metodo che è facilmente aggirabile tramite l'AI.
La tecnologia di clonazione vocale basata su AI è oggi in grado di replicare perfettamente la voce di una persona in appena tre secondi, aprendo la strada a truffe sofisticate che potrebbero svuotare conti correnti in pochi minuti. "È una cosa folle continuare a farlo", ha dichiarato Altman, sottolineando come l'intelligenza artificiale abbia "completamente sconfitto" molti dei metodi attualmente utilizzati dalle istituzioni finanziarie per confermare l'identità dei clienti.
Va sottolineato che non tutte le banche del mondo usano l'impronta vocale, è che anzi in molti casi - vale per le banche italiane ed europee - si adottano già sistemi di sicurezza più solidi. Tuttavia il problema resta: l'AI è uno strumento potente per superare i controlli di sicurezza, e non è una questione di "se" ma di "quando" le protezioni attuali diventeranno inadeguate.
L'incubo di una crisi finanziaria orchestrata dall'AI
Altman ha rivelato quale sia il suo timore più profondo: una crisi finanziaria diffusa in cui un avversario utilizzi l'intelligenza artificiale per lanciare un attacco coordinato contro gli Stati Uniti. Secondo il CEO di OpenAI, un attore malintenzionato potrebbe "penetrare nei sistemi finanziari e rubare il denaro di tutti", lasciando le istituzioni praticamente impotenti di fronte a un'AI più intelligente delle misure protettive attualmente in uso.
Questa preoccupazione non è isolata nel panorama finanziario. Un sondaggio condotto dalla società di consulenza Accenture e pubblicato a marzo ha rivelato che l'80% dei responsabili della cybersecurity bancaria ritiene che l'intelligenza artificiale permetta ai criminali di lanciare attacchi più velocemente di quanto le banche riescano a rispondere. La velocità di evoluzione delle truffe basate su AI sta quindi superando la capacità di reazione degli istituti finanziari.
I numeri di una minaccia in crescita
Le statistiche della Federal Trade Commission dipingono un quadro allarmante: nel 2024 i consumatori americani hanno denunciato perdite superiori a 12,5 miliardi di dollari a causa di truffe, registrando un aumento del 25% rispetto all'anno precedente. Particolarmente significativo è il dato relativo alle truffe di impersonificazione, che hanno causato perdite per 2,95 miliardi di dollari, evidenziando come i criminali stiano sfruttando sempre più sofisticatamente le tecnologie di imitazione vocale e visiva.
La crescita esponenziale di questi crimini digitali sta costringendo l'intero settore bancario a una trasformazione accelerata. Come ha osservato Altman, "le persone dovranno cambiare il modo in cui interagiscono e dovranno modificare i loro metodi di verifica. Si tratta di una questione enorme".
Tra minacce e opportunità
Nonostante i timori espressi riguardo ai potenziali abusi, alcuni dirigenti di OpenAI mantengono una visione ottimistica sul potere trasformativo positivo dell'intelligenza artificiale. La tecnologia, secondo questa prospettiva, potrebbe contribuire all'eradicazione di malattie e supportare iniziative per la parità salariale, dimostrando come lo stesso strumento possa essere utilizzato per scopi diametralmente opposti.
La sfida per le istituzioni finanziarie diventa quindi duplice: da una parte proteggere i propri clienti da minacce sempre più sofisticate, dall'altra sfruttare le potenzialità dell'AI per migliorare i servizi offerti. Questa trasformazione del settore richiederà investimenti significativi in nuove tecnologie di sicurezza e una completa revisione dei protocolli di autenticazione attualmente in uso.