Una recente indagine condotta tra i responsabili della cybersicurezza ha rivelato che il 62% delle aziende ha subito attacchi che sfruttano tecnologie AI contro il proprio personale, nell'ultimo anno. In particolare aumentano le false telefonate, con sistemi AI che cercando di impersonare - a volte con successo - un dirigente che ordina un pagamento o il trasferimento di informazioni riservate.
La tecnica più diffusa e insidiosa si basa infatti su chiamate audio deepfake rivolte ai dipendenti, con il 44% delle imprese che ha registrato almeno un episodio di questo tipo. La gravità del fenomeno emerge dai dati: il 6% di questi attacchi ha provocato interruzioni operative, perdite economiche o furto di proprietà intellettuale.
Chester Wisniewski, responsabile globale della sicurezza informatica di Sophos, spiega la pericolosità crescente di questa minaccia: "Con l'audio è possibile generare queste chiamate praticamente in tempo reale. Se fosse il tuo coniuge, te ne accorgeresti, ma se si tratta di un collega con cui parli occasionalmente, ormai è possibile farlo in tempo reale senza quasi nessuna pausa".
Il problema principale risiede nel fatto che la tecnologia per creare audio falsificati sta diventando troppo convincente ed economica. Tuttavia, l'implementazione di servizi di screening audio può ridurre drasticamente il tasso di perdite, facendolo scendere al 2%. Questo dato suggerisce che esistono contromisure efficaci, ma la loro adozione rimane ancora limitata nelle organizzazioni.
Non solo audio, ci sono anche i video falsificati
I deepfake video rappresentano il 36% degli attacchi registrati, con il 5% che ha causato danni significativi alle aziende colpite. Wisniewski sottolinea come realizzare un falso video in tempo reale di una persona specifica richieda investimenti milionari, rendendo questa tecnica meno accessibile rispetto all'audio. Nonostante ciò, i criminali informatici hanno sviluppato strategie creative per aggirare queste limitazioni economiche.
Un metodo particolarmente subdolo prevede l'uso di brevi video deepfake di amministratori delegati o direttori finanziari durante chiamate WhatsApp, seguiti da finti problemi di connettività che portano alla cancellazione del feed video e al passaggio alla comunicazione testuale per continuare l'attacco di ingegneria sociale. Più diffusi sono i video falsificati generici utilizzati per nascondere l'identità reale degli attaccanti piuttosto che per rubarne una specifica.
Un esempio emblematico dell'evoluzione di queste tecniche riguarda la Corea del Nord, che sta ottenendo profitti milionari infiltrando il proprio personale nelle aziende occidentali attraverso falsificazioni AI estremamente convincenti. Questi operatori riescono a ingannare anche professionisti esperti, dimostrando quanto sia avanzata la tecnologia a disposizione di attori statali malintenzionati.
Prompt injection: l'altra faccia della minaccia AI
Parallelamente ai deepfake, si sta diffondendo un'altra categoria di attacchi basati sull'intelligenza artificiale: i prompt injection attacks. Secondo l'indagine Gartner, il 32% degli intervistati ha subito questo tipo di aggressioni contro le proprie applicazioni. Questa tecnica prevede l'inserimento di istruzioni maligne all'interno di contenuti elaborati da sistemi AI, con l'obiettivo di ingannare il sistema e fargli rivelare informazioni sensibili o utilizzare impropriamente strumenti collegati.
I ricercatori hanno già documentato casi in cui chatbot come Gemini di Google sono stati utilizzati per colpire le email degli utenti e persino i sistemi domotici. Anche Claude di Anthropic ha mostrato vulnerabilità simili, mentre ChatGPT è stato indotto a risolvere CAPTCHA progettati per distinguere macchine e operatori umani, o a generare traffico che potrebbe essere sfruttato per attacchi di negazione del servizio contro siti web.
L'emergere di queste nuove minacce rappresenta una sfida fondamentale per la sicurezza informatica aziendale, richiedendo un ripensamento completo delle strategie difensive tradizionali. La velocità con cui queste tecnologie si evolvono supera spesso la capacità delle organizzazioni di adattare le proprie difese, creando finestre di vulnerabilità che i criminali informatici sono pronti a sfruttare.