In cybersecurity l'uso dell'AI è sempre più diffuso, ma viene gestita male e superficialmente, diventando così un problema più che una risorsa. Recenti ricerche svolte da IBM rivelano infatti che la maggior parte delle organizzazioni colpite da violazioni dei dati legate all'AI mancava completamente dei controlli di accesso necessari, creando quello che gli esperti definiscono un "gap di supervisione dell'AI" dalle conseguenze economiche devastanti.
Il fenomeno della "shadow AI" - ovvero l'utilizzo non autorizzato di strumenti di intelligenza artificiale basati su internet da parte dei dipendenti - rappresenta oggi una minaccia concreta per la sicurezza aziendale. In sostanza, persone che usano ChatGPT o simili tramite il browser, e inseriscono nella finestra di conversazione dati aziendali che non sarebbero dovuti uscire. A volte non succede niente, ma altre volte le conseguenze sono nefaste.
Secondo il Cost of a Data Breach Report di IBM, pubblicato a fine luglio, questo comportamento ha aggiunto in media 670.000 dollari ai costi globali delle violazioni dei dati. La ricerca evidenzia come il 63% delle organizzazioni intervistate non disponga di politiche di governance per l'AI, lasciando di fatto i propri lavoratori liberi di utilizzare strumenti non approvati.
Le conseguenze vanno ben oltre l'aspetto economico immediato. Come sottolinea l'indagine IBM, le violazioni legate all'AI generano un effetto a catena che compromette ampie porzioni di dati e causa interruzioni operative significative, impedendo alle aziende di elaborare ordini di vendita, fornire assistenza clienti e gestire le catene di approvvigionamento.
Il paradosso della difesa AI-powered
Nonostante questi rischi, l'intelligenza artificiale si sta rivelando anche la chiave per una difesa più efficace. Per la prima volta in cinque anni, i costi medi globali delle violazioni dei dati sono diminuiti, passando da 4,88 milioni di dollari a 4,44 milioni, con un calo del 9%. Il merito, secondo IBM, è da attribuire a sistemi di difesa basati sull'AI che permettono un contenimento più rapido delle violazioni: il tempo medio per identificare e contenere un attacco è sceso a 241 giorni, il valore più basso degli ultimi nove anni.
Le ricerche confermano questa tendenza: la percentuale di direttori operativi che hanno implementato strumenti di cybersicurezza basati sull'AI è balzata dal 17% di maggio dello scorso anno al 55% di agosto. Questi dirigenti stanno abbandonando approcci reattivi in favore di framework proattivi guidati dall'AI, capaci di identificare attività fraudolente, rilevare anomalie e fornire valutazioni delle minacce in tempo reale.
L'agentic AI: autonomia e responsabilità
L'evoluzione verso sistemi di AI "agentici" - che operano in modo indipendente - introduce sfide inedite per governance e compliance. Chi è responsabile se un'intelligenza artificiale identifica erroneamente un sistema critico come minaccia e lo disattiva? Cosa accade se l'AI non riesce a individuare una violazione? Come spiega Kathryn McCall, chief legal and compliance officer di Trustly, "questa non è un'evoluzione tecnica; è una rivoluzione della governance".
Il dato più allarmante rimane tuttavia quello emerso dal rapporto IBM: il 97% delle organizzazioni che hanno subito incidenti di sicurezza legati all'AI ammette di non aver avuto controlli di accesso adeguati. Una percentuale che fotografa l'urgenza di sviluppare framework normativi e operativi all'altezza delle sfide poste dall'intelligenza artificiale nel contesto della sicurezza digitale.