Lo ripetiamo allo sfinimente: l'intelligenza artificiale non rappresenta più solo un'opportunità tecnologica, ma sta ridefinendo completamente il modo in cui i responsabili della sicurezza informatica operano e si relazionano con il resto dell'organizzazione. Secondo una recente ricerca di Deloitte sui decisori della cybersecurity negli Stati Uniti, il 43% delle aziende sta già utilizzando l'IA in modo significativo nei propri programmi di sicurezza, segnando un cambiamento epocale nell'approccio alla protezione aziendale. Questo scenario sta spingendo i Chief Information Security Officer (CISO) a ripensare radicalmente le proprie strategie e strutture organizzative.
La velocità come nuovo imperativo strategico
Joe Oleksak, partner della società di consulenza Plante Moran, osserva con la prospettiva di quasi trent'anni nel settore della cybersecurity come l'AI non abbia rivoluzionato completamente le organizzazioni di sicurezza, ma le stia gradualmente trasformando. Il fattore che emerge come determinante è la velocità: l'intelligenza artificiale accelera simultaneamente sia gli attacchi che le difese, rendendo fondamentali più che mai i principi di base della sicurezza informatica.
"L'AI amplifica ogni errore", sottolinea Oleksak, riferendosi alla necessità di gestire con particolare attenzione aspetti come la gestione delle autorizzazioni, la segmentazione della rete e persino le informazioni archiviate in cartelle condivise. Le organizzazioni che hanno investito nel tempo in sicurezza stanno ottenendo efficienza integrando strumenti basati su AI nei loro processi, mentre quelle che non hanno preso sul serio la sicurezza rimangono esposte alle stesse vulnerabilità di sempre.
Il CISO al centro delle strategie aziendali
Una delle trasformazioni più significative riguarda il ruolo strategico del CISO all'interno del management aziendale. Deneen DeFiore, vice presidente e CISO di United Airlines, conferma che l'intelligenza artificiale ha elevato la cybersecurity a conversazione strategica di business, modificando sostanzialmente la sua relazione con gli altri dirigenti dell'azienda.
"Non si tratta più solo di proteggere l'infrastruttura, ma di abilitare l'innovazione in modo sicuro", spiega DeFiore, evidenziando come ora collabori più strettamente con altri executive per garantire che la sicurezza sia integrata nelle iniziative AI fin dall'inizio. Questo cambiamento è particolarmente evidente nelle aziende che hanno abbracciato un approccio di AI responsabile, dove la cybersecurity gioca un ruolo centrale nel garantire responsabilità, equità e resilienza.
Collaborazione IT-Security: nuove dinamiche operative
L'avvento dell'intelligenza artificiale sta ridefinendo anche le dinamiche di collaborazione tra i dipartimenti IT e i team di sicurezza. Jason Lander, senior vice president di Aya Healthcare, osserva come l'AI stia rimodellando i flussi di lavoro, mescolando responsabilità e ridefinendo le dinamiche di fiducia tra i team.
Le operazioni IT sono diventate più intelligenti e proattive, mentre i team di sicurezza stanno ottenendo migliore supporto operativo e maggiore visibilità. Tuttavia, Oleksak sottolinea l'importanza di mantenere distinte le prospettive: mentre l'IT si concentra su velocità ed efficienza per abilitare il business, il CISO si focalizza sulla protezione aziendale.
Jill Knesek, CISO di BlackLine e ex agente FBI specializzata in crimini informatici, conferma questa evoluzione. Pur avendo sempre lavorato a stretto contatto con l'IT, l'AI ha portato questa relazione a un livello superiore, richiedendo allineamento completo su tutte le attività a causa dei nuovi rischi e opportunità introdotti dagli strumenti di intelligenza artificiale.
Automazione e focus strategico
Sul fronte operativo, l'AI sta trasformando concretamente la natura del lavoro nei team di sicurezza. Lander descrive come gli strumenti di intelligenza artificiale permettano di automatizzare attività ripetitive, recuperare dati più velocemente e accelerare i processi decisionali, liberando tempo per sfide più strategiche.
United Airlines rappresenta un esempio di questa trasformazione: l'AI gestisce il "rumore" di fondo attraverso la classificazione degli alert, l'identificazione di anomalie e l'automazione di compiti ripetitivi, permettendo al team di sicurezza di concentrarsi su analisi strategiche, modellazione delle minacce e pianificazione della resilienza. DeFiore sottolinea come questo abbia reso le operazioni "più veloci, focalizzate e impattanti".
Sfide organizzative e culturali
L'implementazione dell'AI presenta però anche sfide significative. Knesek evidenzia la pressione che le aziende esercitano sui team di sicurezza per sviluppare rapidamente nuove capacità AI, spesso lavorando "a velocità sostenuta" in aree dove le minacce non sono ancora completamente comprese.
Oleksak enfatizza come la migliore strategia per combattere le minacce abilitate dall'AI sia spesso utilizzare difese basate su AI, ma ricorda che la tecnologia rappresenta solo una parte della soluzione. Una difesa solida inizia con formazione e cultura aziendale, educando tutti i dipendenti sia sulle capacità che sui rischi dell'intelligenza artificiale.
Con l'emergere di minacce sofisticate come i deepfake vocali capaci di imitare i dirigenti, pratiche di sicurezza tradizionali come la conferma telefonica delle istruzioni diventano più importanti che mai, dimostrando come l'innovazione debba sempre essere bilanciata con solidi principi di base.
Raccomandazioni per il futuro
Gli esperti concordano su alcuni principi fondamentali per navigare questa trasformazione. Oleksak consiglia ai CISO di non farsi "abbagliare dalla propaganda" e ricordare che l'AI è uno strumento, non una strategia. L'approccio deve essere cauto: iniziare con casi d'uso specifici come la classificazione degli alert, l'analisi dei log e il rilevamento di phishing, misurando sempre i risultati.
DeFiore raccomanda di costruire partnership precoci, specialmente con i team legali, dati e operazioni, investendo nell'educazione dell'intera organizzazione e mantenendo sempre un approccio etico. Lander conclude sottolineando come l'AI non sia semplicemente un nuovo strumento, ma un nuovo dominio che richiede governance attenta, integrazione ponderata e apprendimento continuo.