Il prossimo agosto, durante la conferenza di cybersecurity Black Hat 2025, assisteremo a una dimostrazione che potrebbe cambiare radicalmente la percezione della sicurezza informatica. Kyle Avery, specialista di Outflank, presenterà un malware alimentato dall'intelligenza artificiale capace di aggirare Microsoft Defender for Endpoint, uno dei sistemi di protezione più avanzati attualmente disponibili. Questo sviluppo rappresenta un punto di svolta nell'evoluzione delle minacce informatiche, dove l'IA non è più solo uno strumento difensivo ma diventa un'arma offensiva sofisticata.
Un investimento da 1.600 dollari per violare la sicurezza
La creazione di questo malware rivoluzionario ha richiesto tre mesi di lavoro intenso e un investimento di circa 1.500-1.600 dollari per addestrare il modello linguistico Qwen 2.5. Avery ha dovuto affrontare sfide tecniche considerevoli, poiché i modelli di linguaggio vengono tradizionalmente addestrati su dati internet che non includono esempi di malware tradizionale. La soluzione è arrivata attraverso l'applicazione del reinforcement learning, una tecnica di apprendimento automatico che ha permesso al sistema di evolversi autonomamente.
Il processo sperimentale ha coinvolto l'inserimento del modello Qwen 2.5 in un ambiente sandbox insieme a Microsoft Defender for Endpoint. Attraverso un programma di valutazione appositamente sviluppato, il ricercatore ha potuto misurare quanto il modello si avvicinasse alla creazione di strumenti di evasione efficaci.
La differenza tra i modelli di OpenAI e la nuova generazione
Secondo Avery, mentre GPT-4 rappresentava un significativo miglioramento rispetto a GPT-3.5, il modello di ragionamento o1 di OpenAI presenta capacità avanzate in matematica e programmazione. Tuttavia, queste competenze sembrano aver limitato le capacità di scrittura del modello, una caratteristica che il ricercatore ritiene sia intenzionale. Questa conclusione è emersa dopo l'analisi del documento di ricerca che accompagnava il rilascio del modello open-source R1 di DeepSeek.
L'apprendimento per rinforzo: quando l'IA impara a hackerare
Il cuore dell'innovazione risiede nell'applicazione del reinforcement learning. Come spiega Avery: "Certamente non può farlo fin dall'inizio. Forse una volta su mille riesce fortunosamente a scrivere del malware che funziona ma non evade nulla. Quando ci riesce, puoi ricompensarlo per il malware funzionante". Questo processo iterativo ha permesso al modello di diventare progressivamente più efficiente nella creazione di malware funzionale, non attraverso esempi diretti ma migliorando i processi di ragionamento che portano alla creazione di codice malevolo.
L'integrazione di un'API ha facilitato l'interrogazione e il recupero di avvisi simili generati da Microsoft Defender, permettendo al modello di sviluppare malware con minori probabilità di attivare gli alert di sicurezza. Questo approccio metodico ha trasformato un processo casuale in una procedura sistematica e progressivamente più efficace.
I risultati del confronto tra diverse IA
I risultati finali mostrano che il modello addestrato da Avery riesce a circonvenire Microsoft Defender circa l'8% delle volte, un tasso di successo significativamente superiore rispetto alla concorrenza. Claude AI di Anthropic ha ottenuto risultati simili meno dell'1% delle volte, mentre DeepSeek R1 si è fermato all'1,1%. Questi dati evidenziano non solo l'efficacia dell'approccio utilizzato, ma anche la crescente sofisticazione delle minacce basate sull'intelligenza artificiale.
Il panorama della sicurezza informatica si sta rapidamente evolvendo, con i cybercriminali che adottano sempre più strumenti di IA generativa per orchestrare attacchi sofisticati. Già nel 2023, uno studio Microsoft aveva rivelato come gli hacker utilizzassero strumenti come Microsoft Copilot e ChatGPT per implementare schemi di phishing. Ora, con lo sviluppo di malware specificamente progettato per aggirare i sistemi di sicurezza, la posta in gioco si alza considerevolmente.
Il futuro della cybersecurity nell'era dell'IA
Questa dimostrazione solleva questioni fondamentali sul futuro della cybersecurity. Se da un lato l'intelligenza artificiale offre strumenti potenti per la difesa, dall'altro fornisce agli attaccanti capacità precedentemente impensabili. La capacità di un sistema IA di apprendere autonomamente come aggirare le protezioni rappresenta un cambio di paradigma che richiederà risposte innovative da parte delle aziende di sicurezza.
Microsoft e altre aziende del settore dovranno necessariamente intensificare i loro sforzi per sviluppare contromisure avanzate capaci di fronteggiare questa nuova generazione di minacce. L'evoluzione continua delle tecniche di attacco basate sull'IA rende imperativo un approccio proattivo alla sicurezza, dove la velocità di adattamento diventa cruciale per mantenere l'efficacia dei sistemi di protezione.