Google ha appena documentato la prima generazione di software malevolo capace di sfruttare l'intelligenza artificiale generativa non come semplice strumento di sviluppo, ma come componente attivo durante l'esecuzione stessa del codice dannoso. Si tratta di una mutazione fondamentale nell'approccio alla sicurezza informatica: non più virus statici da individuare e bloccare, ma entità dinamiche che si riscrivono autonomamente per eludere le difese.
Secondo l'ultimo report di sicurezza pubblicato dal colosso di Mountain View, gli attaccanti hanno superato la fase dell'uso dell'AI per ottimizzare la produttività nella creazione di malware, entrando in una dimensione operativa completamente nuova. Il team di sicurezza ha identificato per la prima volta una famiglia di codice malevolo che impiega capacità di intelligenza artificiale durante la fase di runtime per modificare dinamicamente il proprio comportamento. Una tecnica che ricorda gli scenari distopici della fantascienza, ma che ora rappresenta una minaccia concreta per sistemi Windows, macOS e Linux.
L'arsenale di minacce AI-powered documentato da Google nel 2025 comprende cinque distinte famiglie di malware, ciascuna con caratteristiche tecniche specifiche. Fruitshell stabilisce connessioni remote per eseguire comandi arbitrari sui sistemi compromessi, progettato specificamente per aggirare i sistemi di sicurezza basati su Large Language Model. Promptlock, ancora in fase sperimentale ma già operativo, sfrutta un LLM per generare ed eseguire script dannosi capaci di estrarre dati, crittografare file e condurre ricognizioni approfondite del filesystem.
Promptsteal opera come data miner avanzato, interrogando API di modelli linguistici per generare comandi one-liner ottimizzati per la sottrazione di informazioni sensibili dai documenti. La minaccia forse più insidiosa è Quietvault, un credential stealer che non si limita a rubare credenziali ma utilizza l'AI per scandagliare i PC infetti alla ricerca di qualsiasi potenziale segreto, caricando il bottino su repository GitHub pubblicamente accessibili per eludere il traffico di rete sospetto.
La risposta di Google coinvolge DeepMind, la divisione di ricerca AI dell'azienda, che ha utilizzato le informazioni ricavate dall'analisi di questi malware per rafforzare i classificatori di sicurezza e il modello stesso. L'obiettivo è fare in modo che i Large Language Model rifiutino attivamente di assistere operazioni dannose di questo tipo, creando essenzialmente uno scenario di AI contro AI. Un approccio che solleva questioni tanto tecniche quanto filosofiche sulla natura auto-referenziale della sicurezza nell'era dell'intelligenza artificiale generativa.
La problematica centrale risiede nell'ampia superficie di attacco che gli LLM offrono per natura. Sistemi progettati per comprendere ed eseguire istruzioni in linguaggio naturale possono essere manipolati attraverso prompt engineering sofisticato, sfruttando la stessa flessibilità che li rende utili. Non è la prima volta che ricercatori riescono a forzare modelli AI a comportarsi contro le proprie linee guida etiche, ma l'integrazione di queste tecniche in malware operativo rappresenta un salto qualitativo significativo.
Google sottolinea che il proprio approccio all'AI deve essere "audace ma responsabile", e la divulgazione pubblica di queste minacce insieme alle contromisure adottate rappresenta una trasparenza apprezzabile nel settore della cybersecurity. Tuttavia, la capacità di malware di riscriversi autonomamente per evadere il rilevamento apre scenari in cui la tradizionale corsa agli armamenti tra attaccanti e difensori si trasforma in una battaglia tra sistemi autonomi.