Il panorama delle minacce informatiche sta vivendo una trasformazione radicale con l'emergere di malware capaci di sfruttare l'intelligenza artificiale per scopi criminali. I ricercatori di SentinelLabs hanno identificato quello che considerano il primo esempio conosciuto di malware potenziato da LLM (Large Language Model), battezzato MalTerminal, presentato durante la conferenza LABScon 2025. Questa scoperta segna un punto di svolta nell'evoluzione delle cyber-minacce, introducendo una complessità senza precedenti nelle tecniche di rilevamento e difesa.
La nuova frontiera del crimine informatico
A differenza dei malware tradizionali che seguono schemi di comportamento predefiniti, MalTerminal rappresenta una categoria completamente nuova di minacce. Il software malevolo è in grado di generare codice dinamicamente durante l'esecuzione, rendendo estremamente difficile la sua identificazione attraverso i metodi di rilevamento basati su firme digitali. Gli esperti di SentinelOne hanno individuato questa minaccia analizzando specifici pattern nelle chiavi API e nelle strutture dei prompt utilizzati per comunicare con i servizi di intelligenza artificiale.
Il malware sfrutta GPT-4 di OpenAI per creare ransomware o reverse shell su richiesta, incorporando un'API di chat ormai obsoleta che suggerisce una fase di sviluppo relativamente precoce. Insieme a MalTerminal, i ricercatori hanno scoperto diversi componenti Python, inclusi loader che offrono menu operativi e scanner chiamati "FalconShield" che utilizzano GPT per classificare il codice come malevolo.
L'arsenale dell'intelligenza artificiale criminale
L'indagine ha rivelato l'esistenza di altri esempi significativi di malware potenziato da LLM. PromptLock utilizza il modello gpt-oss:20b tramite l'API Ollama per generare script Lua malevoli ed eseguirli immediatamente. LAMEHUG, d'altra parte, sfrutta il modello Qwen 2.5-Coder-32B-Instruct di Alibaba attraverso l'API di Hugging Face per creare comandi basati su descrizioni testuali statiche.
Questi strumenti dimostrano capacità sofisticate nella raccolta di informazioni di sistema e nella ricerca di file Office, PDF e TXT nelle cartelle più comuni. I dati vengono inizialmente memorizzati localmente per poi essere esfiltrati attraverso protocolli SFTP o HTTP POST, mostrando un livello di organizzazione che ricorda le operazioni di spionaggio industriale più che gli attacchi casuali del passato.
La caccia alle nuove minacce
Per individuare questa nuova generazione di malware, i ricercatori hanno sviluppato tecniche innovative basate sulle dipendenze specifiche dei sistemi AI. Poiché la maggior parte degli attaccanti utilizza servizi LLM commerciali, il malware deve necessariamente incorporare chiavi identificabili e prompt strutturati. Utilizzando regole YARA specifiche per rilevare i pattern delle chiavi dei vari fornitori, il team ha analizzato oltre 7.000 campioni, scoprendo principalmente fughe di dati non malevole ma anche collegamenti a malware reali.
La metodologia ha portato alla luce una vasta gamma di strumenti offensivi che sfruttano i LLM per capacità operative diverse. Tra questi figurano agenti per la ricerca di persone che violano le politiche dei servizi commerciali, sistemi di navigazione browser per aggirare le tecnologie antibot, benchmark per red team e assistenti per test di penetrazione specificamente progettati per Kali Linux.
Vulnerabilità e opportunità difensive
Paradossalmente, la dipendenza da servizi esterni rappresenta sia il punto di forza che il tallone d'Achille di questi nuovi malware. Mentre la capacità di generare logiche malevole in tempo reale complica significativamente il rilevamento, la necessità di incorporare prompt e chiavi API rende questi strumenti particolarmente fragili se tali credenziali vengono revocate dai fornitori di servizi.
Gli esperti non hanno trovato evidenze di un utilizzo reale di questi strumenti in attacchi concreti, suggerendo che si tratti ancora di proof-of-concept o utility per red team. Tuttavia, la ricerca ha identificato numerosi utilizzi offensivi dei LLM, inclusa l'estrazione di dati sensibili dalle conoscenze di training dei modelli, la scoperta assistita di vulnerabilità nel codice e persino sistemi di controllo visuale per l'automazione di bot su dispositivi mobili.
Come sottolineano i ricercatori di SentinelLabs, sebbene l'uso di malware potenziato da LLM rimanga limitato e largamente sperimentale, questa fase iniziale di sviluppo offre ai difensori un'opportunità preziosa per imparare dagli errori degli attaccanti e adattare di conseguenza le proprie strategie difensive.