Il panorama delle minacce informatiche si evolve a velocità vertiginosa, e gli attori sponsorizzati da stati nazionali hanno ormai integrato l'intelligenza artificiale generativa nelle loro operazioni offensive. Secondo un rapporto del Google Threat Intelligence Group (GTIG), gruppi APT provenienti da Cina, Iran, Corea del Nord e Russia stanno sfruttando sistematicamente il modello Gemini AI per potenziare ogni fase delle loro campagne: dalla ricognizione iniziale alla creazione di esche per phishing, dallo sviluppo di infrastrutture di comando e controllo fino all'esfiltrazione dei dati compromessi.
I ricercatori di Google hanno documentato casi particolarmente sofisticati da parte di attori cinesi, tra cui APT31 e Temp.HEX, che hanno utilizzato Gemini impersonando esperti di cybersecurity per automatizzare l'analisi delle vulnerabilità. In uno scenario costruito ad arte, questi gruppi hanno indirizzato il modello a esaminare tecniche di Remote Code Execution (RCE), bypass dei Web Application Firewall e test di SQL injection contro obiettivi statunitensi specifici. La strategia prevede la creazione di scenari fittizi per aggirare i meccanismi di sicurezza dell'AI, ottenendo piani di testing mirati e analisi dettagliate delle superfici di attacco.
Un altro gruppo cinese ha impiegato massicciamente Gemini come assistente tecnico per debug del codice malevolo, ricerca di capacità tecniche avanzate e consulenza su metodologie di intrusione. Parallelamente, APT42, attore iraniano noto per campagne di social engineering, ha sfruttato il modello linguistico come piattaforma di sviluppo accelerato per strumenti personalizzati, dalla generazione automatica di codice alla ricerca di tecniche di exploitation, passando per il debugging di payload malevoli.
Il GTIG ha identificato due famiglie di malware che testimoniano questa integrazione AI-nativa: HonestCue e CoinBait. Il primo, osservato alla fine del 2025, costituisce un framework di malware che sfrutta l'API di Gemini per generare codice C# per payload di secondo stadio, che vengono poi compilati ed eseguiti in memoria senza mai toccare il disco. Questa tecnica fileless rappresenta una sfida significativa per le soluzioni di sicurezza tradizionali basate su firme.
CoinBait, invece, si presenta come un kit di phishing sofisticato mascherato da exchange di criptovalute, costruito con React SPA e progettato per raccogliere credenziali. Gli artefatti nel codice sorgente suggeriscono fortemente l'uso di strumenti di generazione codice basati su AI, in particolare la piattaforma Lovable AI. Un indicatore chiave è la presenza di messaggi di logging prefissati con "Analytics:", che potrebbero paradossalmente aiutare i difensori a tracciare i processi di esfiltrazione dati.
La criminalità informatica tradizionale non resta indietro. I ricercatori hanno documentato campagne ClickFix potenziate da AI generativa che distribuiscono l'infostealer AMOS su macOS. Gli utenti vengono ingannati attraverso annunci malevoli nei risultati di ricerca relativi a problemi tecnici comuni, spingendoli a eseguire comandi dannosi mascherati da soluzioni legittime. La generazione automatica di varianti rende queste campagne particolarmente scalabili ed efficaci.
Ma le minacce non si limitano all'uso diretto dei modelli AI per scopi offensivi. Google ha rilevato tentativi sistematici di estrazione e distillazione del modello Gemini, una pratica che sfrutta l'accesso autorizzato alle API per interrogare metodicamente il sistema e riprodurne i processi decisionali. In un attacco su larga scala documentato, Gemini è stato bombardato con oltre 100.000 prompt progettati per replicare il ragionamento del modello attraverso un ampio spettro di compiti in lingue diverse dall'inglese.
Questa tecnica di "distillazione della conoscenza" consente agli attaccanti di trasferire le capacità da un modello avanzato a uno nuovo, accelerando drasticamente lo sviluppo di AI competitive a costi significativamente inferiori. Sebbene non costituisca una minaccia diretta ai dati degli utenti, rappresenta un furto di proprietà intellettuale su scala industriale che mina il modello di business dell'AI-as-a-service. Google sottolinea la scalabilità di questi attacchi e il loro potenziale impatto sui consumatori finali nel medio termine.
In risposta a questi sviluppi, Google ha disabilitato account e infrastrutture collegati agli abusi documentati, implementando difese mirate nei classificatori di Gemini per aumentare la difficoltà di sfruttamento. L'azienda ribadisce che progetta i propri sistemi AI con robuste misure di sicurezza e guardrail di protezione, sottoposti a test regolari per migliorarne continuamente sicurezza e affidabilità. Tuttavia, il rapporto evidenzia una corsa agli armamenti in piena accelerazione, dove ogni innovazione nell'AI diventa immediatamente terreno di sfruttamento per attori malevoli sempre più sofisticati.