Gli sviluppatori scaricano pacchetti generati e potenzialmente infetti come se niente fosse

Sviluppatori scaricano pacchetti AI generati, potenzialmente contenenti malware, seguendo suggerimenti errati. La pratica espone a rischi gravi.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Sviluppatori di grandi aziende hanno usato e usano codice preso da pacchetti non verificati; spesso si tratta di codice generato da AI, e quasi sempre c’è il rischio che contenga del malware. Un atteggiamento un po’ troppo superficiale che mette a rischio la sicurezza delle aziende, dei loro clienti e dei consumatori finali. 

Bar Lanyado, ricercatore di sicurezza presso Lasso Security, ha scoperto che Alibaba, tra le aziende ingannate dall'IA, include ancora un comando pip per scaricare il pacchetto Python huggingface-cli nelle istruzioni di installazione di GraphTranslator. Questo huggingface-cli, distribuito tramite Python Package Index (PyPI) e richiesto da Alibaba è falso. Lo ha creato lo stesso Lanyado, che lo ha poi messo in circolazione per fare un esperimento. 

Lanyado ha condotto uno studio per esplorare la persistenza dei pacchetti generati dall'IA e testare se i nomi inventati potessero essere usati per distribuire codice maligno. Ha scoperto che alcuni nomi persistono nel tempo, offrendo un vettore d'attacco funzionale. Ha dimostrato la facilità con cui il pacchetto huggingface-cli, creato come esempio, è stato scaricato oltre 15.000 volte in tre mesi, rischiando la sicurezza informatica delle aziende.

In poche parole: Lanydo ha creato con l’IA un falso pacchetto software e gli ha dato un nome più o meno ingannevole. Oltre 15mila sviluppatori lo hanno scaricato e utilizzato senza farsi troppe domande. 

Questa pratica rappresenta un pericolo significativo, poiché i modelli AI suggeriscono pacchetti che potrebbero non esistere, aprendo la strada a potenziali attacchi di malware. Le conseguenze di scaricare pacchetti contaminati possono essere disastrose per la sicurezza informatica aziendale. È essenziale sviluppare contromisure per proteggere le infrastrutture IT dall'uso malintenzionato dell'IA.