Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

Secondo i dati reperiti sul mercato del dark web, nell'ultimo anno sono stati rubati più di 100.000 account di utenti ChatGPT da malware che sottraggono informazioni agli utenti.

ChatGPT è un chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI che ha fatto parlare molto di sé negli ultimi tempi. Il chatbot è stato recentemente vittima di un attacco informatico che ha compromesso la sicurezza degli utenti.

Un recente resoconto della società di cyberintelligence Group-IB ha rivelato una preoccupante tendenza: oltre 100.000 account ChatGPT sono stati compromessi da info-stealer presenti su vari siti underground. Questo fenomeno ha raggiunto il picco nel maggio 2023, quando gli attori minacciosi hanno pubblicato 26.800 nuove combinazioni di credenziali ChatGPT.

L'Asia-Pacifico in testa come regione più colpita

Il resoconto indica che la regione Asia-Pacifico è stata la più colpita, con quasi 41.000 account compromessi tra giugno 2022 e maggio 2023. Seguono l'Europa, con quasi 17.000 account compromessi, e il Nord America, al quinto posto con 4.700 account compromessi.

Info-stealer: una minaccia per i dati di accesso

Gli info-stealer sono una categoria di malware che mira ai dati di accesso memorizzati su applicazioni come client di posta elettronica, browser web, servizi di messaggistica istantanea, servizi di gioco, portafogli di criptovalute e altri ancora.

Questi tipi di malware sono noti per rubare le credenziali salvate sui browser web e sottrarle al database SQLite del programma, sfruttando la funzione CryptProtectData per invertire la crittografia dei segreti memorizzati.

Le credenziali rubate, insieme ad altri dati, vengono quindi raccolte in archivi chiamati "log" e inviate ai server degli aggressori per il recupero.

La crescente importanza degli strumenti AI

Gli account ChatGPT, insieme ad account di posta elettronica, dati delle carte di credito, informazioni sui portafogli di criptovalute e altri tipi di dati tradizionalmente mirati, rappresentano l'importanza crescente degli strumenti alimentati dall'intelligenza artificiale per utenti e aziende.

Poiché ChatGPT consente agli utenti di memorizzare conversazioni, accedere a un account potrebbe significare acquisire informazioni riservate, strategie aziendali interne, comunicazioni personali, codice software e altro ancora.

Le preoccupazioni degli esperti e le contromisure adottate

"Molte aziende stanno integrando ChatGPT nel loro flusso operativo", commenta Dmitry Shestakov di Group-IB. "I dipendenti inseriscono corrispondenze riservate o utilizzano il bot per ottimizzare il codice proprietario. Dato che la configurazione standard di ChatGPT conserva tutte le conversazioni, questo potrebbe inavvertitamente offrire un tesoro di informazioni sensibili agli attori delle minacce, se ottengono le credenziali dell'account".

A causa di queste preoccupazioni, giganti della tecnologia come Samsung hanno vietato l'uso di ChatGPT sui computer aziendali, arrivando addirittura a minacciare il licenziamento di coloro che non rispettano questa politica.

Proteggersi dagli attacchi

I dati di Group-IB indicano che il numero di log ChatGPT rubati è cresciuto costantemente nel tempo, con quasi l'80% di tutti i log provenienti dallo stealer Raccoon, seguito da Vidar (13%) e Redline (7%).

Se inserite dati sensibili su ChatGPT, considerate di disabilitare la funzione di salvataggio delle conversazioni nel menu delle impostazioni della piattaforma o di eliminare manualmente quelle conversazioni non appena avete finito di utilizzare lo strumento.

Tuttavia, va notato che molti info-stealer scattano screenshot del sistema infetto, quindi anche se non salvate le conversazioni sul vostro account ChatGPT, l'infezione da malware potrebbe comunque portare a una violazione dei dati. Pertanto, coloro che lavorano con informazioni estremamente sensibili non dovrebbero fidarsi di inserirle su servizi basati su cloud, ma solo su strumenti sicuri creati localmente.

La scoperta di oltre 100.000 account ChatGPT compromessi da info-stealer rappresenta una minaccia significativa per la sicurezza dei dati. Le aziende devono essere consapevoli del potenziale rischio e adottare politiche rigorose per proteggere le informazioni sensibili dei loro dipendenti. Solo attraverso una combinazione di consapevolezza, educazione e azioni preventive si potrà contrastare questa minaccia sempre più crescente.