Niente ChatGPT per gli hacker, OpenAI prova a chiuderli fuori

Microsoft e OpenAI hanno lavorato per bloccare gli account di ChatGPT legati a gruppi di account finanziati da alcuni Stati.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

ChatGPT è uno strumento estremamente potente e non è certo un segreto il fatto che venga sfruttato anche dagli hacker. OpenAI si sta muovendo per limitare i malintenzionati e, nelle scorse ore, ha annunciato di aver bloccato l’accesso a ChatGPT ad hacker supportati da Iran, Corea del Nord, Cina e Russia.

OpenAI ha preso provvedimenti contro gli account specifici di questi team, sfruttando le informazioni ottenuti dal team Threat Intelligence di Microsoft, che ha effettuato analisi approfondite per scoprirli.

Secondo un report di Microsoft, questi gruppi di hacker hanno sfruttato ChatGPT per scopi malevoli, sfruttando anche il supporto degli Stati citati. In particolari, i team identificati sarebbero i seguenti:

  • Forest Blizzard (Russia): ha fatto ricerche su tecnologie satellitari e radar per operazioni militari e ottimizzato le proprie operazioni tramite scripting;
  • Emerald Sleet (Corea del Nord): ha generato contenuti di phishing mirati, sfruttando ricerche su vulnerabilità e risoluzione dei problemi;
  • Crimson Sandstorm (Iran): attivo nei campi di ingegneria sociale, risoluzione dei problemi, sviluppo di .NET e sviluppo di tecniche di evasione;
  • Charcoal Typhoon (Cina): ha assistito nello sviluppo di strumenti, scripting, comprensione degli strumenti di sicurezza informatica e generazione di contenuti per l'ingegneria sociale;
  • Salmon Typhoon (Cina): ha condotto indagini esplorative su informazioni sensibili, individui di alto profilo e sicurezza informatica.

Tutti questi gruppi hanno sfruttato ChatGPT e altri LLM per migliorare le loro capacità strategiche e operative, ma secondo il report di Microsoft, sembra che non abbiano usato le IA per sviluppare direttamente malware, o altri strumenti.

Per questo motivo, OpenAI e Microsoft credono che le azioni degli hacker siano principalmente esplorative, forse per capire le reali potenzialità dell’IA, e in ogni caso slegate dall’aumento di attacchi phishing visto lo scorso anno. Ovviamente le due società si impegnano a continuare il lavoro per bloccare l’accesso agli hacker a questi strumenti, per evitare che in futuro possano sfruttarli al massimo del loro potenziale e creare minacce ancor più pericolose per gli utenti.