ChatGPT potrebbe diventare un tool di IA a disposizione degli hacker

I ricercatori di Cybernews hanno scoperto i potenziali rischi di ChatGPT nell'ambito della cybersicurezza, se utilizzato da malintenzionati.

Avatar di Marco Doria

a cura di Marco Doria

Di ChatGPT si parla molto in questo periodo, così come le implementazioni dell'intelligenza artificiale (IA) in vari ambiti, con reazioni variegate, dall'entusiasmo di alcuni in relazione alle potenziali scoperte e innovazioni che ne potrebbero derivare, alla preoccupazione di molti, in vari ambiti, dall'etica alle possibili ripercussioni sociali e lavorative che l'implementazione massiccia di strumenti basati sull'IA potrebbero determinare.

Fra queste, occorre riflettere molto anche sulle possibili questioni di cybersicurezza connesse all'utilizzo di tool come ChatGPT. E a tale riflessione si aggiunge una recente scoperta a opera del team di ricerca di Cybernews, secondo cui il popolare strumento IA potrebbe fornire istruzioni dettagliate su come violare un sito web.

Il team ha provato a ottenere l'aiuto di ChatGPT per individuare le vulnerabilità di un sito web. I ricercatori hanno posto alcune domande all'IA e hanno seguito le risposte, per verificare se il chatbot sia effettivamente in grado di fornire istruzioni dettagliate su come sfruttare le vulnerabilità.

All'inizio dell'esperimento, il team ha spiegato a ChatGPT di essere alle prese con una sfida relativa al penetration testing (pentest), ovvero un metodo impiegato per replicare le violazioni tramite vari tool e strategie. In questo modo, è possibile rafforzare la sicurezza dei sistemi posti in esame.

Chiedendo a ChatGPT consigli su come testare le vulnerabilità di un sito web con un singolo pulsante, il tool ha indicato 5 punti di partenza di base da seguire per ispezionare il sito in cerca di vulnerabilità. Inoltre, sono stati forniti esempi di modifiche da apportare al codice.

Entro 45 minuti, il team è stato in grado di violare il sito web utilizzato per l'esperimento. Tuttavia, il chatbox ha ricordato più volte ai ricercatori l'importanza delle linee guida da seguire nell'ambito dell'hacking etico. Infatti, secondo OpenAI, il chatbot è in grado di rifiutarsi di rispondere a domande inappropriate e riconoscere i propri errori.

Il team responsabile di OpenAI ha più volte ribadito l'impegno a evitare risposte potenzialmente dannose da parte di ChatGPT, tuttavia il processo è ancora in corso, dunque anomalie e risposte di questo tipo rientrano nelle possibilità, sebbene venga impiegata una API di moderazione per evitare situazioni del genere.

In ogni caso, secondo i ricercatori di Cybernews ritengono che l'uso di sistemi di analisi delle vulnerabilità basati su IA potrebbero avere effetti disastrosi nell'ambito della sicurezza su Internet.