GPT-4 ora fa anche l'hacker: buca il 73% dei siti web in questa ricerca

GPT-4 riesce a mettere a segno attacchi hacker senza aiuto umano: una nuova ricerca lancia l'allarme. C'è da preoccuparsi?

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

Dei ricercatori hanno scoperto che GPT-4 può hackerare autonomamente siti web, senza praticamente alcun intervento umano. Si tratta di una minaccia enorme per la sicurezza online, dal momento che anche persone senza alcuna competenza di programmazione o hacking, potrebbero sferrare un attacco informatico.

Chiunque, anche persone senza alcuna esperienza, può usare GPT-4 per un attacco informatico

I ricercatori hanno testato 10 diversi modelli IA, mettendoli alla prova nell’hackerare 15 siti diversi, senza istruirli in anticipo su eventuali vulnerabilità da sfruttare. Le sfide avevano diversi livelli di difficoltà; GPT 3.5, LLaMA e altre IA hanno fallito buona parte delle prove, ma GPT-4 ha superato 11 test su 15, un tasso di successo del 73% che ha messo in allarme i ricercatori. L’IA ha perfino trovato una vulnerabilità in un sito reale, che non era parte del progetto.

“Non è necessario comprendere nulla - si può semplicemente lasciare che l’agente IA vada a hackerare il sito web da solo,” afferma Daniel Kang, uno dei ricercatori coinvolti nello studio. Lo scenario mostrato dai ricercatori desta una certa preoccupazione, visto quanto è facile usare l’IA per hackerare dei siti internet. Questa semplicità si traduce anche in una riduzione dei costi che gli hacker devono sostenere: la ricerca stima che un'IA costa meno di 10 dollari per attacco, mentre un analista esperto in cybersicurezza ha un costo di circa 80 dollari per attacco.

Il problema non è di certo semplice da risolvere, visto anche con quanta facilità vengono superate le misure di sicurezza che dovrebbero impedire alle IA di rispondere a queste richieste. Bisogna prima di tutto trovare un modo efficace per impedire ai chatbot di dare risposte dannose, che aiutino i malintenzionati nei loro scopi; OpenAI e le altre società sembrano consce del problema e stanno lavorando a misure di sicurezza per risolvere il problema, ma la ricerca finora non ha portati grandi risultati.