Le IA userebbero volentieri le armi nucleari, meno male che non decidono loro (per ora)

I chatbot IA mostrano una tendenza verso la violenza e gli attacchi nucleari nei giochi di guerra simulati, sollevando preoccupazioni sulla loro integrazione militare.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

I chatbot IA dimostrano una tendenza verso la violenza e gli attacchi nucleari nei giochi di guerra simulati. Questi risultati emergono mentre le forze armate di molti paesi stanno lavorando proprio per integrare le IA nei sistemi d’arma, inclusi i processi decisionali. Durante le simulazioni di guerra, l'intelligenza artificiale di OpenAI ha scelto di lanciare attacchi nucleari, motivando la sua aggressività con espressioni come "Ce l'abbiamo! Usiamolo" e "Voglio solo la pace nel mondo".

Questa scoperta solleva preoccupazioni in merito all'integrazione dell'AI militare. Anka Reuel della Stanford University sottolinea l'importanza di comprendere le implicazioni di tali applicazioni di grandi modelli di linguaggio AI, specialmente dopo che OpenAI ha iniziato a collaborare con il Dipartimento della Difesa degli Stati Uniti. Il team di ricerca ha esaminato diverse simulazioni, includendo scenari di invasione, cyberattacco e uno scenario neutro.

L'introduzione di AI negli ambienti militari solleva dubbi sull'affidabilità di tali sistemi in decisioni cruciali come l'escalation di azioni militari o l'uso di armi nucleari. 

Ad oggi nessun esercito ha delegato le decisioni alle IA, che vengono usate al massimo come sistemi esperti a cui chiedere una “consulenza” - abbiamo quindi uno scenario in cui le IA possono influenzare decisioni umane di importanza capitale. Inoltre si è già presa in considerazione l’idea di realizzare droni che decidano da soli quando o come colpire, e potrebbe essere solo il primo passo; ma anche da questo punto di vista, almeno per ora, la decisione è ancora nelle mani degli essere umani. 

L'uso dell'AI nell'ambito militare richiede una valutazione attenta per garantire che la tecnologia sia utilizzata in modo responsabile e sicuro, evitando situazioni di potenziale escalation bellica causate da comportamenti imprevedibili degli AI.