Testate nucleari lanciate da AI, c'è chi si preoccupa possa succedere

Una proposta di legge mira a evitare che un'IA possa effettivamente lanciare armi nucleari con il proprio volere.

Avatar di Andrea Riviera

a cura di Andrea Riviera

Managing Editor

Tanti anni fa, quando guardavamo film come Terminator o War Games, neanche ci ponevamo il dubbio della possibilità che un'intelligenza artificiale potesse annientarci. Ma oggi le cose sono drasticamente cambiate.

Il senatore americano, Eduard Markey e i rappresentati Ted Lieu, Don Beyer e Ken Buck, hanno annunciato una legge bipartisan (sostenuta da opposizione e/o maggioranza) che punta a impedire che un'intelligenza artificiale possa prendere decisione sul lancio di armi nucleari. L'atto, denominato "Block Nuclear Launch by Autonomous Artificial Intelligence Act" dovrebbe proibire il lancio di qualsiasi armamento nucleare da parte di un sistema automatizzato senza un significativo controllo umano.

"Vivendo in un'era sempre più digitale, dobbiamo assicurarci che gli esseri umani abbiano il potere esclusivo di comandare, controllare e lanciare armi nucleari, non i robot" Ha dichiarato Eduard Markey in un comunicato stampa "Per questo sono orgoglioso di presentare il Block Nuclear Launch by Autonomous Artificial Intelligence Act. Dobbiamo tenere gli esseri umani al corrente delle decisioni di vita o di morte che riguardano l'uso della forza letale, soprattutto per le nostre armi più pericolose".

"Mentre l'uso militare dell'IA da parte degli Stati Uniti può essere appropriato per migliorare la sicurezza nazionale, l'uso dell'IA per dispiegare armi nucleari senza una catena umana di comando e controllo è sconsiderato, pericoloso e dovrebbe essere proibito", ha dichiarato Ken Buck in un comunicato.

Il disegno di legge giunge in un momento molto delicato, con un'ansia in costante salita per quanto concerne il potenziale e il futuro della tecnologia dell'IA generativa. A dar prova di ciò, è la pausa che hanno chiesto molti ricercatori dallo sviluppo di GPT-4 durante il mese di marzo.

Chiaro, nessuno teme che GPT-4 possa effettivamente lanciare un attacco nucleare, ma un gruppo di ricercatori di intelligenze artificiali teme che in futuro i sistemi IA più avanzati possano rappresentare una vera e propria minaccia per la civiltà umana. Di conseguenza, questa proposta di legge fa parte di un piano più ampio di Markey e Ted Lieu, prevalentemente pensata per evitare un'escalation nucleare.