Quando si parla di armi autonome, il rischio è quello di immaginarle come qualcosa di lontano: scenari futuristici da film di fantascienza, robot con sembianze umane, intelligenze artificiali fuori controllo. Ma il punto non è se tutto questo accadrà domani. Il punto è cosa stia già succedendo oggi. Perché la tecnologia che permette a un sistema di selezionare e attaccare un bersaglio senza intervento umano esiste già. E si sta evolvendo più in fretta della nostra capacità di regolarla.
La Campagna Stop Killer Robots (qui il loro sito ufficiale) parte da qui. Da una domanda semplice e scomoda: vogliamo davvero che sia una macchina a decidere chi vive e chi muore? Il movimento — che oggi riunisce più di 270 organizzazioni in 70 paesi — lavora per impedire che la risposta a questa domanda ci venga imposta dai fatti. L’obiettivo è chiaro: arrivare a un nuovo strumento giuridicamente vincolante a livello internazionale che contenga sia divieti sia obblighi positivi.
Ma non è solo una battaglia legale. È una questione di etica, di trasparenza, di responsabilità. Di che tipo di mondo vogliamo costruire. Gugu Dube e il team monitorano ogni giorno il sostegno degli stati a una regolamentazione vincolante, raccolgono dati, analizzano il linguaggio con cui si parla — o si evita di parlare — di autonomia e decisioni automatizzate, sia nel contesto bellico che nella società civile. Il loro lavoro si chiama "Automated Decision Research", ma ha un impatto molto concreto: fare pressione, con dati alla mano, perché la diplomazia non resti indietro rispetto all’innovazione tecnologica.
A fine 2023 è successa una cosa importante: per la prima volta, l’Assemblea Generale delle Nazioni Unite ha approvato una risoluzione sulle armi autonome. Un passaggio storico, frutto anche del lavoro costante di questa rete globale. L’obiettivo ora è concludere entro il 2026 un accordo internazionale che vieti i sistemi d’arma autonomi che non consentono un significativo controllo umano e quelli che potrebbero colpire esseri umani, e che regolamenti tutti gli altri sistemi.
In questa intervista, Gugu Dube ci porta dentro tutto questo: non solo lo stato dell’arte dei negoziati, ma le implicazioni profonde che queste tecnologie portano con sé. Perché le armi autonome non sono solo un problema militare: sono uno specchio, forse il più inquietante, di come stiamo gestendo il nostro rapporto con la tecnologia. E decidere di guardarlo adesso è l’unico modo per non subirne le conseguenze domani.
Stiamo assistendo sempre più a sistemi d'arma con funzioni autonome e sistemi di supporto decisionale basati sull'IA e di raccomandazione di obiettivi che vengono sviluppati e utilizzati in conflitti in corso, inclusi Gaza e Ucraina. Questi conflitti vengono usati come banchi di prova per tecnologie con livelli crescenti di autonomia. Sebbene non ci siano ancora rapporti verificati sull'uso di sistemi d'arma come questi, che utilizzano l'elaborazione centrale per scegliere il bersaglio e decidere dove e quando avverrà un attacco senza approvazione umana, sistemi precursori vengono sviluppati da numerosi stati. Ciò è estremamente preoccupante in assenza di regole e limiti chiari.
Attualmente, un piccolo numero di stati altamente militarizzati si è concentrato sulla riduzione della portata della risoluzione. Ciò dimostra davvero perché è così fondamentale che i sistemi di armi autonome siano discussi in un forum accessibile a tutti gli stati e in cui le regole di consenso non possano essere usate come veto. La stragrande maggioranza degli stati concorda ora che è necessaria una nuova legge internazionale per creare salvaguardie legali, mentre i principali sviluppatori sembrano resistere a limiti significativi.