image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Ingegneria: 5 cose pazzesche fatte nel 2025 Ingegneria: 5 cose pazzesche fatte nel 2025...
Immagine di DeepSeek sfida il limite strutturale dei transformer con il rigore topologico DeepSeek sfida il limite strutturale dei transformer con il ...

Killer Robot: cosa sono e quali rischi comportano per tutti noi

Quando si parla di armi autonome, il rischio è quello di immaginarle come qualcosa di lontano, ma sta già succedendo. Ne parliamo con Gugu Dube di Stop Killer Robots.

Advertisement

Avatar di Andrea Ferrario

a cura di Andrea Ferrario

Editor in Chief @Tom's Hardware Italia

Pubblicato il 24/07/2025 alle 12:00 - Aggiornato il 13/08/2025 alle 09:24
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Quando si parla di armi autonome, il rischio è quello di immaginarle come qualcosa di lontano: scenari futuristici da film di fantascienza, robot con sembianze umane, intelligenze artificiali fuori controllo. Ma il punto non è se tutto questo accadrà domani. Il punto è cosa stia già succedendo oggi. Perché la tecnologia che permette a un sistema di selezionare e attaccare un bersaglio senza intervento umano esiste già. E si sta evolvendo più in fretta della nostra capacità di regolarla.

La Campagna Stop Killer Robots (qui il loro sito ufficiale) parte da qui. Da una domanda semplice e scomoda: vogliamo davvero che sia una macchina a decidere chi vive e chi muore? Il movimento — che oggi riunisce più di 270 organizzazioni in 70 paesi — lavora per impedire che la risposta a questa domanda ci venga imposta dai fatti. L’obiettivo è chiaro: arrivare a un nuovo strumento giuridicamente vincolante a livello internazionale che contenga sia divieti sia obblighi positivi.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Ma non è solo una battaglia legale. È una questione di etica, di trasparenza, di responsabilità. Di che tipo di mondo vogliamo costruire. Gugu Dube e il team monitorano ogni giorno il sostegno degli stati a una regolamentazione vincolante, raccolgono dati, analizzano il linguaggio con cui si parla — o si evita di parlare — di autonomia e decisioni automatizzate, sia nel contesto bellico che nella società civile. Il loro lavoro si chiama "Automated Decision Research", ma ha un impatto molto concreto: fare pressione, con dati alla mano, perché la diplomazia non resti indietro rispetto all’innovazione tecnologica.

A fine 2023 è successa una cosa importante: per la prima volta, l’Assemblea Generale delle Nazioni Unite ha approvato una risoluzione sulle armi autonome. Un passaggio storico, frutto anche del lavoro costante di questa rete globale. L’obiettivo ora è concludere entro il 2026 un accordo internazionale che vieti i sistemi d’arma autonomi che non consentono un significativo controllo umano e quelli che potrebbero colpire esseri umani, e che regolamenti tutti gli altri sistemi.

In questa intervista, Gugu Dube ci porta dentro tutto questo: non solo lo stato dell’arte dei negoziati, ma le implicazioni profonde che queste tecnologie portano con sé. Perché le armi autonome non sono solo un problema militare: sono uno specchio, forse il più inquietante, di come stiamo gestendo il nostro rapporto con la tecnologia. E decidere di guardarlo adesso è l’unico modo per non subirne le conseguenze domani.

Andrea Ferrario
Qual è la missione principale della coalizione Stop Killer Robots e come si differenzia dagli approcci di altre organizzazioni che si occupano di IA e sicurezza?
Andrea Ferrario
Gugu Debe
Siamo una coalizione internazionale di organizzazioni non governative che cercano di preservare l'umanità e salvare vite; l’obiettivo è chiaro: arrivare a un nuovo strumento giuridicamente vincolante a livello internazionale che contenga sia divieti sia obblighi positivi. Sosteniamo lo sviluppo di norme legali e di altro tipo che garantiscano un controllo umano significativo nell'uso della forza, la disumanizzazione digitale e la riduzione del danno automatizzato. Fondamentalmente, i nostri obiettivi principali come coalizione di oltre 270 organizzazioni della società civile, che lavora in 70 paesi, sono garantire un controllo umano significativo sull'uso della forza attraverso lo sviluppo di nuove leggi internazionali e l'autonomia nei sistemi d'arma.
Gugu Debe
Andrea Ferrario
In che modo il vostro team supporta gli obiettivi della coalizione? Quali tipi di analisi e ricerche conducete?
Andrea Ferrario
Gugu Debe
Abbiamo un team di ricerca e monitoraggio chiamato ricerca sulle decisioni automatizzate. Monitoriamo il supporto statale per uno strumento legalmente vincolante sui sistemi di armi autonome e conduciamo ricerche e analisi sulle risposte all'autonomia e al processo decisionale automatizzato in guerra e nella società in generale. Il nostro team ha anche creato una risorsa di monitoraggio delle armi con esempi di sistemi d'arma che mostrano preoccupazioni sull'aumento dell'autonomia nelle armi, incertezze sulle loro capacità e una tendenza verso l'aumento dell'autonomia in guerra, inclusi i conflitti attuali.
Gugu Debe
Andrea Ferrario
Puoi spiegare più dettagliatamente cosa si intende per "robot killer" e quali sono le caratteristiche che li distinguono da altri sistemi d'arma autonomi?
Andrea Ferrario
Gugu Debe
I sistemi d’arma autonomi, o robot killer, sono armi che individuano e colpiscono un bersaglio sulla base di input dei sensori, anziché di comandi diretti da parte di un essere umano. Chiediamo una nuova legge internazionale la quale proibisca i sistemi di armi autonome che prendono di mira direttamente gli esseri umani e i sistemi di armi autonome che non possono essere utilizzati con un controllo umano significativo. Questi sono ciò che chiamiamo robot killer. Sebbene non abbiamo visto usi verificati di questi sistemi, abbiamo assistito al recente aumento di sistemi di supporto decisionale basati sull'intelligenza artificiale o sistemi di generazione o raccomandazione di obiettivi.
Gugu Debe
Andrea Ferrario
Il trattato proposto mirerebbe a proibire alcune categorie di armi autonome e a regolarne altre. Quali sono gli "obblighi positivi" che gli stati dovrebbero adottare per garantire la conformità?
Andrea Ferrario
Gugu Debe
Il trattato regolerebbe tutti gli altri sistemi di armi autonome attraverso la creazione di obblighi positivi. Ciò significa che queste sono misure che gli stati devono adottare per garantire la conformità al fine di prevenire violazioni del diritto internazionale, incluse regole specifiche su prevedibilità, comprensibilità e limitazioni temporali e spaziali.
Gugu Debe
Andrea Ferrario
Quali sono le principali differenze tra i sistemi d'arma autonomi veri e propri e i sistemi di supporto decisionale basati sull'IA come Lavender o Project Maven?
Andrea Ferrario
Gugu Debe
I sistemi d'arma autonomi, ovvero i robot killer, sono armi che individuano e colpiscono un bersaglio sulla base di input dei sensori, mentre i sistemi di supporto decisionale basati sull'intelligenza artificiale o sistemi di generazione o raccomandazione di obiettivi, come il Lavender e il Project Maven degli Stati Uniti, non sono sistemi d'arma ma sono estremamente preoccupanti. Sono, infatti, sistemi di elaborazione dati che elaborano e analizzano grandi quantità di dati ad alta velocità per generare obiettivi e formulare raccomandazioni di targeting; l'uso dei dati può includere immagini satellitari, telecomunicazioni, filmati di droni, ecc. Questi sistemi sollevano ancora significative questioni umanitarie, etiche, morali e legali.
Gugu Debe
Andrea Ferrario
Quali sono le difficoltà nell'individuare le responsabilità in caso di violazioni del diritto internazionale umanitario? Come si possono mitigare i rischi in un contesto di automazione crescente?
Andrea Ferrario
Gugu Debe
Esistono seri rischi che gli esseri umani si fidino eccessivamente delle raccomandazioni del sistema, noto anche come bias di automazione, e possano diventare troppo dipendenti dai sistemi automatizzati senza comprendere come siano state generate le raccomandazioni. Questi sistemi possono anche creare responsabilità o una cortina fumogena riguardo a chi sarebbe responsabile se le raccomandazioni portassero a violazioni del diritto internazionale umanitario. Per mitigare questi rischi, è necessario garantire un controllo umano significativo nell'uso della forza e colmare il divario tra innovazione e regolamentazione attraverso salvaguardie legali chiare che garantiscano la conformità al diritto internazionale umanitario.
Gugu Debe
Andrea Ferrario
Come cambierebbe la natura dei conflitti armati con l'introduzione diffusa di armi autonome? Quali sono i rischi specifici per i civili e la sicurezza globale se queste tecnologie rimangono non regolamentate?
Andrea Ferrario
Gugu Debe
Se guardiamo all'attuale ritmo di sviluppo, le armi autonome, se usate, cambieranno fondamentalmente la natura di come vengono combattute le guerre. Porterebbero a una guerra più asimmetrica e destabilizzerebbero la pace e la sicurezza internazionali innescando una nuova corsa agli armamenti. Sposterebbero anche il peso del conflitto ulteriormente sui civili. Ma i rischi dei robot killer non minacciano solo le persone nei conflitti; l'uso di queste armi nelle nostre società in senso più ampio potrebbe anche avere gravi conseguenze quando pensiamo a future proteste, controllo delle frontiere, polizia e sorveglianza, o anche ad altri tipi di tecnologia che usiamo. Non dovremmo permettere che le decisioni su vita e morte siano prese dalle macchine. L'emergere e le conseguenze dei sistemi di armi autonome ci riguardano sicuramente tutti. Sollevano anche preoccupazioni morali, legali ed etiche, in particolare riguardo alla disumanizzazione digitale e alla capacità dell'utente di esprimere un giudizio ben fondato sulla conformità degli effetti di un attacco alle norme legali ed etiche.

Stiamo assistendo sempre più a sistemi d'arma con funzioni autonome e sistemi di supporto decisionale basati sull'IA e di raccomandazione di obiettivi che vengono sviluppati e utilizzati in conflitti in corso, inclusi Gaza e Ucraina. Questi conflitti vengono usati come banchi di prova per tecnologie con livelli crescenti di autonomia. Sebbene non ci siano ancora rapporti verificati sull'uso di sistemi d'arma come questi, che utilizzano l'elaborazione centrale per scegliere il bersaglio e decidere dove e quando avverrà un attacco senza approvazione umana, sistemi precursori vengono sviluppati da numerosi stati. Ciò è estremamente preoccupante in assenza di regole e limiti chiari.
Gugu Debe
Andrea Ferrario
Qual è la questione più urgente legata allo sviluppo e all'uso delle armi autonome, e perché è così cruciale agire ora, prima che i sistemi più avanzati diventino operativi?
Andrea Ferrario
Gugu Debe
A mio avviso, la questione più urgente è che stiamo assistendo all'accelerazione dello sviluppo e dell'uso di sistemi con funzioni autonome e di supporto decisionale basati sull'IA in contesti di conflitto attuali. Questo è estremamente preoccupante in assenza di regole e limiti chiari. È cruciale agire ora perché sviluppatori e utenti stanno spingendo i limiti di ciò che è accettabile secondo le norme legali ed etiche. L'IA viene integrata nelle applicazioni militari con effetti disumanizzanti e siamo preoccupati di colmare il divario tra innovazione e regolamentazione prima che le conseguenze siano irreversibili.
Gugu Debe
Andrea Ferrario
C'è un crescente supporto internazionale per una nuova legge sui sistemi di armi autonome, culminato nella risoluzione all'Assemblea Generale delle Nazioni Unite. Quali stati o blocchi regionali si sono dimostrati più vocalmente a favore e quali, invece, hanno mostrato resistenza?
Andrea Ferrario
Gugu Debe
Abbiamo assistito a un crescente supporto internazionale per una legge internazionale che proibisca e regoli i robot killer. A novembre 2023, la prima risoluzione umana sui robot killer è stata adottata all'Assemblea Generale delle Nazioni Unite. Ciò ha fatto seguito a una serie di posizioni regionali, ad esempio, sotto forma di dichiarazioni e comunicati adottati sui robot killer all'inizio del 2023. Attualmente, la maggioranza degli stati sostiene la negoziazione di nuove regole per i sistemi di armi autonome, così come il Segretario Generale delle Nazioni Unite e il Presidente del Comitato Internazionale della Croce Rossa. L'anno scorso, 161 stati hanno votato a favore della bozza di risoluzione, con solo tre voti contrari e 13 astensioni. Un piccolo numero di stati altamente militarizzati si è concentrato sulla riduzione della portata della risoluzione.

Attualmente, un piccolo numero di stati altamente militarizzati si è concentrato sulla riduzione della portata della risoluzione. Ciò dimostra davvero perché è così fondamentale che i sistemi di armi autonome siano discussi in un forum accessibile a tutti gli stati e in cui le regole di consenso non possano essere usate come veto. La stragrande maggioranza degli stati concorda ora che è necessaria una nuova legge internazionale per creare salvaguardie legali, mentre i principali sviluppatori sembrano resistere a limiti significativi.
Gugu Debe
Andrea Ferrario
Quali sono le strategie di sensibilizzazione che la coalizione implementa per mobilitare il supporto politico e pubblico a livello globale, oltre alle petizioni e al coinvolgimento parlamentare?
Andrea Ferrario
Gugu Debe
Come campagna, abbiamo lavorato a stretto contatto con numerosi stati e partner sin dalla nostra fondazione per raccogliere supporto verso la regolamentazione. Ciò include attività di advocacy in incontri chiave delle Nazioni Unite, inclusi il CCW e la Prima Commissione sul disarmo e la sicurezza internazionale dove si discutono le armi autonome. Svolgiamo anche attività di sensibilizzazione a livello nazionale presso i parlamentari, invitandoli a firmare il nostro impegno parlamentare. Abbiamo anche una petizione internazionale creata in collaborazione con Amnesty International, che conta firmatari da oltre 102 paesi. Inoltre, la nostra campagna intraprende una varietà di attività e campagne pubbliche, come il documentario Immoral Code (con oltre 150.000 visualizzazioni su YouTube e proiezioni in oltre 20 paesi), la campagna per la disumanizzazione digitale e una mostra multimediale interattiva chiamata Automated by Design.
Gugu Debe
Andrea Ferrario
Quali sono i vostri obiettivi per i prossimi anni? Ci sono le speranze di raggiungere un trattato internazionale vincolante?
Andrea Ferrario
Gugu Debe
Attualmente la maggioranza degli stati sostiene la negoziazione di un nuovo trattato e di regole che governerebbero i sistemi di armi autonome, così come il Segretario Generale delle Nazioni Unite e il Presidente del Comitato Internazionale della Croce Rossa, che hanno lanciato un appello congiunto storico nell'ottobre 2023 che chiede agli stati di negoziare un nuovo strumento legalmente vincolante entro il 2026. L'ostacolo principale è rappresentato dal piccolo numero di stati altamente militarizzati che cercano di ridurre la portata della risoluzione e che potrebbero tentare di usare le regole di consenso come veto. Tuttavia, la crescente spinta della maggioranza degli stati, unita all'appello congiunto di figure chiave delle Nazioni Unite e del CICR, crea un'importante opportunità per progredire verso un trattato vincolante.
Gugu Debe
Andrea Ferrario
Considerando che la coalizione non è "anti-tecnologia o anti-IA", come ti immagini un futuro in cui l'IA e l'automazione siano utilizzate in ambito militare in modo responsabile e con un significativo controllo umano?
Andrea Ferrario
Gugu Debe
Non siamo affatto un'organizzazione anti-tecnologia o anti-IA. Crediamo che la tecnologia possa e debba essere usata per promuovere pace, giustizia, diritti umani ed uguaglianza. In questo senso, crediamo che creare salvaguardie legali sulle armi autonome sia sia necessario che possibile per mantenere le persone al sicuro e mantenere una relazione positiva tra umani e tecnologia. L'IA e l'automazione dovrebbero essere utilizzate in guerra in conformità con il diritto internazionale umanitario e la forza dovrebbe essere sempre impiegata con un controllo umano significativo. La tecnologia dovrebbe essere usata per proteggere la pace, la giustizia, i diritti umani, l'uguaglianza e il rispetto della legge, non per avvicinarci a macchine che prendono decisioni su chi uccidere.
Gugu Debe
Ringraziamo Gugu Dube per il suo tempo e per averci fornito una prospettiva essenziale su una delle questioni più urgenti del nostro tempo. L'impegno della campagna per garantire che le decisioni di vita o di morte rimangano nelle mani umane è un messaggio potente e necessario, e questa discussione ci ha fornito preziosi spunti su come possiamo tutti contribuire a questo obiettivo cruciale.

Le notizie più lette

#1
Recensione MSI MPG 341CQR QD-OLED X36, il nuovo OLED per chi ama l'ultrawide

Hardware

Recensione MSI MPG 341CQR QD-OLED X36, il nuovo OLED per chi ama l'ultrawide

#2
NVIDIA RTX 5070 razionate dai rivenditori, la carenza di RAM è la causa
6

Hardware

NVIDIA RTX 5070 razionate dai rivenditori, la carenza di RAM è la causa

#3
iPad: ecco tutte le novità in arrivo nel 2026
2

Tablet

iPad: ecco tutte le novità in arrivo nel 2026

#4
La nuova MSI RTX 5090 Lightning ha già infranto ogni record di benchmark
5

CES 2026

La nuova MSI RTX 5090 Lightning ha già infranto ogni record di benchmark

#5
Una nuova tecnologia al plasma per raffreddare i laptop debutterà al CES 2026

CES 2026

Una nuova tecnologia al plasma per raffreddare i laptop debutterà al CES 2026

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

DeepSeek sfida il limite strutturale dei transformer con il rigore topologico
1

Scienze

DeepSeek sfida il limite strutturale dei transformer con il rigore topologico

Di Valerio Porcu
Ingegneria: 5 cose pazzesche fatte nel 2025
1

Scienze

Ingegneria: 5 cose pazzesche fatte nel 2025

Di Valerio Porcu
Ritorno nello spazio: la NASA riprende i viaggi spaziali dopo 8 mesi
1

Scienze

Ritorno nello spazio: la NASA riprende i viaggi spaziali dopo 8 mesi

Di Dario De Vita
Quando il cervello diventa interfaccia: la nuova frontiera della medicina digitale
2

Scienze

Quando il cervello diventa interfaccia: la nuova frontiera della medicina digitale

Di Dario De Vita

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.