IA militarizzata, il rischio è reale: i primi robot sul campo a Gaza

Nuovi report evidenziano i rischi dell'IA applicata a robot da guerra autonomi: alcuni stanno venendo già testati nel conflitto a Gaza.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

L’impiego dell’intelligenza artificiale in ambito militare è reale e decisamente pericolo: è quanto emerge da un report di Public Citizen, che lancia l’allarme riguardo lo sviluppo di questi “robot killer”, capaci di operare in maniera indipendente ed essere letali anche senza l’intervento umano.

Secondo il report, il Pentagono non avrebbe limitato l’uso e lo sviluppo di questi armamenti, tuttavia all’inizio dello scorso anno il Dipartimento della Difesa ha cercato di delineare un quadro etico per l’uso di questi sistemi, autonomi o semi-autonomi che siano.

I robot da guerra basati su IA prodotti negli USA vengono testati a Gaza

Human Rights Watch e Harvard Law School International Human Rights Clinic evidenziano alcuni problemi in questa direttiva, che presenta lacune significative: ad esempio, è possibile svilupparle più facilmente (con meno controlli durante il processo) “in casi di necessità militare urgente”, inoltre la direttiva si applica solo al Dipartimento della Difesa, escludendo qualsiasi altra agenzia governativa che potrebbe utilizzare armi autonome.

Tra gli esperti c’è il timore che l’uso di sistemi autonomi possa peggiorare problemi già esistenti, come già evidenziato dai droni statunitensi usati nella lotta al terrorismo, che hanno causato la morte di centinaia di civili a causa di informazioni errate, o circostanze sfavorevoli; inoltre, secondo un altro report, alcuni di questi robot starebbero venendo testati sul campo nell’attuale conflitto in corso a Gaza.

Se un robot autonomo uccide un civile, di chi è la colpa?

Da non trascurare poi la questione etica della responsabilità, già in parte affrontata in passato, ma mai del tutto risolta: se un’arma autonoma dovesse uccidere un civile, scambiandolo per un obiettivo militare legittimo, di chi sarebbe la colpa? L’errore potrebbe persino essere considerato un crimine di guerra, ma la capacità decisionale propria della macchina rende difficile attribuire la responsabilità esclusivamente alle persone in cima alla catena decisionale. Dovrebbe risponderne chi ha sviluppato l’algoritmo? Purtroppo, la questione non è per nulla chiara.

La corsa allo sviluppo di armi autonome è alimentata da guerre e rivalità geopolitiche, che spingono gli Stati a quella che sembra a tutti gli effetti una nuova corsa agli armamenti: tantissime aziende sono già al lavoro su carri armati, cani, droni, sottomarini e altri armamenti del tutto autonomi, basati sull’intelligenza artificiale.

Immagine di copertina: 123RF (generata con IA)