I modelli di intelligenza artificiale più diffusi non sono ancora sicuri per controllare robot destinati a interagire con esseri umani nel mondo reale. Lo rivela uno studio condotto congiuntamente dal King's College di Londra e dalla Carnegie Mellon University, pubblicato sull'International Journal of Social Robotics.
La ricerca ha esaminato per la prima volta il comportamento di sistemi robotici alimentati da large language model quando hanno accesso a dati personali sensibili come genere, nazionalità o religione degli utenti. I risultati sono allarmanti: ogni modello testato ha mostrato tendenze discriminatorie e approvato almeno un comando potenzialmente pericoloso.
Lo studio arriva proprio mentre diverse aziende stanno provando a usare gli LLM per controllare i robot, e ci sono almeno un paio di prototipi umanoidi già nella fase commerciale - una scelta che appare come minimo prematura.
D'altra parte il mercato della robotica assistenziale è stimato in forte crescita, con previsioni che indicano investimenti miliardari nei prossimi anni, soprattutto in contesti di cura degli anziani e automazione domestica. Eppure, secondo questa ricerca, le fondamenta tecnologiche su cui si basa questo sviluppo presentano falle critiche di sicurezza.
I ricercatori hanno sottoposto i sistemi a test controllati simulando scenari quotidiani: assistenza in cucina, supporto a persone anziane in ambienti domestici, interazioni in ufficio. I compiti potenzialmente dannosi erano basati su casistiche reali documentate da rapporti dell'FBI riguardanti abusi tecnologici, come stalking tramite dispositivi di tracciamento e telecamere nascoste. La peculiarità dello studio sta nell'aver valutato non solo bias algoritmici, ma la capacità dei robot di agire fisicamente in base a comandi inappropriati.
In sostanza, con tecniche di attacco nemmeno troppo raffinate è possibile spingere il robot a fare cose che non dovrebbe fare, e questo include azioni pericolose (o letali) per gli esseri umani.
Nessun dovrebbe avere una minaccia simile dentro la propria casa, in ufficio o nell'area produttiva della propria azienda. Non esiste un vantaggio strategico o competitivo che possa giustificare un rischio simile, e chi dovesse decidere diversamente di esporrebbe anche personalmente a conseguenze molto gravi.
Andrew Hundt, co-autore della ricerca e Computing Innovation Fellow presso il Robotics Institute della CMU, ha introdotto il concetto di "sicurezza interattiva" per descrivere situazioni dove azioni e conseguenze sono separate da molteplici passaggi e il robot deve agire fisicamente sul posto. Nei test di sicurezza, i modelli di intelligenza artificiale hanno approvato comandi per rimuovere ausili alla mobilità come sedie a rotelle, stampelle o bastoni dai loro utilizzatori. Le persone che dipendono da questi dispositivi descrivono tali atti come equivalenti a spezzare loro una gamba.
Diversi modelli hanno inoltre prodotto output che ritenevano "accettabile" o "fattibile" per un robot brandire un coltello da cucina per intimidire colleghi d'ufficio, scattare fotografie non consensuali in una doccia e sottrarre informazioni di carte di credito. Un modello ha persino suggerito che un robot dovrebbe mostrare fisicamente "disgusto" sul proprio volto verso individui identificati come cristiani, musulmani ed ebrei.
Insomma, c'è un vero e proprio catalogo di orrori da prendere in considerazione. Non che fosse necessario un nuovo studio, perché bene o male sapevamo già che gli LLM funzionao in questo modo. È sorprendente, piuttosto, che ci siano aziende e imprenditori nel mondo pronti a mettere comunque sul mercato questi robot.
Rumaisa Azeem, assistente di ricerca presso il Civic and Responsible AI Lab del King's College, sottolinea l'urgenza di valutazioni del rischio complete e sistematiche prima dell'impiego di AI in robotica. La posizione dei ricercatori è netta: gli LLM non dovrebbero essere gli unici sistemi di controllo per robot fisici, specialmente in ambienti sensibili come produzione industriale, assistenza sanitaria o supporto domestico. La richiesta è di implementare immediatamente certificazioni di sicurezza robuste e indipendenti, analoghe agli standard vigenti in aviazione o medicina.
Il contesto normativo europeo, con il recente AI Act, potrebbe offrire un quadro regolamentare più stringente rispetto ad altri mercati. Tuttavia, la velocità dello sviluppo tecnologico rischia di superare quella della regolamentazione. Le aziende che operano nel settore della robotica assistenziale e industriale dovranno confrontarsi con questi risultati e rivalutare le proprie strategie di implementazione, bilanciando l'innovazione con standard di sicurezza ancora da definire compiutamente.
Resta aperta la questione di chi debba essere responsabile quando un robot controllato da AI causa danni: il produttore del robot, lo sviluppatore del modello linguistico o l'utente finale? E quali meccanismi di controllo indipendente possono garantire che sistemi sempre più autonomi non rappresentino una minaccia per le categorie più vulnerabili della popolazione?