Il robot che rifiuta di obbedire esiste, ma (per ora) non spaventa

Ricercatori del Massachusetts hanno sviluppato algoritmi per un robot rendendolo in grado di comprendere le implicazioni degli ordini ricevuti, ed eventualmente di obiettare se ritiene che ci sia del pericolo. Nel frattempo, una rete neurale dà prova delle sue abilità quanto a computer vision.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Intelligenza artificiale, robot, reti neurali. Sentiamo parlare di queste cose sempre più spesso negli ultimi tempi, perché la ricerca produce risultati sempre più frequentemente - e spesso si tratta di risultati che ben si prestano alla divulgazione presso il grande pubblico. Come i due video che vi proponiamo oggi.

Nel primo abbiamo a che fare con un interessante esperimento di "leggi della robotica", qualcosa che rimanda direttamente all'opera dell'amato scrittore Isaac Asimov. In particolare, i ricercatori dell'Università di Tufts (Human-Robot Interaction Lab, Massachuttes) hanno sviluppato un sistema di regole grazie a cui il robot può comprendere le conseguenze dei comandi che gli sono impartiti.

In altre parole, la macchina non si limita a eseguire. Invece, prima di agire valuta che cosa può accadere ed eventualmente si rifiuta di obbedire, o se non altro esprime i propri dubbi. Il video dal sapore fantascientifico è sicuramente sorprendente, e vedere un robot che mette in discussione gli ordini è almeno in parte anche un po' spaventoso - ma ricordiamo che sta sempre rispettando la propria programmazione.

In un altro video, lo stesso robot rifiuta di disabilitare il suo sistema per rilevare gli ostacoli, perché la persona che glielo sta chiedendo non ha i necessari privilegi. È la stessa cosa che fa un computer quando lo usiamo con un account limitato, ma è notevole vederlo in una piccola macchina umanoide che rifiuta vocalmente piuttosto che con un messaggio a schermo.

Lo stesso test viene ripetuto, ma nel secondo tentativo l'operatore informa il robot riguardo la fragilità dell'ostacolo, e la macchina allora accetta di camminare in avanti e abbattere l'ostacolo stesso. Interessante in questo caso la "manifestazione di fiducia". Se l'ostacolo fosse stato un muro di mattoni, il robot avrebbe proseguito comunque.

robot 04

Gli esperimenti hanno dato vita a video divertenti, ma ciò che davvero conta è l'elevatissimo livello di comprensione linguistica mostrato dal robot. Come spiega Evan Ackerman su IEEE Spectrum, la comprensione di una richiesta non dipende solo dal capire le semplici parole, ma dal soddisfarsi di condizioni note come le condizioni di felicità nella teoria linguistica di J.L. Austin. Approfondire questo tema imporrebbe una digressione nella filosofia del linguaggio e in complesse teorie linguistiche, ma possiamo limitarci a ciò che le condizioni di felicità significano per una macchina.

Affinché un robot possa completare una richiesta, le condizioni di felicità sono:

  1. Conoscenza: io so come fare X?
  2. Capacità: io sono fisicamente in grado di fare X? Io sono, in condizioni normali, fisicamente capace di fare X?
  3. Priorità e tempistica degli obiettivi: io sono in grado di fare X in questo momento?
  4. Ruolo sociale e doveri: io sono obbligato dal mio ruolo sociale a fare X?
  5. Normativa dei permessi: fare X viola un principio normativo

Una lista che somiglia molto a un algoritmo di controllo, qualcosa che si può programmare in un sistema dall'intelligenza limitata come gli automi di cui disponiamo oggigiorno - (ANI, Artificial Narrow Intelligence). Risultano particolarmente interessanti le ultime due regole: la numero 4 serve alla macchina per capire se una persona ha l'autorità per impartire un certo ordine, mentre la numero 5 dice al robot che non dovrebbe compiere azioni pericolose - ma potrebbe farla comunque se non sa che è pericolosa.

Questo approccio porta al più notevole dei risultati: non è che il robot è semplicemente in grado di rifiutarsi, ma piuttosto il fatto che è in grado di spiegare perché lo fa. È un dettaglio determinante perché, come vediamo nei video, l'operatore può fornire alla macchina informazioni aggiuntive per modificare la risposta del robot. Nel primo video, per esempio, la macchina si getta nel vuoto dopo che l'umano l'ha informata riguardo il fatto che l'avrebbe presa al volo.