Il robot decide se uccidere, niente 3 Leggi della Robotica

I militari statunitensi hanno iniziato a studiare il modo di inserire morale ed etica nelle macchine.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Ai robot serve un senso etico e morale raffinato, altro che le tre famosi leggi create dallo scrittore Isaac Asimov (Ritorno al Futuro, 50 anni fa Isaac Asimov era all'Expo 2015 di Milano). Sulla cosa ha avviato gli studi il Ministero della Difesa (DoD) degli Stati Uniti, in collaborazione con diverse università e l'ONR (Office of Naval Research), un ente simile alla DARPA.

L'obiettivo è quantomeno azzardato, visto che il primo passo dovrà essere quello di definire con precisione cosa siano l'etica e la morale umana - almeno nei loro elementi essenziali. Cose che sono proprio tra le più indefinibili e sfuggenti, legate come sono alla cultura di origine, alle esperienze personali, ai valori sociali. Una questione da filosofi, non certo da programmatori.

Sostanzialmente si punta quindi a replicare qualcosa che ancora non conosciamo, ma da qualche parte bisogna pur partire. Sì perché i militari stanno cominciando a farsi domande scomode, in previsione di macchine che potranno operare in modo completamente autonomo. Vogliono che i robot sappiano distinguere tra giusto e sbagliato, quindi prima dovranno capire cosa significano questi due termini.

Oggi un drone può colpire con missili e bombe, come sappiamo, ma dietro c'è sempre un umano che preme il pulsante. Domani la macchina invece potrà decidere autonomamente cosa fare, e per farlo dovrà fare ricorso ad etica e morale.

La prima legge di Asimov va quindi cestinata senza esitazioni, perché si stanno progettando macchine che dovranno stabilire se e come uccidere. Cosa fare se il bersaglio è vicino a dei civili? Se non si abbatte il terrorista quanti potranno morire per un suo attacco? Cosa fare se siamo certi solo al 90% che un bersaglio è corretto, ma nell'altro 10% sono civili inermi e innocenti? O ancora, devo fermarmi ad aiutare questo soldato ferito, oppure continuare verso il fronte dove aspettano i rifornimenti e le munizioni che sto portando?

I militari umani devono affrontare decisioni come queste tutti i giorni, e di tanto in tanto prendono la decisione sbagliata. I robot potrebbero fare di meglio? Dipende dall'esito di questa ricerca, e da come poi i programmatori decideranno di rendere le macchine degli "esseri morali". In altre parole c'è una grandissima area d'incertezza, ma stiamo parlando di studi che non vedranno applicazioni pratiche ancora a lungo - quindi c'è ancora tempo per definire i dettagli.

Robot con senso dell'umorismo

Ciò che sembra invece sicuro è che le garanzie ipotizzate da Asimov non diventeranno mai realtà. Ricordiamo le tre leggi:
  • Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  • Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Tre norme semplici che qualche volta, nella finzione letteraria, hanno generato interessanti conflitti e affascinanti situazioni di stallo. Secondo l'autore il loro scopo era prevenire l'insorgere delle macchine contro di noi, proprio perché erano leggi inviolabili (potremmo dire hard coded, o a livello hardware).

L'idea di moralità invece è per sua natura flessibile, e con lo svilupparsi dell'Intelligenza Artificiale i robot potrebbero anche decidere che certi principi etici non sono più validi. Un robot incapace di uccidere per natura e uno capace di decidere se e quanto farlo, ovviamente, sono due cose piuttosto diverse.