Tom's Hardware Italia
Spazio e Scienze

Auto senza conducente, l’etica dell’AI oltre la decisione di vita o morte

L'esperimento ha permesso di raccogliere 40 milioni di decisioni umane, e chiarito come norme etiche e principi non siano universali.

Milioni di persone hanno involontariamente creato il più grande database mai realizzato sull’etica della guida autonoma. Dal 2014 a oggi infatti in tantissimi hanno partecipato al “gioco” The Moral Machine, che chiede sostanzialmente di mettersi nei panni dell’auto e prendere decisioni su questioni di vita o di morte. L’esperimento è stato sviluppato dal MIT, Massachusetts Institute of Technology.

Ognuna di queste persone, in altre parole, si è trovata di fronte ad alcune varianti del problema del carrello ferroviario. Ogni proposta obbliga a scegliere chi deve morire, nell’impossibilità di salvare tutti. Un esperimento progettato per rendere esplicite le delicate questioni etiche che insorgono nel programmare un veicolo che guida da solo, e che potrebbe trovarsi di fronte a scelte simili. Come accade a noi ogni giorno quando siamo alla guida, ma con la differenza che se un essere umano fa una scelta, esiste un sistema legale che ne può valutare le responsabilità.

Il MIT ha così incamerato ben 40 milioni di decisioni prese da esseri umani. Non era nelle intenzioni dei ricercatori creare un sondaggio di tali proporzioni, ma visto che i dati sono arrivati li hanno elaborati, pubblicando poi uno studio sulla rivista Nature. Emerge che le scelte, com’era prevedibile, variano da un’area geografica all’altra, a riflettono le differenze tra le varie culture.

Ci sono culture che danno maggiore importanza alla collettività, come quella giapponese e quella cinese, dove i partecipanti sono meno inclini a risparmiare i giovani. Altrove, invece, si tende a salvarli e a sacrificare gli anziani. In alcuni paesi, specialmente quelli più poveri e con istituzioni “più deboli”, si è mostrata più tolleranza verso chi attraversa fuori dalle strisce pedonali. I paesi più ricchi, invece, hanno mostrato una tendenza a tutelare maggiormente le persone con un alto status sociale o economico. Spesso le persone hanno scelto di salvare il maggior numero possibile di vite, naturalmente, ma non sempre.

I ricercatori chiariscono che il campione è probabilmente statisticamente impuro, perché chi arriva a quella pagina web è qualcuno che ne ha i mezzi e la cultura necessari. D’altra parte, sono anche le prime persone che, potenzialmente, si troveranno a bordo di auto senza conducente.

Lo studio potrebbe essere un’indicazione per i produttori di auto. Sarebbe utile, per esempio, regolare il software in modo leggermente diverso secondo il paese in cui sarà venduta l’auto, così da adattarsi alle preferenze etiche di quel certo pubblico.

Immagine: depositphotos

Gli autori, in ogni caso, ritengono che i legislatori dovrebbero “ignorare l’opinione pubblica collettiva” e agire, si suppone, secondo principi più alti e nobili. Andare oltre la pancia del popolo, dunque, e creare regole che possano avere un valore universale e più duraturo. Un’affermazione che si può senz’altro leggere in chiave politica, ma non per questo appare meno sensata.

Seppure scaturisca dal tema automobilistico, infine, questa ricerca va oltre le quattro ruote e si inserisce un dibattito più grande e complesso sull’etica delle Intelligenze Artificiali. Non perché le AI abbiano un’etica di per sé (non ce l’hanno) ma perché assorbono facilmente quella di chi le programma e di chi le controlla – come ci ha ricordato di recente Toby Walsh su The Guardian.

Il problema dell’etica nell’AI non è nuovo, e diversi governi in tutto il mondo hanno almeno una piccola commissione che se ne occupa. È spesso tema di discussione alle conferenze,  ma la soluzione appare ancora lontana ed è chiaro che si tratta di un lavoro oltremodo complesso.

“Abbiamo usato il problema del carrello perché è un buon modo di raccogliere questi dati, ma speriamo che il dibattito sull’etica non resti confinato a questo tema”, ha commento Edmond Awad (uno degli autori dello studio). “Il dibattito dovrebbe muoversi verso l’analisi dei rischi – su chi è più o meno esposto – invece di dire chi morirà oppure no, e anche su come si manifesta il pregiudizio”.

“Negli ultimi due o tre anni più persone hanno cominciato a parlare di etica nelle AI”, continua Awad. “Più persone hanno cominciato a capire che le AI potrebbero avere conseguenze etiche diverse su differenti gruppi di persone. Il fatto che queste persone stiano considerando la questione… credo che sia promettente”.

La possibile evoluzione e i dilemmi etici dell’Intelligenza Artificiale sono trattati in modo magistrale da Nick Bostrom in Superintelligenza. Tendenze, pericoli, strategie