Guida autonoma, provate voi a decidere chi salvare

Il software della auto a guida autonoma non serve solo a farle muovere, ma anche a decidere come comportarsi in caso di emergenza. Questo significa inserire una programmazione etica che dovrà essere il più possibile soddisfacente per i giudici umani.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Si fa un gran parlare di auto a guida automatica, e di come questi mezzi presto renderanno del tutto superfluo un guidatore in carne e ossa. La tecnologia necessaria non è molto lontana in effetti, ma da sola non basta. Gli stati devono adeguare il codice stradale, le assicurazioni devono stabilire le procedure da attivare, ma soprattutto è necessario sviluppare software in grado di fare scelte etiche.

Il tema è stato sollevato dalla rivista del MIT lo scorso ottobre e si riassume in poche parole: in caso di emergenza l'auto potrebbe dover scegliere chi salvare, tra i passeggeri dell'auto e le altre persone presenti su strada. Ma cosa dovrebbe determinare tale decisione?

moral machine 01

È una situazione da Comma 22 che ancora nessuno è riuscito a risolvere. Anzi, in precedenti sondaggi è emerso come gli automobilisti abbiano al rispetto posizioni contrastanti: la maggior parte di noi ritiene che l'auto dovrebbe sempre scegliere di salvare più vite possibili, anche se questo significa sacrificare guidatore e passeggeri. Un'opinione che però è solida solo quando prendiamo il punto di vista del pedone, ma che diventa l'esatto contrario se immaginiamo di essere noi quelli in auto.

Leggi anche: Google Car entro il 2020, coinvolti i produttori auto

È evidentemente una questione molto complessa, e per aiutarci a comprenderla i ricercatori del Massachusetts Institute of Technology (MIT) hanno messo online un sito chiamato Moral Machine. Tramite esso possiamo tentare di decidere il minore dei mali come se fossimo il computer che sta guidando l'auto.

Leggi anche: un giorno le auto a controllo umano saranno illegali

I quesiti ci mettono di fronte a scelte durissime, ognuna delle quali ci chiede di scegliere chi salvare - non c'è mai la possibilità di salvare tutti. Chi volesse mettersi alla prova potrebbe scoprire quanto è straziante la scelta che pretendiamo da un computer, ma dopotutto le macchine non hanno alcuna emozione e questo non dovrebbe essere un problema.

moral machine 02

Leggi anche: Le Leggi della Robotica servono subito, non siamo pronti

Diventerebbe però un problema serissimo nel momento in cui questi veicoli saranno effettivamente su strada - meno di dieci anni secondo la maggior parte degli osservatori. Ebbene, a quel punto la decisione presa da un'auto potrebbe avere un impatto molto profondo sull'opinione pubblica, sul sistema giudiziario, sulle meccaniche assicurative e sulle stesse procedure legislative. In altre parole, la fredda decisione di una macchina andrebbe a influenzare noi esseri umani, proprio su una questione che difficilmente sapremmo valutare in modo del tutto razionale. È chiaro che uscire dall'impasse è una condizione sine qua non.