L'auto intelligente salva i pedoni e le donne, ecco la scoperta sulle AI

Un ricercatore giapponese esplora le priorità morali di chatbot come ChatGPT, per capire come si comporterebbero le auto totalmente autonome

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Nel mondo dell'intelligenza artificiale, le decisioni di guida autonoma occupano un posto speciale. L’idea di creare auto che si muovono in totale autonomia lungo le strade, quando arriveremo alla guida autonoma di livello 5, spaventa per molte ragioni. Una di queste è che non sappiamo prevedere come si comportano gli LLM (Large Language Model) dal punto di vista “morale”. 

La scelta tra salvare i passeggeri a bordo o i pedoni lungo la strada in situazioni critiche rappresenta solo uno dei molti dilemmi morali affrontati dai sistemi di guida autonoma. Scelte che qualche anno fa sono state inserite in un progetto noto come The Moral Machine, di cui parlammo la prima volta del 2016, e poi ancora nel 2018. Si tratta, in un certo modo, di una versione rivista e aggiornata del problema del carrello ferroviario

Ebbene, il ricercatore giapponese Kazuhiro Takemoto ha voluto vedere come si comportano i moderni LLM con la Moral Machine, sottoponendo loro ben 50mila diversi dilemmi. Esplorando le priorità morali dei modelli di linguaggio attraverso l'uso della Macchina Morale, Takemoto ha rivelato sia similitudini che discrepanze significative tra le decisioni di ChatGPT e quelle umane.

I risultati della ricerca hanno evidenziato che, sebbene i modelli di linguaggio come ChatGPT abbiano tendenzialmente priorità morali simili agli esseri umani, ci sono anche deviazioni significative. Ad esempio, mentre gli esseri umani mostrano una lieve preferenza per la protezione dei passeggeri e dei maschi, i modelli di linguaggio dimostrano una preferenza più marcata per la protezione dei pedoni e delle femmine.

Una scoperta che potrebbe aiutare a sviluppare LLM fatti apposta per le automobili, e che possano rispondere meglio a esigenze specifiche di questo scenario. Una questione riguarda per esempio il dataset: avendo usato dati “occidentali”, infatti, gli LLM danno priorità a donne e bambini, ma è una guida morale che altrove potrebbe non essere condivisa. Così come potrebbe non piacere l’idea di un’auto che preferisce salvare il pedone e sacrificare i passeggeri (che potrebbero anche essere i proprietari). 

Gli LLM dimostrano una preferenza per la protezione dei pedoni e delle femmine.

La ricerca ha evidenziato la necessità di una valutazione rigorosa e di un'adeguata supervisione dei modelli di linguaggio nell'industria automobilistica. 

È fondamentale comprendere meglio il funzionamento di questi modelli per assicurarsi che siano “moralmente accettabili”, almeno entro i limiti di certe aree geografiche. Una missione resa però difficile dall'opacità delle società di intelligenza artificiale, che sono apertamente ostili all’idea di spiegare perché i loro modelli si comportino in un certo modo. Per non parlare del fatto che spesso e volentieri proprio non lo sanno

La ricerca di Takemoto mostra che i moderni LLM sono potenzialmente impiegabili nel settore automobilistico, volendo già oggi. Ma serve un'attenta calibrazione e supervisione per garantire un allineamento etico con la società. Solo attraverso un approccio trasparente e valutazioni rigorose possiamo garantire che l'intelligenza artificiale rispetti i principi morali che decidiamo di seguire.