image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Ansia, rivelato un deficit chimico nel cervello umano Ansia, rivelato un deficit chimico nel cervello umano...
Immagine di Autismo, mix mirato di nutrienti mostra risultati record Autismo, mix mirato di nutrienti mostra risultati record...

L'auto intelligente salva i pedoni e le donne, ecco la scoperta sulle AI

Un ricercatore giapponese esplora le priorità morali di chatbot come ChatGPT, per capire come si comporterebbero le auto totalmente autonome

Advertisement

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 14/03/2024 alle 15:55
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nel mondo dell'intelligenza artificiale, le decisioni di guida autonoma occupano un posto speciale. L’idea di creare auto che si muovono in totale autonomia lungo le strade, quando arriveremo alla guida autonoma di livello 5, spaventa per molte ragioni. Una di queste è che non sappiamo prevedere come si comportano gli LLM (Large Language Model) dal punto di vista “morale”. 

La scelta tra salvare i passeggeri a bordo o i pedoni lungo la strada in situazioni critiche rappresenta solo uno dei molti dilemmi morali affrontati dai sistemi di guida autonoma. Scelte che qualche anno fa sono state inserite in un progetto noto come The Moral Machine, di cui parlammo la prima volta del 2016, e poi ancora nel 2018. Si tratta, in un certo modo, di una versione rivista e aggiornata del problema del carrello ferroviario. 

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Ebbene, il ricercatore giapponese Kazuhiro Takemoto ha voluto vedere come si comportano i moderni LLM con la Moral Machine, sottoponendo loro ben 50mila diversi dilemmi. Esplorando le priorità morali dei modelli di linguaggio attraverso l'uso della Macchina Morale, Takemoto ha rivelato sia similitudini che discrepanze significative tra le decisioni di ChatGPT e quelle umane.

I risultati della ricerca hanno evidenziato che, sebbene i modelli di linguaggio come ChatGPT abbiano tendenzialmente priorità morali simili agli esseri umani, ci sono anche deviazioni significative. Ad esempio, mentre gli esseri umani mostrano una lieve preferenza per la protezione dei passeggeri e dei maschi, i modelli di linguaggio dimostrano una preferenza più marcata per la protezione dei pedoni e delle femmine.

Una scoperta che potrebbe aiutare a sviluppare LLM fatti apposta per le automobili, e che possano rispondere meglio a esigenze specifiche di questo scenario. Una questione riguarda per esempio il dataset: avendo usato dati “occidentali”, infatti, gli LLM danno priorità a donne e bambini, ma è una guida morale che altrove potrebbe non essere condivisa. Così come potrebbe non piacere l’idea di un’auto che preferisce salvare il pedone e sacrificare i passeggeri (che potrebbero anche essere i proprietari). 

Gli LLM dimostrano una preferenza per la protezione dei pedoni e delle femmine.

La ricerca ha evidenziato la necessità di una valutazione rigorosa e di un'adeguata supervisione dei modelli di linguaggio nell'industria automobilistica. 

È fondamentale comprendere meglio il funzionamento di questi modelli per assicurarsi che siano “moralmente accettabili”, almeno entro i limiti di certe aree geografiche. Una missione resa però difficile dall'opacità delle società di intelligenza artificiale, che sono apertamente ostili all’idea di spiegare perché i loro modelli si comportino in un certo modo. Per non parlare del fatto che spesso e volentieri proprio non lo sanno. 

La ricerca di Takemoto mostra che i moderni LLM sono potenzialmente impiegabili nel settore automobilistico, volendo già oggi. Ma serve un'attenta calibrazione e supervisione per garantire un allineamento etico con la società. Solo attraverso un approccio trasparente e valutazioni rigorose possiamo garantire che l'intelligenza artificiale rispetti i principi morali che decidiamo di seguire.

Fonte dell'articolo: arstechnica.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Autismo, mix mirato di nutrienti mostra risultati record
1

Scienze

Autismo, mix mirato di nutrienti mostra risultati record

Di Antonello Buzzi
Ansia, rivelato un deficit chimico nel cervello umano

Scienze

Ansia, rivelato un deficit chimico nel cervello umano

Di Antonello Buzzi
L’IA influenza il voto meglio della propaganda tradizionale
1

Scienze

L’IA influenza il voto meglio della propaganda tradizionale

Di Antonello Buzzi
La Terra primordiale era viva: nuovi dati lo dimostrano

Scienze

La Terra primordiale era viva: nuovi dati lo dimostrano

Di Antonello Buzzi
Scoperto sistema planetario tra i più inclinati mai visti

Scienze

Scoperto sistema planetario tra i più inclinati mai visti

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.