image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Scoperti nuovi indizi sulle origini di Homo sapiens Scoperti nuovi indizi sulle origini di Homo sapiens...
Immagine di Può esistere massa senza il bosone di Higgs? Può esistere massa senza il bosone di Higgs?...

L'auto intelligente salva i pedoni e le donne, ecco la scoperta sulle AI

Un ricercatore giapponese esplora le priorità morali di chatbot come ChatGPT, per capire come si comporterebbero le auto totalmente autonome

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 14/03/2024 alle 15:55

Nel mondo dell'intelligenza artificiale, le decisioni di guida autonoma occupano un posto speciale. L’idea di creare auto che si muovono in totale autonomia lungo le strade, quando arriveremo alla guida autonoma di livello 5, spaventa per molte ragioni. Una di queste è che non sappiamo prevedere come si comportano gli LLM (Large Language Model) dal punto di vista “morale”. 

La scelta tra salvare i passeggeri a bordo o i pedoni lungo la strada in situazioni critiche rappresenta solo uno dei molti dilemmi morali affrontati dai sistemi di guida autonoma. Scelte che qualche anno fa sono state inserite in un progetto noto come The Moral Machine, di cui parlammo la prima volta del 2016, e poi ancora nel 2018. Si tratta, in un certo modo, di una versione rivista e aggiornata del problema del carrello ferroviario. 

Ebbene, il ricercatore giapponese Kazuhiro Takemoto ha voluto vedere come si comportano i moderni LLM con la Moral Machine, sottoponendo loro ben 50mila diversi dilemmi. Esplorando le priorità morali dei modelli di linguaggio attraverso l'uso della Macchina Morale, Takemoto ha rivelato sia similitudini che discrepanze significative tra le decisioni di ChatGPT e quelle umane.

I risultati della ricerca hanno evidenziato che, sebbene i modelli di linguaggio come ChatGPT abbiano tendenzialmente priorità morali simili agli esseri umani, ci sono anche deviazioni significative. Ad esempio, mentre gli esseri umani mostrano una lieve preferenza per la protezione dei passeggeri e dei maschi, i modelli di linguaggio dimostrano una preferenza più marcata per la protezione dei pedoni e delle femmine.

Una scoperta che potrebbe aiutare a sviluppare LLM fatti apposta per le automobili, e che possano rispondere meglio a esigenze specifiche di questo scenario. Una questione riguarda per esempio il dataset: avendo usato dati “occidentali”, infatti, gli LLM danno priorità a donne e bambini, ma è una guida morale che altrove potrebbe non essere condivisa. Così come potrebbe non piacere l’idea di un’auto che preferisce salvare il pedone e sacrificare i passeggeri (che potrebbero anche essere i proprietari). 

Gli LLM dimostrano una preferenza per la protezione dei pedoni e delle femmine.

La ricerca ha evidenziato la necessità di una valutazione rigorosa e di un'adeguata supervisione dei modelli di linguaggio nell'industria automobilistica. 

È fondamentale comprendere meglio il funzionamento di questi modelli per assicurarsi che siano “moralmente accettabili”, almeno entro i limiti di certe aree geografiche. Una missione resa però difficile dall'opacità delle società di intelligenza artificiale, che sono apertamente ostili all’idea di spiegare perché i loro modelli si comportino in un certo modo. Per non parlare del fatto che spesso e volentieri proprio non lo sanno. 

La ricerca di Takemoto mostra che i moderni LLM sono potenzialmente impiegabili nel settore automobilistico, volendo già oggi. Ma serve un'attenta calibrazione e supervisione per garantire un allineamento etico con la società. Solo attraverso un approccio trasparente e valutazioni rigorose possiamo garantire che l'intelligenza artificiale rispetti i principi morali che decidiamo di seguire.

Fonte dell'articolo: arstechnica.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Non ti pago per avviare il PC, scatta la denuncia
  • #2
    Lavorare 72 ore a settimana, il nuovo modello che piace a USA e Cina
  • #3
    BMW X3 20d: il SUV più desiderato d'Italia cambia forma
  • #4
    Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
  • #5
    Sono già 8 milioni gli utenti che programmano con Lovable AI
  • #6
    22% di sconto su Amazon con appena 25€ di spesa
Articolo 1 di 5
Può esistere massa senza il bosone di Higgs?
La geometria dello spaziotempo potrebbe spiegare l'origine della massa delle particelle, secondo uno studio che propone dimensioni nascoste.
Immagine di Può esistere massa senza il bosone di Higgs?
4
Leggi questo articolo
Articolo 2 di 5
Scoperti nuovi indizi sulle origini di Homo sapiens
Il bacino Omo-Turkana tra Kenya ed Etiopia conserva oltre 1.200 fossili di ominini, un terzo dei resti umani antichi africani.
Immagine di Scoperti nuovi indizi sulle origini di Homo sapiens
Leggi questo articolo
Articolo 3 di 5
Il vuoto quantistico potrebbe essere più caldo del previsto
Un team internazionale propone un metodo per rivelare l'effetto Unruh, che prevede la percezione del vuoto quantistico come bagno termico.
Immagine di Il vuoto quantistico potrebbe essere più caldo del previsto
Leggi questo articolo
Articolo 4 di 5
Tumore alla vescica: la svolta arriva da un micro-impianto
Dalla sperimentazione SunRISe-1 emergono risultati promettenti per i pazienti che non rispondono più alle terapie standard a base di BCG.
Immagine di Tumore alla vescica: la svolta arriva da un micro-impianto
Leggi questo articolo
Articolo 5 di 5
Robot e AI: mancano ancora standard di sicurezza
L'intelligenza artificiale nei robot mostra comportamenti discriminatori e approva comandi pericolosi quando gestisce dati sensibili degli utenti.
Immagine di Robot e AI: mancano ancora standard di sicurezza
1
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.