image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di Diabete: finalmente una soluzione efficace Diabete: finalmente una soluzione efficace...
Immagine di Quantum computing, c’è un salto storico Quantum computing, c’è un salto storico...

L'IA impara a ragionare prima di rispondere, superando molti umani che non lo fanno

I ricercatori di Stanford hanno addestrato un modello IA a riflettere prima di parlare, mimando il monologo interno umano per fornire risposte ponderate

Advertisement

Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor @Tom's Hardware Italia

Pubblicato il 21/03/2024 alle 09:00
Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor @Tom's Hardware Italia

Pubblicato il 21/03/2024 alle 09:00
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Un team di ricercatori di Stanford in collaborazione con il gruppo Notbad AI potrebbe aver compiuto un passo significativo verso il colmare la distanza tra le capacità di ragionamento delle macchine e quelle umane. In un lavoro ancora in attesa di revisione paritaria, i ricercatori hanno messo a punto un modello di IA, denominato Quiet Self-Taught Reasoner (Quiet-STaR), capace di "ponderare" prima di fornire risposte, mostrare i propri "ragionamenti" e richiedere feedback sull'accuratezza delle risposte.

Questo approccio innovativo non punta solamente alla capacità dell'IA di insegnare a se stessa come ragionare, un traguardo già raggiunto nel 2022 con l'algoritmo Self-Taught Reasoner, ma ambisce a implementare un meccanismo simile al monologo interiore umano, che idealmente precede l'espressione verbale. Eric Zelikam di Stanford ha esaltato come il ragionamento autodidatta su testi web diversificati possa automaticamente migliorare altri tipi di ragionamento.

Il modello Quiet-STaR è stato costruito su Mistral 7B, un modello linguistico a larga scala (LLM) open-source che vanta sette miliardi di parametri. Tale modello si dice superi anche l'ultima versione del modello Llama di Meta, secondo la comunità di AI Hugging Face. La peculiarità di Quiet-STaR risiede nel suo essere programmato per "mostrare i suoi calcoli" nel fornire ragionamenti dietro alle sue risposte; in più, consente agli utenti di giudicare quale risposta reputano più accurata.

Nonostante questi risultati non siano ancora paragonabili alle capacità umane, si presentano come un passo intrigante verso la riduzione delle distanze nel campo del ragionamento senso-comune tra IA e umani.

La metodologia adottata ha portato il modello a raggiungere una precisione del 47,2%, un risultato non strabiliante, ma comunque un miglioramento rispetto al 36,3% ottenuto senza l'addestramento al ragionamento addizionale. In particolare, il modello ha dimostrato un netto progresso nel campo matematico, raddoppiando le sue capacità da un modesto 5,9% a un 10,9% di risposte corrette. Attualmente, chatbot come ChatGPT di OpenAI e Gemini di Google hanno mostrato maggiori limitazioni in questo ambito. Lo sviluppo di Quiet-STaR potrebbe aprire la strada a nuove possibilità nel migliorare significativamente le capacità di ragionamento delle macchine, avvicinandole sempre più a quelle umane.

Resta la curiosità se OpenAI stia lavorando su un modello simile, noto come Q* (altresì "queue star"), che potrebbe presentare caratteristiche affini a Quiet-STaR. Solo il tempo potrà svelare i progressi futuri in questo campo dell'intelligenza artificiale che, dobbiamo ammetterlo, spaventa un po'.

Fonte dell'articolo: futurism.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Quantum computing, c’è un salto storico
Scienze

Quantum computing, c’è un salto storico

Di Antonello Buzzi • 1 giorno fa
Diabete: finalmente una soluzione efficace
Scienze

Diabete: finalmente una soluzione efficace

Di Antonello Buzzi • 1 giorno fa
Il sistema immunitario nasconde un’arma anti-age naturale
1
Scienze

Il sistema immunitario nasconde un’arma anti-age naturale

Di Antonello Buzzi • 1 giorno fa
Un’esplosione stellare come non si era mai vista prima
Scienze

Un’esplosione stellare come non si era mai vista prima

Di Antonello Buzzi • 1 giorno fa
Scoperto un legame tra il piombo e l'evoluzione umana
Scienze

Scoperto un legame tra il piombo e l'evoluzione umana

Di Antonello Buzzi • 1 giorno fa

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.