L'IA impara a ragionare prima di rispondere, superando molti umani che non lo fanno

I ricercatori di Stanford hanno addestrato un modello IA a riflettere prima di parlare, mimando il monologo interno umano per fornire risposte ponderate

Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor

Un team di ricercatori di Stanford in collaborazione con il gruppo Notbad AI potrebbe aver compiuto un passo significativo verso il colmare la distanza tra le capacità di ragionamento delle macchine e quelle umane. In un lavoro ancora in attesa di revisione paritaria, i ricercatori hanno messo a punto un modello di IA, denominato Quiet Self-Taught Reasoner (Quiet-STaR), capace di "ponderare" prima di fornire risposte, mostrare i propri "ragionamenti" e richiedere feedback sull'accuratezza delle risposte.

Questo approccio innovativo non punta solamente alla capacità dell'IA di insegnare a se stessa come ragionare, un traguardo già raggiunto nel 2022 con l'algoritmo Self-Taught Reasoner, ma ambisce a implementare un meccanismo simile al monologo interiore umano, che idealmente precede l'espressione verbale. Eric Zelikam di Stanford ha esaltato come il ragionamento autodidatta su testi web diversificati possa automaticamente migliorare altri tipi di ragionamento.

Il modello Quiet-STaR è stato costruito su Mistral 7B, un modello linguistico a larga scala (LLM) open-source che vanta sette miliardi di parametri. Tale modello si dice superi anche l'ultima versione del modello Llama di Meta, secondo la comunità di AI Hugging Face. La peculiarità di Quiet-STaR risiede nel suo essere programmato per "mostrare i suoi calcoli" nel fornire ragionamenti dietro alle sue risposte; in più, consente agli utenti di giudicare quale risposta reputano più accurata.

Nonostante questi risultati non siano ancora paragonabili alle capacità umane, si presentano come un passo intrigante verso la riduzione delle distanze nel campo del ragionamento senso-comune tra IA e umani.

La metodologia adottata ha portato il modello a raggiungere una precisione del 47,2%, un risultato non strabiliante, ma comunque un miglioramento rispetto al 36,3% ottenuto senza l'addestramento al ragionamento addizionale. In particolare, il modello ha dimostrato un netto progresso nel campo matematico, raddoppiando le sue capacità da un modesto 5,9% a un 10,9% di risposte corrette. Attualmente, chatbot come ChatGPT di OpenAI e Gemini di Google hanno mostrato maggiori limitazioni in questo ambito. Lo sviluppo di Quiet-STaR potrebbe aprire la strada a nuove possibilità nel migliorare significativamente le capacità di ragionamento delle macchine, avvicinandole sempre più a quelle umane.

Resta la curiosità se OpenAI stia lavorando su un modello simile, noto come Q* (altresì "queue star"), che potrebbe presentare caratteristiche affini a Quiet-STaR. Solo il tempo potrà svelare i progressi futuri in questo campo dell'intelligenza artificiale che, dobbiamo ammetterlo, spaventa un po'.