image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Macchine ispirate al cervello sorprendono nella matematica Macchine ispirate al cervello sorprendono nella matematica...
Immagine di Perché alcuni bambini faticano in matematica Perché alcuni bambini faticano in matematica...

Perché l’AI che “ragiona” da sola impara meglio

Uno studio OIST mostra che il dialogo interno potenzia memoria, multitasking e capacità di generalizzazione dei modelli di intelligenza artificiale.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 29/01/2026 alle 08:55

La notizia in un minuto

  • Ricercatori giapponesi hanno sviluppato modelli di AI con dialogo interno e memoria di lavoro a breve termine, ottenendo prestazioni superiori in compiti cognitivi complessi come multitasking e manipolazione di sequenze
  • Il sistema riesce a generalizzare competenze apprese a situazioni nuove utilizzando quantità di dati significativamente inferiori rispetto agli approcci tradizionali, rendendo l'addestramento più efficiente
  • La ricerca combina neuroscienze e robotica per sviluppare elaborazione indipendente dal contenuto, aprendo applicazioni pratiche in robot domestici e agricoli capaci di operare in ambienti reali complessi

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'intelligenza artificiale sta imparando a parlare con se stessa, proprio come fanno gli esseri umani quando organizzano i propri pensieri o valutano decisioni complesse. Quello che potrebbe sembrare un vezzo antropomorfico si è rivelato invece un metodo efficace per migliorare le capacità di apprendimento e adattamento dei sistemi artificiali. Un gruppo di ricercatori dell'Okinawa Institute of Science and Technology (OIST) in Giappone ha dimostrato che modelli di intelligenza artificiale dotati di una forma di dialogo interno, combinato con memoria di lavoro a breve termine, mostrano prestazioni superiori in una vasta gamma di compiti cognitivi. Lo studio, pubblicato sulla rivista scientifica Neural Computation, apre nuove prospettive sulla comprensione dei meccanismi di apprendimento sia biologici che artificiali.

Il concetto di "linguaggio interno" negli esseri umani è ben documentato in psicologia e neuroscienze dello sviluppo: quel borbottio mentale che accompagna il ragionamento, la pianificazione e la risoluzione di problemi. Il team guidato dal dottor Jeffrey Queißer, ricercatore presso la Cognitive Neurorobotics Research Unit dell'OIST, ha voluto verificare se replicare questo processo nei sistemi di intelligenza artificiale potesse potenziarne le capacità. L'intuizione è che l'apprendimento non dipenda esclusivamente dall'architettura della rete neurale, ma anche dalle dinamiche di interazione che il sistema sviluppa con se stesso durante la fase di addestramento.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Per testare questa ipotesi, i ricercatori hanno progettato modelli di AI equipaggiati con un sistema di memoria di lavoro specializzato, simile alla capacità umana di mantenere temporaneamente informazioni attive durante compiti specifici. La memoria di lavoro funziona come una sorta di blocco degli appunti mentale, dove conserviamo temporaneamente dati necessari per seguire istruzioni, eseguire calcoli rapidi o manipolare sequenze. Gli scienziati hanno confrontato diverse architetture di memoria, concentrandosi su modelli dotati di slot di memoria multipli, contenitori temporanei per frammenti di informazione che possono essere recuperati e riorganizzati secondo necessità.

I risultati hanno evidenziato che i modelli con capacità di memoria di lavoro articolata performavano meglio in compiti complessi come l'inversione di sequenze o la ricostruzione di pattern, attività che richiedono di trattenere simultaneamente diverse informazioni e manipolarle nell'ordine corretto. Ma il salto qualitativo è avvenuto quando i ricercatori hanno introdotto nell'addestramento degli obiettivi specifici che incoraggiavano il sistema a "parlare con se stesso" un determinato numero di volte durante l'elaborazione. Questo processo, descritto come un "borbottio silenzioso" interno, ha prodotto miglioramenti significativi specialmente nelle situazioni di multitasking e nei compiti che richiedevano numerosi passaggi sequenziali.

Il sistema combinato risulta particolarmente efficace perché può operare con dati scarsi, offrendo un'alternativa leggera ai vasti dataset normalmente necessari per addestrare modelli generalisti

La capacità di generalizzazione rappresenta uno degli obiettivi più ambiziosi nell'intelligenza artificiale contemporanea. Con questo termine si intende l'abilità di applicare competenze apprese a situazioni nuove, mai incontrate durante l'addestramento, utilizzando regole generali piuttosto che esempi memorizzati. Come sottolinea Queißer, cambiare rapidamente tra diversi compiti e risolvere problemi inediti sono abilità che gli esseri umani esercitano quotidianamente con naturalezza, ma che rappresentano sfide considerevoli per i sistemi artificiali. L'approccio del team giapponese è dichiaratamente interdisciplinare, fondendo neuroscienze dello sviluppo, psicologia cognitiva, apprendimento automatico e robotica per trovare soluzioni innovative.

Il concetto chiave perseguito dalla ricerca è quello di elaborazione dell'informazione indipendente dal contenuto (content agnostic information processing). Si tratta della capacità di applicare abilità cognitive trasversali a domini diversi, senza essere vincolati ai contenuti specifici su cui il sistema è stato addestrato. Questa caratteristica è fondamentale per sviluppare AI davvero flessibili, capaci di operare efficacemente in ambienti variabili e imprevedibili come quelli del mondo reale.

L'aspetto più promettente del sistema sviluppato all'OIST riguarda la sua efficienza nell'apprendimento. Mentre gli approcci tradizionali richiedono dataset estremamente ampi per raggiungere buone capacità di generalizzazione, il modello dotato di dialogo interno riesce a ottenere risultati comparabili con quantità di dati significativamente inferiori. Questa caratteristica lo rende una soluzione complementare particolarmente adatta per applicazioni in cui la raccolta di grandi quantità di dati di addestramento risulta impraticabile o costosa.

Le implicazioni pratiche di questa ricerca vanno oltre il miglioramento delle prestazioni dei sistemi di intelligenza artificiale. Come spiega Queißer, studiare fenomeni come il linguaggio interno e comprenderne i meccanismi fornisce intuizioni fondamentali sulla biologia e sul comportamento umano. La possibilità di applicare questa conoscenza allo sviluppo di robot domestici o agricoli capaci di funzionare in ambienti complessi e dinamici rappresenta solo uno degli scenari applicativi possibili.

Il gruppo di ricerca sta ora pianificando di estendere gli esperimenti oltre le condizioni controllate di laboratorio, esplorando contesti più realistici e rumorosi. Nel mondo reale, decisioni e risoluzione di problemi avvengono in ambienti complessi, dinamici e soggetti a interferenze continue. Per rispecchiare più fedelmente l'apprendimento umano in fase di sviluppo, diventa necessario considerare questi fattori esterni. Questo orientamento si inserisce nell'obiettivo più ampio del team: comprendere a livello neurale come funziona l'apprendimento umano, utilizzando l'intelligenza artificiale come strumento sia di modellazione che di verifica sperimentale delle teorie cognitive.

Fonte dell'articolo: www.sciencedaily.com

Le notizie più lette

#1
Password manager: cos'è, come funziona, a cosa serve

Hardware

Password manager: cos'è, come funziona, a cosa serve

#2
GamesAndMovies.it a rischio chiusura, che fine fanno i preordini?

Videogioco

GamesAndMovies.it a rischio chiusura, che fine fanno i preordini?

#3
Aggiornamento di emergenza per Chrome: installatelo subito
6

Hardware

Aggiornamento di emergenza per Chrome: installatelo subito

#4
Perché alcuni bambini faticano in matematica
2

Scienze

Perché alcuni bambini faticano in matematica

#5
Brutte notizie per PS6 e Nintendo Switch 2
5

Videogioco

Brutte notizie per PS6 e Nintendo Switch 2

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Perché alcuni bambini faticano in matematica
2

Scienze

Perché alcuni bambini faticano in matematica

Di Antonello Buzzi
Macchine ispirate al cervello sorprendono nella matematica

Scienze

Macchine ispirate al cervello sorprendono nella matematica

Di Antonello Buzzi
La dieta nordica riduce la mortalità del 23%
4

Scienze

La dieta nordica riduce la mortalità del 23%

Di Antonello Buzzi
Smettere di mangiare 3 ore prima migliora il cuore

Scienze

Smettere di mangiare 3 ore prima migliora il cuore

Di Antonello Buzzi
Trovata impronta su barca da guerra dell’Età del Ferro

Scienze

Trovata impronta su barca da guerra dell’Età del Ferro

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.