Un team di ricercatori dell'Università del Texas a Dallas ha sviluppato un prototipo di computer che impara in modo simile al cervello umano, senza necessitare dei costosissimi processi di addestramento richiesti dai sistemi di intelligenza artificiale convenzionali. Il dispositivo, realizzato nel laboratorio NeuroSpinCompute sotto la guida del professor Joseph S. Friedman, rappresenta un passo significativo verso la creazione di macchine capaci di apprendere autonomamente con consumi energetici drasticamente ridotti. La ricerca, condotta in collaborazione con Everspin Technologies Inc. e Texas Instruments, è stata pubblicata sulla rivista Communications Engineering.
Il computing neuromorfico si propone come alternativa rivoluzionaria ai sistemi tradizionali, promettendo di portare le capacità dell'intelligenza artificiale direttamente sui dispositivi mobili senza dipendere da enormi data center energivori. Mentre i computer convenzionali e le unità di elaborazione grafica mantengono separate la memoria e l'elaborazione dei dati, costringendo a continui trasferimenti di informazioni tra le due componenti, l'architettura neuromorfica integra questi elementi proprio come avviene nel nostro cervello. Questa differenza fondamentale permette di eseguire operazioni di intelligenza artificiale con un'efficienza enormemente superiore.
I costi dell'addestramento dei sistemi AI attuali raggiungono cifre impressionanti, nell'ordine delle centinaia di milioni di dollari, richiedendo enormi quantità di dati etichettati e calcoli estremamente complessi. Il prototipo texano aggira questo ostacolo sfruttando un principio neurofisiologico formulato negli anni Quaranta dallo psicologo Donald Hebb, secondo cui i neuroni che si attivano insieme si collegano insieme. Come ha spiegato Friedman, nel loro sistema quando un neurone artificiale causa l'attivazione di un altro, la sinapsi che li connette diventa più conduttiva, permettendo alla macchina di apprendere schemi e fare previsioni autonomamente.
L'elemento più innovativo del progetto risiede nell'utilizzo di giunzioni tunnel magnetiche, dispositivi su scala nanometrica composti da due strati di materiale magnetico separati da un sottile isolante. Gli elettroni possono attraversare questa barriera con maggiore o minore facilità a seconda che le magnetizzazioni dei due strati siano allineate nella stessa direzione o in direzioni opposte. Questa proprietà fisica permette di creare connessioni che si rafforzano o indeboliscono in base ai segnali che le attraversano, mimando il comportamento delle sinapsi biologiche durante l'apprendimento.
Nel cervello umano, le reti di neuroni e sinapsi elaborano e conservano rispettivamente le informazioni, con le sinapsi che modificano continuamente la propria efficienza in base ai pattern di attività neurali. Le giunzioni tunnel magnetiche replicano questo meccanismo in forma artificiale: quando i segnali le attraversano in modo coordinato, le connessioni si adattano per rafforzare determinati percorsi neurali. La capacità di commutazione binaria di questi dispositivi garantisce inoltre affidabilità nella memorizzazione delle informazioni, risolvendo una criticità che ha a lungo ostacolato approcci alternativi nel campo neuromorfico.
La sfida immediata per Friedman e il suo gruppo consiste nell'ampliare le dimensioni del prototipo, attualmente funzionante su scala ridotta come dimostrazione di fattibilità. Il passaggio a sistemi più complessi potrebbe aprire la strada a una nuova generazione di dispositivi intelligenti capaci di funzionare senza richiedere connessioni continue a server remoti. Secondo il ricercatore, questi computer ispirati al cervello potrebbero alimentare dispositivi intelligenti senza gli enormi costi energetici associati agli attuali sistemi di intelligenza artificiale, rendendo l'apprendimento automatico accessibile anche su piattaforme mobili con risorse limitate.
L'architettura neuromorfica promette di democratizzare l'accesso alle tecnologie di intelligenza artificiale, riducendo la dipendenza dai mastodontici data center che oggi costituiscono l'infrastruttura necessaria per addestrare e far funzionare i modelli AI più avanzati. L'integrazione tra memoria e processamento, unita alla capacità di apprendimento autonomo con calcoli di addestramento minimali, potrebbe trasformare radicalmente il panorama tecnologico nei prossimi anni, portando capacità computazionali avanzate direttamente nelle nostre tasche.