Un team di ricercatori dell'Università del Minnesota Twin Cities ha sviluppato un nuovo design di memoria per computer che potrebbe ridurre drasticamente il consumo energetico dei sistemi di intelligenza artificiale. La ricerca, recentemente pubblicata sulla rivista Nature Unconventional Computing, affronta uno dei principali problemi dell'IA: l'elevato consumo di energia.
Non è un segreto che l'intelligenza artificiale, generativa e non, consumi enormi quantità di energia. Basti pensare che nel 2021, l'uso globale dell'IA ha richiesto tanta energia quanto l'intera nazione di Cipro; vista la centralità che l'IA ha già oggi (e avrà sempre di più) nelle nostre vite, è essenziale trovare soluzioni che la rendano più efficiente dal punto di vista energetico.
Il problema dell'architettura Von Neumann
La maggior parte dei sistemi di calcolo moderni si basa sull'architettura Von Neumann, in cui i sottosistemi di logica e artimetica e di memoria sono separati. Durante le normali operazioni, i dati vengono continuamente spostati tra i moduli di memoria e i processori, creando un collo di bottiglia sia in termini di velocità di elaborazione che di consumo energetico.
I ricercatori hanno evidenziato che il semplice spostamento dei dati consuma fino a 200 volte più energia rispetto ai calcoli stessi.
La soluzione CRAM
Il team di ricerca ha sviluppato una nuova soluzione chiamata memoria ad accesso casuale computazionale, indicata dalla nomenclatura CRAM. In questo design viene eliminata la necessità di spostare i dati, con i calcoli che vengono eseguiti direttamente dalle celle di memoria.
I ricercatori hanno integrato un substrato di calcolo spintronico riconfigurabile direttamente nella cella di memoria. Questa innovazione potrebbe ridurre il consumo energetico di un'operazione di IA di un fattore 1.000 rispetto alle soluzioni attuali.
Il team ha testato la CRAM su un compito di classificazione di cifre scritte a mano, ottenendo risultati sorprendenti: il consumo energetico è stato ridotto di 2.500 volte, mentre il tempo di elaborazione ridotto di 1.700 volte rispetto a quanto ottenuto con un sistema di elaborazione near-memory prodotto a 16 nm.
L'uso di hardware sempre più potente ed energivoro rende essenziale trovare modi per migliorare il più possibile l'efficienza energetica, e visti i risultati della ricerca CRAM sembra decisamente un passo nella giusta direzione. Ci vorrà del tempo prima che sia implementata, ma di certo questa tecnologia sembra promettere bene.