L'intelligenza artificiale sta divorando quantità sempre più enormi di energia elettrica, mettendo sotto pressione i data center di tutto il mondo. Una possibile via d'uscita da questa spirale potrebbe arrivare da una tecnologia che molti consideravano ormai superata: i computer analogici. Un gruppo di ricercatori dell'Università di Pechino ha dimostrato che questi dispositivi, opportunamente riprogettati, potrebbero risolvere uno dei calcoli più fondamentali nell'addestramento dei modelli di intelligenza artificiale consumando una frazione dell'energia richiesta dai chip digitali tradizionali.
La differenza tra computer digitali e analogici è radicale. Mentre smartphone, laptop e server elaborano informazioni attraverso sequenze di zero e uno, i sistemi analogici lavorano con grandezze che variano in modo continuo, come la resistenza elettrica. Questa caratteristica li rende estremamente specializzati: un computer analogico viene progettato per risolvere un solo tipo specifico di problema, ma lo fa con una velocità ed efficienza energetica che i sistemi digitali faticano a eguagliare.
Il tallone d'Achille tradizionale dei computer analogici è sempre stata la precisione. Zhong Sun e il suo team hanno affrontato questo limite creando una coppia di chip che collaborano tra loro. Il primo produce rapidamente una soluzione approssimativa alle equazioni matriciali, quelle operazioni matematiche che costituiscono il cuore delle reti di telecomunicazioni, delle simulazioni scientifiche e dell'addestramento dei modelli di AI. Il secondo chip entra poi in azione con un algoritmo di raffinamento iterativo, che analizza gli errori del primo circuito e ne corregge progressivamente i risultati.
I numeri sono impressionanti: il primo chip parte da un tasso di errore dell'1%, ma dopo appena tre cicli di raffinamento questo scende allo 0,0000001%, un livello di accuratezza che Sun sostiene sia paragonabile a quello dei calcoli digitali standard. Attualmente i prototipi sviluppati dal team cinese gestiscono matrici di 16 per 16 elementi, ovvero sistemi con 256 variabili. Dimensioni ancora modeste per gli standard dell'intelligenza artificiale moderna, che richiede matrici potenzialmente di un milione per un milione di elementi.
Ma è proprio qui che emerge il vantaggio strategico della tecnologia analogica. Mentre i chip digitali faticano in modo esponenziale all'aumentare delle dimensioni delle matrici, i circuiti analogici impiegano teoricamente lo stesso tempo indipendentemente dalla grandezza del problema da risolvere. Questo significa che un chip analogico da 32 per 32 elementi potrebbe già superare in throughput – la quantità di dati elaborati al secondo – una GPU NVIDIA H100, uno dei processori di punta utilizzati oggi per addestrare i sistemi di AI più avanzati.
Le proiezioni teoriche parlano di prestazioni fino a mille volte superiori rispetto ai chip digitali come le GPU, con un consumo energetico ridotto di cento volte. Sun però è cauto nel trasferire questi numeri dalla teoria alla pratica. Le applicazioni reali potrebbero richiedere operazioni che vanno oltre le capacità estremamente specializzate dei suoi circuiti, riducendo i benefici effettivi. Come ammette lo stesso ricercatore, se il calcolo matriciale rappresenta la maggior parte del carico computazionale, l'accelerazione sarà significativa; in caso contrario, i vantaggi risulteranno limitati.
La soluzione più probabile, secondo Sun, è lo sviluppo di chip ibridi nei prossimi anni: GPU tradizionali integrate con circuiti analogici dedicati a gestire porzioni molto specifiche dei problemi computazionali. James Millen del King's College di Londra sottolinea l'importanza strategica di questa ricerca, evidenziando come le equazioni matriciali rappresentino un processo chiave nell'addestramento dei modelli di AI. Il mondo moderno si basa su computer digitali universali, capaci di calcolare qualsiasi cosa, ma non tutto può essere calcolato in modo efficiente o rapido con questo approccio.