Nel dibattito sempre più acceso sull'ottimizzazione delle infrastrutture per l'intelligenza artificiale, una proposta decisamente fuori dagli schemi arriva da John Carmack, leggenda vivente del settore videoludico e ingegnere informatico di fama mondiale. L'idea? Utilizzare lunghi anelli di fibra ottica come una sorta di cache L2 per contenere i pesi dei modelli AI, sfruttando la velocità della luce per ottenere latenze prossime allo zero e una larghezza di banda gigantesca. Un concetto che potrebbe sembrare fantascientifico, ma che si basa su calcoli concreti e ha già stimolato un dibattito intenso tra esperti del settore.
Il ragionamento di Carmack parte da un dato di fatto: le fibre ottiche monomodali hanno raggiunto velocità di trasmissione di 256 Tb/s su distanze di 200 km. Con qualche calcolo rapido, l'ingegnere ha determinato che in un dato momento ci sono circa 32 GB di dati "in volo" all'interno del cavo stesso. Considerando che i pattern di riferimento dei pesi nelle reti neurali durante l'inferenza e l'addestramento possono essere deterministici, la fibra potrebbe teoricamente fungere da memoria con una larghezza di banda di 32 TB/s, superiore a qualsiasi soluzione DRAM attuale.
Il concetto non è del tutto nuovo nel panorama informatico. Diversi commentatori hanno fatto notare che l'approccio ricorda le memorie a linea di ritardo utilizzate a metà del secolo scorso, quando il mercurio veniva impiegato come mezzo e le onde sonore come dati. La difficoltà di gestione del mercurio spinse persino Alan Turing a proporre alternative bizzarre come miscele di gin. La differenza fondamentale rispetto a quelle soluzioni primitive sta nell'eleganza della luce: prevedibile, facile da gestire e soprattutto estremamente efficiente dal punto di vista energetico.
Il vero vantaggio della proposta di Carmack risiede nel risparmio energetico. Mantenere attive le celle DRAM richiede un consumo elettrico costante e significativo, mentre la gestione della luce in una fibra ottica necessita di energia minima. In un'era in cui i data center per l'AI consumano quantità crescenti di energia, questa caratteristica potrebbe risultare cruciale. Carmack stesso ha osservato che la trasmissione in fibra ottica potrebbe avere una traiettoria di crescita più promettente rispetto alla DRAM, anche se il costo di 200 km di fibra ottica rimane un ostacolo non trascurabile.
Le obiezioni non sono mancate. Amplificatori ottici e processori di segnale digitale necessari per mantenere l'integrità del segnale potrebbero erodere i benefici energetici. Inoltre, i prezzi della DRAM sono destinati a scendere nel tempo, riducendo il gap economico. Elon Musk ha persino suggerito l'uso del vuoto come mezzo di trasmissione, evocando scenari fantascientifici con laser spaziali, sebbene la praticità di un simile approccio rimanga quantomeno dubbia.
Una variante più concreta della proposta riguarda l'utilizzo di memoria flash esistente, collegando un numero sufficiente di chip direttamente agli acceleratori AI con un'attenta gestione dei tempi di accesso. Questo richiederebbe uno standard condiviso tra produttori di memoria flash e di acceleratori, ma considerati gli investimenti massicci nell'intelligenza artificiale, l'ipotesi non appare irrealistica. Del resto, diverse ricerche accademiche hanno già esplorato direzioni simili: progetti come Behemoth del 2021, FlashGNN e FlashNeuron dello stesso anno, e più recentemente l'Augmented Memory Grid, dimostrano che l'integrazione di memoria non volatile nelle architetture AI è un filone di ricerca attivo.