Il CES 2026 ha portato alla ribalta una tecnologia che potrebbe ridefinire l'esecuzione di modelli AI su PC consumer: Phison ha dimostrato come la sua soluzione aiDAPTIV+ sia in grado di accelerare l'inferenza dei modelli di intelligenza artificiale fino a dieci volte rispetto ai sistemi tradizionali. Una svolta che trasforma le memorie flash da semplici unità di archiviazione a veri e propri tier di memoria gestita, affiancandosi alla RAM per superare i limiti imposti dalle capacità ridotte di memoria dei sistemi client.
Il cuore della soluzione risiede nella gestione intelligente della cache key-value durante l'inferenza. Normalmente, quando i token superano la capacità della cache KV della GPU, le voci più vecchie vengono eliminate: se il modello necessita nuovamente di quei dati, la GPU deve ricalcolarli da zero, con un significativo impatto sulle prestazioni. La tecnologia aiDAPTIV+ scrive invece i token che non trovano spazio nella cache della GPU direttamente sulle memorie flash, mantenendoli disponibili per un riutilizzo immediato senza necessità di rielaborazione.
Secondo i test interni condotti da Phison, i vantaggi sono particolarmente evidenti con i modelli Mixture of Experts e i carichi di lavoro basati su agenti AI. Un modello MoE da 120 miliardi di parametri può essere gestito con soli 32 GB di RAM, contro i circa 96 GB richiesti dagli approcci convenzionali, grazie al fatto che i parametri inattivi vengono conservati nelle memorie flash invece di rimanere residenti nella memoria principale. Il Time to First Token, ovvero il tempo necessario per produrre la prima parola di una risposta, risulta drasticamente ridotto, con benefici che aumentano proporzionalmente alla dimensione del modello e alla lunghezza del contesto.
L'implementazione tecnica dello stack aiDAPTIV+ prevede l'utilizzo di SSD basati su controller avanzati Phison, firmware specializzato e un layer software dedicato. Questa architettura modulare facilita l'integrazione nei sistemi consumer, rappresentando un vantaggio competitivo per i produttori di PC, i rivenditori a valore aggiunto e le piccole aziende interessate a offrire capacità AI avanzate senza richiedere configurazioni hardware estreme. La riduzione del consumo energetico registrata nei test su notebook costituisce un ulteriore punto di forza in un mercato sempre più attento all'efficienza.
Per Phison, il passaggio dal segmento enterprise al mercato consumer rappresenta un'opportunità duplice: da un lato l'incremento delle vendite dei propri controller per SSD, dall'altro l'apertura di un nuovo flusso di ricavi derivante dalla licenza dello stack aiDAPTIV+ ai partner tecnologici. L'azienda taiwanese si posiziona così come enabler di una nuova generazione di PC AI-ready, in linea con la spinta di Microsoft, Intel e AMD verso l'integrazione dell'intelligenza artificiale nei sistemi client attraverso le piattaforme Copilot+ PC e le NPU integrate nei processori.
La diffusione di questa tecnologia potrebbe accelerare la democratizzazione dell'AI locale, permettendo l'esecuzione di modelli linguistici di grandi dimensioni e applicazioni agentic anche su sistemi dotati di configurazioni di memoria mainstream. Resta da verificare l'accoglienza del mercato e l'effettiva implementazione da parte dei produttori di PC nei modelli premium previsti per il 2026, ma le premesse tecniche dimostrate al CES indicano una direzione chiara verso un utilizzo sempre più pervasivo delle memorie flash come componente attivo nell'architettura dei sistemi AI.