Il mercato dei semiconduttori per l'intelligenza artificiale si prepara a una nuova accelerazione. Jensen Huang, amministratore delegato di NVIDIA, ha anticipato ai media coreani che il prossimo GTC 2026 vedrà il debutto di chip "mai visti prima al mondo", alimentando le speculazioni su quale sarà la prossima mossa del colosso verde in un settore dove le priorità computazionali cambiano trimestre dopo trimestre. L'appuntamento è fissato per il 15 marzo a San Jose, California, e le aspettative della comunità tech sono alle stelle, considerando che NVIDIA ha dimostrato negli ultimi anni una capacità quasi ineguagliata di mantenere ritmi di innovazione serrati pur operando ai limiti fisici delle tecnologie attuali.
La dichiarazione di Huang arriva a pochi mesi da CES 2026, dove NVIDIA aveva già svelato la lineup Vera Rubin, confermando la piena produzione di sei chip di nuova progettazione che includono le CPU Vera e le GPU Rubin. Tuttavia, le parole dell'amministratore delegato suggeriscono qualcosa che va oltre i prodotti già annunciati. "Abbiamo preparato diversi nuovi chip che il mondo non ha mai visto prima. Niente è facile perché tutte le tecnologie sono ai loro limiti", ha affermato Huang, lasciando intendere che l'azienda potrebbe essere pronta a mostrare architetture radicalmente diverse.
Le ipotesi più accreditate tra gli analisti puntano verso due scenari principali. Il primo riguarda possibili varianti derivate dalla famiglia Rubin, come il già accennato Rubin CPX, che potrebbero introdurre configurazioni inedite per carichi di lavoro specifici. Il secondo scenario, decisamente più intrigante per gli appassionati di architetture hardware, riguarda un'anticipazione della generazione Feynman, la piattaforma successiva a Rubin che secondo le indiscrezioni di settore dovrebbe rappresentare un salto tecnologico significativo nell'integrazione della memoria e nell'organizzazione delle unità di elaborazione.
Il contesto competitivo in cui si muove NVIDIA è particolarmente dinamico. Le esigenze computazionali del mercato dell'intelligenza artificiale hanno subito trasformazioni rapide: se con Hopper e Blackwell il pre-training dei modelli linguistici rappresentava il carico primario, con Grace Blackwell Ultra e Vera Rubin l'attenzione si è spostata sull'inferenza, dove latenza e larghezza di banda della memoria costituiscono i principali colli di bottiglia. Questa evoluzione richiede architetture specificamente ottimizzate, e le voci di corridoio suggeriscono che Feynman potrebbe introdurre un'integrazione più massiccia di SRAM e, potenzialmente, l'adozione di LPU (Language Processing Unit) attraverso tecniche di stacking tridimensionale, sebbene NVIDIA non abbia ancora confermato ufficialmente questi dettagli tecnici.
La strategia di NVIDIA non si limita all'innovazione interna. Huang ha sottolineato l'importanza di partnership e acquisizioni nell'ecosistema AI: "NVIDIA ha partner eccezionali e startup straordinarie, e stiamo investendo sull'intero stack dell'intelligenza artificiale. L'AI non è solo un modello, è un'intera industria che comprende energia, semiconduttori, data center, il cloud e le applicazioni costruite su di esso". Questa visione olistica potrebbe spiegare l'interesse dell'azienda per tecnologie complementari come quelle sviluppate da Groq, la cui architettura LPU orientata alla riduzione della latenza potrebbe integrarsi con le future piattaforme NVIDIA.
Il keynote del GTC 2026 si preannuncia quindi come un appuntamento cruciale per comprendere la direzione tecnologica dei prossimi anni nel settore dell'intelligenza artificiale. Se NVIDIA manterrà la tradizione degli anni scorsi, non si limiterà ad annunci di prodotto ma presenterà una visione complessiva dell'evoluzione dell'infrastruttura AI, dalle architetture dei chip alle soluzioni di sistema complete.