OpenAI e Nvidia hanno interrotto le trattative per finalizzare l'investimento strategico da cento miliardi di dollari annunciato lo scorso settembre; qualcosa che in molti si aspettavano come conseguenza delle tensioni tra le due aziende di cui abbiamo parlato ieri.
Secondo quanto riportato da Reuters, il progetto per la costruzione di un'infrastruttura massiccia basata sulla piattaforma Vera Rubin ha subito un arresto significativo. Nvidia ha recentemente dichiarato, tramite il proprio CEO Jensen Huang, che la cifra di cento miliardi non ha mai rappresentato un impegno vincolante, definendo l'accordo una semplice lettera d'intenti.
Sin dal primo momento il piano sembrava quantomeno azzardato, con Nvidia che prestava del denaro a OpenAI, per poi recuperarlo tramite la vendita di GPU. Una circolarità in cui molti hanno visto un meccanismo perverso e un sintomo di bolla finanziaria.
Ma conta anche il fatto che i prodotti Nvidia sono specializzati e, per il training, e il mondo dell’Intelligenza Artificiale oggi guarda all’inferenza come centro focale: qui ci sono i maggiori consumi e le maggiori criticità. Un discorso simile vale per la latenza, cioè la velocità delle risposte, e su entrambe le questioni stanno nascendo soluzioni alternative che promettono costi minori rispetto a Nvidia.
Probabilmente, dunque, OpenAI è meno disposta all’accordo perché significherebbe vincolarsi a un partner costoso e impegnativo, mentre opzioni meno care sembrano ormai pronte al prime time.
Il progetto originario prevedeva una capacità installata di dieci gigawatt, una potenza equivalente a quella generata da dieci reattori nucleari. Nvidia avrebbe dovuto fornire sistemi di calcolo e networking in grado di sostenere la crescita di OpenAI, che ha raggiunto i 700 milioni di utenti attivi settimanali. Tuttavia, le negoziazioni si sono trascinate per mesi senza arrivare a una firma, mentre Huang criticava privatamente quella che considerava una mancanza di disciplina nell'approccio commerciale di OpenAI.
Limiti dell'architettura GPU e ricerca di alternative
I tecnici di OpenAI hanno identificato criticità specifiche nelle prestazioni delle GPU di Nvidia durante l'esecuzione di Codex, lo strumento dedicato alla generazione di codice software. Il problema risiede nella gestione della memoria: le architetture attuali si affidano a memoria esterna, rallentando il processo di recupero dei dati rispetto alle soluzioni che integrano la memoria SRAM direttamente sul silicio. Per questo motivo, Cerebras ha scommesso sulla memoria SRAM per abbattere drasticamente i tempi di latenza nelle applicazioni più sensibili.
In questo scenario, OpenAI ha già siglato un accordo da dieci miliardi di dollari con Cerebras per aggiungere 750 megawatt di capacità dedicata all'inferenza rapida entro il 2028. Parallelamente, la società ha stretto intese con AMD per la fornitura di sei gigawatt di GPU e ha avviato una collaborazione con Broadcom per lo sviluppo di un chip personalizzato. Queste mosse indicano una chiara volontà di differenziare il parco macchine per non restare ostaggio di un unico fornitore.
Anche il fronte della competizione si sta frammentando, considerando che il mercato dell'inferenza ha superato l'addestramento in termini di volumi d'affari nei data center. Mentre OpenAI cerca indipendenza, altri player non restano a guardare: Microsoft ha lanciato Maia 200, un acceleratore a 3nm progettato internamente per ottimizzare i carichi di lavoro di Copilot. Questa tendenza alla verticalizzazione minaccia il dominio di Nvidia, che ha risposto acquisendo licenze tecnologiche da startup come Groq per un valore di 20 miliardi di dollari, mossa che ha di fatto bloccato le trattative tra OpenAI e la stessa Groq.
Il raffreddamento dei rapporti tra Altman e Huang solleva dubbi sulla sostenibilità dei cosiddetti investimenti circolari, in cui il produttore di chip finanzia il proprio cliente affinché quest'ultimo acquisti il suo hardware. Alcuni analisti finanziari vedono in questo schema un rischio di bolla, alimentata da contratti garantiti a società che faticano a generare profitti reali. OpenAI, nonostante la valutazione stellare, deve dimostrare di poter gestire costi infrastrutturali che potrebbero superare i 500 miliardi di dollari per l'intero progetto da dieci gigawatt.
L'analisi di questa rottura suggerisce che l'era del dominio incontrastato delle GPU general-purpose stia volgendo al termine a favore di soluzioni più verticali. Nvidia sta cercando di trasformarsi da fornitore di componenti a partner infrastrutturale totale, ma la resistenza di OpenAI dimostra che i grandi utilizzatori di intelligenza artificiale non sono disposti a cedere il controllo del proprio stack tecnologico. La ricerca di chip con SRAM integrata non è solo una questione di millisecondi risparmiati, ma una manovra politica per evitare che il costo dell'inferenza diventi una tassa permanente sulla crescita.
Il fallimento del piano da cento miliardi potrebbe segnare un punto di svolta anche per il mercato finanziario, che finora ha premiato Nvidia per ogni annuncio legato a OpenAI. Se il principale cliente del settore inizia a guardare altrove per le componenti più critiche, allora traballa anche la narrazione di una crescita infinita per il colosso delle GPU.
A questo punto è evidente che il mondo dell’Intelligenza Artificiale sta entrando in una nuova fase, sia tecnologica sia finanziaria. Una fase che potrebbe anche vedere il sorgere di nuovi attori che finora hanno giocato ruoli marginali; ma allo stesso tempo le “superpotenze” come Nvidia faranno di tutto per conservare la propria posizione, e probabilmente si aprirà una stagione di acquisizioni.
Dopotutto, da una parte ci sono in giro startup che possono fare la differenza nei prossimi anni, e dall’altra Nvidia ha letteralmente montagne di soldi con cui comprarle.